Nvidia今天宣布,将与微软共同合作打造一台为运行人工智能软件而优化的超级计算机。

两家厂商,该系统将成为全球最强大的人工智能超级计算机之一,将在微软Azure公有云平台中实施。
Nvidia公司企业计算副总裁Manuvir Das表示:“人工智能技术的进步和行业普及正在加速。基础模型的突破引发了一股研究浪潮,培育了新的创业公司并孕育了一批新的企业应用。我们与微软的合作将为研究人员和企业提供最先进的人工智能基础设施和软件,以发挥人工智能的变革力量。”
在此次合作中,微软将为Azure配备数万个Nvidia GPU。GPU因其能够加速人工智能和科学应用而被广泛用于超级计算机中。除了GPU之外,微软还将部署其他几项来自Nvidia的技术,包括Nvidia的Quantum-2系列网络交换机。
目前Azure公有云中已经包含了大量来自Nvidia的GPU。Azure客户可以访问由Nvidia A100芯片提供支持的多个计算实例,A100是Nvidia在2020年推出的旗舰数据中心GPU。在此次合作中,微软将推出由Nvidia当前最新旗舰数据中心GPU——H100芯片——提供支持的Azure云实例。
H100是Nvidia在今年3月推出的,具有800亿个晶体管,训练AI模型的速度比Nvidia上一代A100快6倍。H100还包括了优化的功能,使其能够更有效地运行Transformer模型,一种广泛用于自然语言处理等任务的高级神经网络。
微软计划推出的基于H100的Azure实例将使用Nvidia Quantum-2 InfiniBand交换机系列来管理网络流量,这些交换机每个网络端口每秒可以处理400 GB的流量,是Nvidia上一代硬件的2倍。
软件也是此次Nvidia与微软合作的重点,两家厂商将在Azure中更轻松地访问各自的AI开发工具。
微软提供了一款名为DeepSpeed的开源工具包,让开发者可以用来降低中立网络对基础设施的要求。据微软称,该工具包可以减少训练和运行神经网络所需的硬件。微软和Nvidia将优化DeepSpeed使其可以运行在Nvidia H100 GPU上。
优化工作将侧重于帮助开发者加速那些采用Transformer神经网络架构的AI模型。速度上的提升将得益于Nvidia H100 GPU内置的Transformer Engine功能,该功能通过减少完成计算所必须处理的数据量来加速神经网络。
Nvidia也提供了一个名为Nvidia AI Enterprise的软件平台,以帮助企业更轻松地在Nvidia芯片上运行AI应用。该平台减少了构建、部署和管理神经网络所需的手动工作量,此外还包括一组针对生成购物推荐等任务优化的预配置神经网络。
在早期合作中,Nvidia认证了Nvidia Enterprise AI使其可以运行在由A100芯片提供支持的微软Azure实例上。两家厂商现在将联手在微软即将推出的基于H100的Azure实例上支持Nvidia Enterprise AI。
微软Cloud + AI事业部执行副总裁Scott Guthrie表示:“我们与Nvidia的合作开启了全球最具扩展性的超级计算机平台,该平台为微软Azure上的每个企业提供了最先进的AI功能。”
在此次合作中,Nvidia计划扩大对Azure的使用。Nvidia将使用Azure实例来支持自己在生成AI领域的研究工作,生成式AI是一种高级神经网络,可以执行生成文本、视频和软件代码等任务。
Nvidia已经在该领域进行了大量投入。去年10月,Nvidia推出了MT-NLG,一种生成式AI系统,当时号称是同类产品中最强大的。MT-NLG具有5300亿个参数,这些配置设置决定了神经网络处理数据的方式。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。