Nvidia今天宣布,将与微软共同合作打造一台为运行人工智能软件而优化的超级计算机。
两家厂商,该系统将成为全球最强大的人工智能超级计算机之一,将在微软Azure公有云平台中实施。
Nvidia公司企业计算副总裁Manuvir Das表示:“人工智能技术的进步和行业普及正在加速。基础模型的突破引发了一股研究浪潮,培育了新的创业公司并孕育了一批新的企业应用。我们与微软的合作将为研究人员和企业提供最先进的人工智能基础设施和软件,以发挥人工智能的变革力量。”
在此次合作中,微软将为Azure配备数万个Nvidia GPU。GPU因其能够加速人工智能和科学应用而被广泛用于超级计算机中。除了GPU之外,微软还将部署其他几项来自Nvidia的技术,包括Nvidia的Quantum-2系列网络交换机。
目前Azure公有云中已经包含了大量来自Nvidia的GPU。Azure客户可以访问由Nvidia A100芯片提供支持的多个计算实例,A100是Nvidia在2020年推出的旗舰数据中心GPU。在此次合作中,微软将推出由Nvidia当前最新旗舰数据中心GPU——H100芯片——提供支持的Azure云实例。
H100是Nvidia在今年3月推出的,具有800亿个晶体管,训练AI模型的速度比Nvidia上一代A100快6倍。H100还包括了优化的功能,使其能够更有效地运行Transformer模型,一种广泛用于自然语言处理等任务的高级神经网络。
微软计划推出的基于H100的Azure实例将使用Nvidia Quantum-2 InfiniBand交换机系列来管理网络流量,这些交换机每个网络端口每秒可以处理400 GB的流量,是Nvidia上一代硬件的2倍。
软件也是此次Nvidia与微软合作的重点,两家厂商将在Azure中更轻松地访问各自的AI开发工具。
微软提供了一款名为DeepSpeed的开源工具包,让开发者可以用来降低中立网络对基础设施的要求。据微软称,该工具包可以减少训练和运行神经网络所需的硬件。微软和Nvidia将优化DeepSpeed使其可以运行在Nvidia H100 GPU上。
优化工作将侧重于帮助开发者加速那些采用Transformer神经网络架构的AI模型。速度上的提升将得益于Nvidia H100 GPU内置的Transformer Engine功能,该功能通过减少完成计算所必须处理的数据量来加速神经网络。
Nvidia也提供了一个名为Nvidia AI Enterprise的软件平台,以帮助企业更轻松地在Nvidia芯片上运行AI应用。该平台减少了构建、部署和管理神经网络所需的手动工作量,此外还包括一组针对生成购物推荐等任务优化的预配置神经网络。
在早期合作中,Nvidia认证了Nvidia Enterprise AI使其可以运行在由A100芯片提供支持的微软Azure实例上。两家厂商现在将联手在微软即将推出的基于H100的Azure实例上支持Nvidia Enterprise AI。
微软Cloud + AI事业部执行副总裁Scott Guthrie表示:“我们与Nvidia的合作开启了全球最具扩展性的超级计算机平台,该平台为微软Azure上的每个企业提供了最先进的AI功能。”
在此次合作中,Nvidia计划扩大对Azure的使用。Nvidia将使用Azure实例来支持自己在生成AI领域的研究工作,生成式AI是一种高级神经网络,可以执行生成文本、视频和软件代码等任务。
Nvidia已经在该领域进行了大量投入。去年10月,Nvidia推出了MT-NLG,一种生成式AI系统,当时号称是同类产品中最强大的。MT-NLG具有5300亿个参数,这些配置设置决定了神经网络处理数据的方式。
好文章,需要你的鼓励
AMD Radeon(TM) RX 9000 系列依托AI 加速为玩家带来极致游戏体验。
Inception Labs 于周四发布了 Mercury Coder,这是一种新的 AI 语言模型,利用扩散技术比传统模型更快地生成文本。与逐字生成文本的传统模型(如 ChatGPT)不同,基于扩散的模型(如 Mercury)能够同时生成完整的响应,并将其从最初的遮蔽状态逐步精炼为连贯的文本。
微软终于将其 AI 助手 Copilot 作为独立应用程序推出 macOS 版本。这款免费应用现已在 Mac App Store 上线,支持多种功能如文本翻译、问题解答、文档生成等。Copilot 采用 OpenAI 的 GPT-4 和 DALL-E 3 等模型,标志着微软在 AI 领域的重要布局。该应用要求 M1 或更新的 Mac 设备,以及 macOS 14 或更高版本。