数以万计的 NVIDIA GPU、NVIDIA Quantum-2 InfiniBand 以及全栈式 NVIDIA AI 软件即将登陆 Azure;NVIDIA、微软和多家全球企业将使用该平台进行快速、经济的 AI 开发和部署
美国加利福尼亚州圣克拉拉 – 2022 年 11 月 16 日 – NVIDIA 于今日宣布与微软展开一项为期多年的合作,双方将共同打造全球最强大的 AI 超级计算机。微软 Azure 的先进超级计算基础设施,结合 NVIDIA GPU、网络和全栈式 AI 软件为此超级计算机赋能,以帮助企业训练、部署和扩展包括大型、先进模型在内的AI。
Azure 的云端 AI 超级计算机包括强大、可扩展 ND 与 NC 系列虚拟机,其专为 AI 分布式训练和推理而优化,是首个采用 NVIDIA 先进 AI 堆栈的公有云,并添加了数以万计的 NVIDIA A100 和 H100 GPU、NVIDIA Quantum-2 400Gb/s InfiniBand 网络和 NVIDIA AI Enterprise 软件套件在平台上。
在此次合作中,NVIDIA 将使用 Azure 的可扩展虚拟机实例来研究并进一步加快生成式 AI 的发展。生成式 AI 是正在迅速兴起的 AI 领域,其中像 Megatron Turing NLG 530B这样的基础模型是无监督、自学习算法的基准,这些算法被用来创造新的文本、代码、数字图像、视频或音频。
两家公司还将合作优化微软的 DeepSpeed 深度学习优化软件。NVIDIA 的全栈式 AI 工作流和软件开发工具包皆专为 Azure 进行了优化,并将提供给 Azure 企业客户。
NVIDIA 企业计算副总裁 Manuvir Das 表示: “AI 技术正在加速发展,行业的采用速度也在同时加快。基础模型上的突破引发了研究浪潮、培育了新的初创企业并启动了新的企业应用程序。我们将与微软一同为研究者和企业提供最先进的 AI 基础设施和软件,使他们能够充分利用 AI 的变革性力量。”
微软云与 AI 事业部执行副总裁 Scott Guthrie 表示:“AI 正在掀起整个企业和工业计算的下一轮自动化浪潮,帮助企业机构在变幻莫测的经济环境中得以事半功倍。我们与 NVIDIA 合作,打造全球可扩展性最强的超级计算机平台,为微软 Azure 上的每家企业提供最先进的 AI 功能。”
通过 Azure 上的 NVIDIA 计算 与 Quantum-2 InfiniBand 实现可扩展峰值性能
微软Azure的AI优化虚拟机实例采用了 NVIDIA 最先进的数据中心 GPU,并且是首个搭载 NVIDIA Quantum-2 400Gb/s InfiniBand 网络的公有云实例。客户可以在单个集群中部署数千 GPU 来训练最具规模的大型语言模型,大规模地构建最复杂的推荐系统以及实现生成式 AI。
目前的 Azure 实例采用了 NVIDIA Quantum 200Gb/s InfiniBand 网络和 NVIDIA A100 GPU。未来的实例将集成 NVIDIA Quantum-2 400Gb/s InfiniBand 网络和 NVIDIA H100 GPU。结合 Azure 先进的计算云基础设施、网络和存储,这些通过 AI 优化的产品将为任何规模的 AI 训练和深度学习推理工作负载提供可扩展的峰值性能。
加速 AI 的开发和部署
另外,该平台将支持广泛的 AI 应用和服务,包括微软 DeepSpeed 和 NVIDIA AI Enterprise 软件套件。
微软 DeepSpeed 将使用 NVIDIA H100 Transformer 引擎来加速基于 Transformer的模型,这些模型可用于大型语言模型、生成式 AI 和编写计算机代码等应用。该技术将 8 位浮点精度能力应用于 DeepSpeed,大大加快了 Transformer 的 AI 计算速度,使其吞吐量达到 16 位运算的两倍。
被全球企业广泛采用的 NVIDIA AI 平台软件 NVIDIA AI Enterprise 已通过认证并支持搭载 NVIDIA A100 GPU 的微软Azure 实例。未来的软件版本将增加对搭载 NVIDIA H100 GPU 的 Azure 实例的支持。
NVIDIA AI Enterprise 包括用于语音 AI 的 NVIDIA Riva 以及 NVIDIA Morpheus 网络安全应用框架,可简化从数据处理和 AI 模型训练到仿真和大规模部署等AI工作流中的每一步。
好文章,需要你的鼓励
AMD Radeon(TM) RX 9000 系列依托AI 加速为玩家带来极致游戏体验。
Inception Labs 于周四发布了 Mercury Coder,这是一种新的 AI 语言模型,利用扩散技术比传统模型更快地生成文本。与逐字生成文本的传统模型(如 ChatGPT)不同,基于扩散的模型(如 Mercury)能够同时生成完整的响应,并将其从最初的遮蔽状态逐步精炼为连贯的文本。
微软终于将其 AI 助手 Copilot 作为独立应用程序推出 macOS 版本。这款免费应用现已在 Mac App Store 上线,支持多种功能如文本翻译、问题解答、文档生成等。Copilot 采用 OpenAI 的 GPT-4 和 DALL-E 3 等模型,标志着微软在 AI 领域的重要布局。该应用要求 M1 或更新的 Mac 设备,以及 macOS 14 或更高版本。