全新的 NVIDIA Spectrum-X 网络平台集 NVIDIA Spectrum-4、BlueField-3 DPU和加速软件于一身;全球头部云服务提供商采用该平台来横向扩展其生成式 AI服务
全新的 NVIDIA Spectrum-X 网络平台结合了 NVIDIA Spectrum-4、BlueField-3 DPU 和加速软件;全球头部云服务提供商采用该平台来横向扩展其生成式 AI 服务
COMPUTEX — 2023 年 5 月 29 日NVIDIA 于今日宣布推出 NVIDIA Spectrum-X 网络平台,该平台是一个加速网络平台,致力于提高基于以太网 AI 云的性能与效率。
NVIDIA Spectrum-X™ 是基于网络创新的新成果而构建 —— 将 NVIDIA Spectrum-4 以太网交换机与 NVIDIA BlueField®-3 DPU 紧密结合,取得了 1.7 倍的整体 AI 性能和能效提升,同时可在多租户环境中提供一致、可预测的性能。Spectrum-X 还提供 NVIDIA 加速软件和软件开发套件(SDK),使开发人员能够构建软件定义的云原生AI应用。
这种端到端的功能交付,可以减少基于transformer的大规模生成式AI模型的运行时间,助力网络工程师、AI数据科学家和云服务商及时取得更好的结果,并更快做出明智的决策。
全球头部超大规模云服务商正在采用 NVIDIA Spectrum-X,包括领先的云创新企业。
作为 NVIDIA Spectrum-X 参考设计的蓝图和测试平台,NVIDIA 正在构建一台超大规模生成式 AI 超级计算机,命名为 Israel-1。它将被部署在 NVIDIA 以色列数据中心,由基于 NVIDIA HGX™ 平台的戴尔 PowerEdge XE9680 服务器, BlueField-3 DPU 和 Spectrum-4 交换机等打造而成。
NVIDIA 网络高级副总裁 Gilad Shainer 表示:“诸如生成式 AI 等革命性技术正在推动各家企业提升数据中心性能的极限,从而获得更多竞争优势。作为新一代以太网络,NVIDIA Spectrum-X 为新一代 AI 工作负载扫清障碍,将会彻底改变整个行业。”
NVIDIA Spectrum-X 网络平台具有高度的通用性,可用于各种 AI 应用。它采用完全标准的以太网,与现有以太网的堆栈实现互通。
该平台起步于 Spectrum-4 ,这是全球首款专为 AI 网络打造的 51Tb/s 以太网交换机。先进的 RoCE 扩展功能可以跨 Spectrum-4 交换机、BlueField-3 DPU 和 NVIDIA LinkX 光纤相互协同,共同构建了一个专为 AI 云优化的端到端 400GbE 网络。
NVIDIA Spectrum-X 通过性能隔离增强了多租户环境,确保租户的 AI 工作负载能以最佳性能持续运行。NVIDIA Spectrum-X 还提供了更好的 AI 性能可见性,它可以识别性能瓶颈,而且具有全自动网络验证功能。
驱动 Spectrum-X 的加速软件包括Cumulus Linux、纯 SONiC 和 NetQ 等性能强大的 NVIDIA SDK,共同助力该网络平台实现极致性能。另外,Spectrum-X 还包括 BlueField DPU 的核心软件——NVIDIA DOCA™ 软件框架。
NVIDIA Spectrum-X 单台交换机即可实现突破性的 256 个 200Gb/s 端口的连接,使用两层叶脊拓扑可以连接 16,000 个端口,以支持 AI 云的增长和扩展,同时保持极高的性能和极低的网络延时。
生态采用情况
提供 NVIDIA Spectrum-X 方案的公司包括戴尔科技、联想和超微。
供货情况
NVIDIA Spectrum-X、Spectrum-4 交换机、BlueField-3 DPU 和 400G LinkX 光纤现已上市。
点评:生成式AI不光对算力有着巨大的需求,同时对网络性能也提出了更高的要求。NVIDIA Spectrum-X以太网平台针对生成式AI应用的网络要求进行了优化,可以提升网络性能,加速生成式AI模型的生成和运行。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。