Nvidia今天推出了两款用于高性能计算和人工智能工作负载的芯片新品。
本周Nvidia在德国汉堡举行的ISC高性能计算大会上宣布推出了这两款芯片——Nvidia Grace CPU Superchip和Nvidia Grace Hopper Superchip,旨在为新一代的百亿亿级计算机服务器提供动力。

Nvidia表示,Nvidia Grace CPU超级芯片基于是Nvidia首款基于Arm的CPU(代号也是Grace)。该芯片配置了两个基于Arm的CPU提供支持,并通过高带宽、低延迟的Nvidia NVLink-C2C进行连接。Nvidia称这是一个“突破性的设计”,其中包含了多达144个Arm Neoverse内核,采用了Scalable Vector Extension和性能达每秒1 TB的内存系统。
Nvidia Grace CPU Superchip与PCIe Gen5协议接口,可以轻松链接到Nvidia最新的GPU,用于人工智能和机器学习工作负载,也可以与Nvidia BlueField-3 DPU连接,用于高性能计算应用。
至于Nvidia Grace Hopper超级芯片,这是一个更强大的系统,结合了Nvidia Hopper GPU与Nvidia Grace CPU,是一个通过NVLink-C2C连接的集成模块,用于高性能计算和大规模人工智能工作负载。
Nvidia表示,这两个新系统都运行Nvidia的人工智能和高性能计算软件的完整产品组合,支持“全栈的、集成的计算”。
这两个系统主要针对OEM厂商,特别是计算机服务器制造商,而且这些客户会立即采用这些芯片,首批搭载Grace超级芯片的系统将于今年晚些时候推出,包括戴尔、HPE、联想、浪潮、技嘉、超微和Atos。Nvidia承诺,将会给这些OEM厂商带来更高性能、更大内存带宽、更高能效等诸多优势。
而且Nvidia正在试图让几家知名客户来为自己背书,其中包括美国国防部的洛斯阿拉莫斯国家实验室。
洛斯阿拉莫斯实验室公布了一套名为Venado的新型高性能计算系统,号称是使用HPE Cray EX超级计算机构建的“异构系统”,将混合使用Grace CPU超级芯片节点和Grace Hopper超级芯片。一旦系统开始运行,预计性能将超过10 exaflops,并得到广泛应用。
洛斯阿拉莫斯实验室模拟和计算副主任Irene Qualters表示:“Venado系统为LANL的研究人员带来了Nvidia Grace Hopper的高性能水平,将继续致力于推动科学突破的界限。Nvidia的加速计算平台和广阔的生态系统正在消除性能上的障碍,使该实验室能够有新的发现,造福国家和整个社会。”
Nvidia的另一个主要客户是瑞士国家计算中心,该中心表示,他们的新系统也将由HPE Cray EX超级计算机构建。该中心表示,这套计划中的系统将配置多个Grace CPU超级芯片,将作为一种面向通用研究的先进平台提供服务。
Nvidia公司超大规模和高性能计算副总裁Ian Buck表示,超级计算领域正在进入百亿亿次人工智能的新时代,这将让研究人员能够应对以前那些遥不可及的挑战。
他说:“在气候科学、能源研究、太空探索、数字生物学、量子计算等领域,Nvidia Grace CPU超级芯片和Grace Hopper超级芯片构成了世界上最先进的高性能计算和人工智能平台的基础。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。