Nvidia本周一早些时候宣布,Nvidia迄今为止最强大的人工智能芯片GH200 Grace Hopper Superchip现已全面投产。
Nvidia GH200 Superchip(如图)旨在为那些运行最复杂AI工作负载的系统提供动力,包括训练下一代生成式AI模型。
Nvidia公司首席执行官黄仁勋在台湾举行的COMPUTEX 2023活动上宣布了这一消息,他还透露首批将由这种超级芯片提供动力的计算机系统。黄仁勋解释说,GH200使用Nvidia的NVLink-C2C互连技术,将Nvidia基于Arm的Grace CPU和Hopper GPU架构融合到一个芯片中。
这款新的芯片总带宽达每秒900 GB,比当今最先进的加速计算系统中采用的标准PCIe Gen5通道高出7倍。Nvidia表示,Superchip的功耗也降低了5倍,使其能够更有效地处理那些要求苛刻的AI和高性能计算应用。
特别是,Nvidia GH200 Superchip有望用于以OpenAI ChatGPT为代表的生成式AI工作负载中,这种生成式AI从提示中生成新内容的能力近乎人类,目前已经席卷了整个科技行业。
Nvidia公司加速计算副总裁Ian Buck表示:“生成式AI正在迅速改变企业,释放新的机遇,加速医疗、金融、商业服务和更多行业的发现。随着Grace Hopper Superchips的全面投产,全球制造商将很快能够为企业提供所需的加速基础设施,以构建和部署采用了他们独特专有数据的生成式AI应用。”
首批集成GH200超级芯片的系统之一,将是Nvidia自己的下一代大内存AI超级计算机Nvidia DGX GH200(下图)。据Nvidia称,这款新的系统采用NVLink Switch System以组合256个GH200超级芯片,使其能够作为单个GPU运行,提供高达1 exaflops的性能(或每秒1 quintillion浮点运算)以及144 TB的共享内存。
这意味着它的内存是Nvidia于2020年推出的上一代DGX A100超级计算机的近500倍,同时也更加强大,后者仅仅是把8个GPU组合到一个芯片中。

Nvidia DGX GH200超级计算机
黄仁勋表示:“DGX GH200 AI超级计算机集成了Nvidia最先进的加速计算和网络技术,以扩展AI的前沿。”
Nvidia表示,DGX GH200 AI超级计算机还将配备完整的全栈软件,用于运行AI和数据分析工作负载,例如,该系统支持Nvidia Base Command软件,提供AI工作流管理、集群管理、加速计算和存储库,以及网络基础设施和系统软件。同时,该系统还支持Nvidia AI Enterprise,这是一个包含了100多个AI框架、预训练模型和开发工具的软件层,用于简化生成AI、计算机视觉、语音AI和其他类型模型的生产。
Constellation Research分析师Holger Mueller表示,Nvidia通过将Grace和Hopper架构与NVLink融合,有效地将两种真正可靠的产品合二为一。他说:“结果就是更高的性能和容量,以及用于构建AI驱动型应用的简化基础设施,让用户能够将如此多的GPU及其功能视为一个逻辑GPU,并从中获益。”
当你以正确的方式将两件好事结合起来时,好事就会发生,Nvidia就是如此。Grace和Hopper芯片架构与NVLink相结合,不仅带来了更高的性能和容量,而且因为将所有这些GPU都视为一个逻辑GPU,从而对构建支持AI的下一代应用进行了简化。”
Nvidia表示,首批采用新型DGX GH200 AI超级计算机的客户包括Google Cloud、Meta Platforms和微软,此外对于那些希望针对自身基础设施进行定制的云服务提供商来说,Nvidia还将把DGX GH200的设计作为一种蓝图提供给他们。
微软Azure基础设施企业副总裁Girish Bablani表示:“传统上,训练大型AI模型是一项资源和时间密集型任务,DGX GH200处理TB级数据集的潜力,将使开发人员能够以更大的规模和更快的速度进行高级研究。”

DGH200超级芯片将用于推进生成式AI应用
Nvidia表示,还将为自己内部的研发团队构建基于DGX GH200的AI超级计算机“Nvidia Helios”,将结合4个DGX GH200系统,使用Nvidia Quantum-2 Infiniband网络技术互连。到今年年底上线时,Helios系统将包含总共1024个GH200超级芯片。
最后,Nvidia的服务器合作伙伴正计划基于新的GH200 Superchip打造他们自己的系统,首批推出的系统中包括Quanta Computer的S74G-2U,该系统将于今年晚些时候上市。
其他合作伙伴,包括华硕、安提国际、研扬科技、思科、戴尔、技嘉、HPE、Inventec和Pegatron也将推出GH200驱动的系统。
Nvidia表示,服务器合作伙伴已经采用了新的Nvidia MGX服务器规范,该规范也在本周一公布了。据Nvidia称,MGX是一种模块化参考架构,让合作伙伴能够基于其最新的芯片架构快速轻松地构建100多种版本的服务器,以适应广泛的AI、高性能计算和其他类型的工作负载。服务器制造商通过使用NGX有望将开发成本降低多达四分之三,开发时间缩短三分之二,缩短至大约六个月。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。