Nvidia在一份新路线图中透露,计划在2024年和2025年发布自己强大且受欢迎的H100 GPU后继产品,主要用于AI训练和推理,这也反映出Nvidia把AI芯片的发布策略从之前的每两年发布一次改为了每年发布一次。

Nvidia网站上公布的一份投资者演示文件中包含的路线图还显示,这家AI芯片巨头计划在接下来的两年中发布L40S通用加速器后继产品以及Grace Hopper Superchip,后者是GPU和CP相结合的产品。
此外,根据Nvidia在私人投资者会议上披露的路线图显示,Nvidia计划推出一种新的芯片类别,它是Grace Hopper Superchip的一个分支,具有增强的AI训练和推理计算能力,一位Nvidia新闻发言人这样表示。
这个信息是在网上发布的,当时生成式AI工作负载让市场对芯片的需求激增,Nvidia面对英特尔、AMD、众多芯片初创公司以及AWS等云服务提供商的竞争,后者试图夺取市场份额,而Nvidia希望能够捍卫自己在AI计算领域的主导地位。
2024年推出H200和B100 2025年推出尚未命名的GPU
在路线图中,Nvidia将把AI芯片新品的发布改为“一年节奏”,从2024年推出H200开始,H200是今年H100的后继产品,而H100是Nvidia当前产品线中最强大的一款GPU。H200将使用与H100相同的Hopper架构。
Nvidia将H200、前身及后继产品定位为专为运行在英特尔或者AMD x86 CPU系统上的AI训练和推理工作负载而设计的。
H200的后继产品是B100,预计也会在2024年推出。有多个传言表明,“B”代表名为Blackwell的下一代GPU架构。
Nvidia发言人在回应时表示,在B100之后将有一款尚未正式命名的100系列GPU于2025年推出,暂定为“X100”。
Grace Hopper的后继产品L40S将于2024年及以后推出
Grace Hopper也称为GH200,是Nvidia新系列芯片中的首款芯片,该芯片结合了基于Arm的CPU和GPU,用于数据中心的高性能AI推理工作负载。
路线图显示,GH200的目标是人工智能推理,发布时间为2024年。此前Nvidia曾表示,GH200将使用Grace CPU和Hopper GPU,于明年第二季度开始在系统中使用。
Nvidia还计划在2023年发布GH200的后继产品GB200,采用据称名为Blackwell的下一代GPU架构。
暂命名为“GX200”的后继产品将于2025年推出。
路线图的另一侧是L40S,一款专为企业客户使用x86数据中心系统设计的通用加速器。
L40S基于Nvidia的Ada Lovelace架构,专为AI推理和训练、要求苛刻的图形应用和模拟应用而构建,从2021年开始提供比Nvidia A100更高的性能。
Nvidia此前表示配备L40S的系统将于今年秋季推出,但路线图把这款加速器标记为2024年的产品。Nvidia预计将在2024年晚些时候发布L40S的后继产品称为B40,这表明,Nvidia将使用据称名为Blackwell的下一代架构。
2025年,继B40之后的是一款尚未正式命名的GPU,暂定为“X40”。
Nvidia公布新芯片类别 用于基于Arm的AI训练和推理
Nvidia的路线图还包括一个新的芯片类别,似乎是Nvidia Superchips的升级版,结合了CPU和GPU,为基于Arm系统的AI训练和推理工作负载提供动力。
这些芯片结合了CPU和GPU但带有后缀“NVL”,与Nvidia用于组合两个H100 PCIe卡的H100 SVL产品后缀是一样的。
Nvidia尚未透露有关这些NVL芯片的进一步细节,包括是何种外形尺寸,但传统上带有CPU的芯片(包括GH200)是可以安装在主板插槽中的。
Nvidia将在2024年首次推出新系列中的GH200NVL,这表明Grace Hopper Superchip具有更高的性能,专注于推理和训练工作负载。
后继产品GB200NVL将在今年晚些时候推出,采用据称名为Blackwell的下一代GPU架构。
GB200NVL之后Nvidia将在2025年推出带有NVL后缀的尚未命名芯片,暂定为“GX200NVL”。
InfiniBand、以太网产品也改为年度发布
根据路线图显示,Nvidia用于AI基础设施的InfiniBand和以太网网络产品组合也将转向每年发布的节奏。
这将从2024年Nvidia的400 Gb/s InfiniBand和以太网产品开始,品牌名称分别为Quantum和Spectrum-X。
Nvidia预计将在2024年晚些时候升级到800 Gb/s Quantum和Spectrum-X产品,随后在明年推出800 Gb/s产品。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。