Nvidia在一份新路线图中透露,计划在2024年和2025年发布自己强大且受欢迎的H100 GPU后继产品,主要用于AI训练和推理,这也反映出Nvidia把AI芯片的发布策略从之前的每两年发布一次改为了每年发布一次。

Nvidia网站上公布的一份投资者演示文件中包含的路线图还显示,这家AI芯片巨头计划在接下来的两年中发布L40S通用加速器后继产品以及Grace Hopper Superchip,后者是GPU和CP相结合的产品。
此外,根据Nvidia在私人投资者会议上披露的路线图显示,Nvidia计划推出一种新的芯片类别,它是Grace Hopper Superchip的一个分支,具有增强的AI训练和推理计算能力,一位Nvidia新闻发言人这样表示。
这个信息是在网上发布的,当时生成式AI工作负载让市场对芯片的需求激增,Nvidia面对英特尔、AMD、众多芯片初创公司以及AWS等云服务提供商的竞争,后者试图夺取市场份额,而Nvidia希望能够捍卫自己在AI计算领域的主导地位。
2024年推出H200和B100 2025年推出尚未命名的GPU
在路线图中,Nvidia将把AI芯片新品的发布改为“一年节奏”,从2024年推出H200开始,H200是今年H100的后继产品,而H100是Nvidia当前产品线中最强大的一款GPU。H200将使用与H100相同的Hopper架构。
Nvidia将H200、前身及后继产品定位为专为运行在英特尔或者AMD x86 CPU系统上的AI训练和推理工作负载而设计的。
H200的后继产品是B100,预计也会在2024年推出。有多个传言表明,“B”代表名为Blackwell的下一代GPU架构。
Nvidia发言人在回应时表示,在B100之后将有一款尚未正式命名的100系列GPU于2025年推出,暂定为“X100”。
Grace Hopper的后继产品L40S将于2024年及以后推出
Grace Hopper也称为GH200,是Nvidia新系列芯片中的首款芯片,该芯片结合了基于Arm的CPU和GPU,用于数据中心的高性能AI推理工作负载。
路线图显示,GH200的目标是人工智能推理,发布时间为2024年。此前Nvidia曾表示,GH200将使用Grace CPU和Hopper GPU,于明年第二季度开始在系统中使用。
Nvidia还计划在2023年发布GH200的后继产品GB200,采用据称名为Blackwell的下一代GPU架构。
暂命名为“GX200”的后继产品将于2025年推出。
路线图的另一侧是L40S,一款专为企业客户使用x86数据中心系统设计的通用加速器。
L40S基于Nvidia的Ada Lovelace架构,专为AI推理和训练、要求苛刻的图形应用和模拟应用而构建,从2021年开始提供比Nvidia A100更高的性能。
Nvidia此前表示配备L40S的系统将于今年秋季推出,但路线图把这款加速器标记为2024年的产品。Nvidia预计将在2024年晚些时候发布L40S的后继产品称为B40,这表明,Nvidia将使用据称名为Blackwell的下一代架构。
2025年,继B40之后的是一款尚未正式命名的GPU,暂定为“X40”。
Nvidia公布新芯片类别 用于基于Arm的AI训练和推理
Nvidia的路线图还包括一个新的芯片类别,似乎是Nvidia Superchips的升级版,结合了CPU和GPU,为基于Arm系统的AI训练和推理工作负载提供动力。
这些芯片结合了CPU和GPU但带有后缀“NVL”,与Nvidia用于组合两个H100 PCIe卡的H100 SVL产品后缀是一样的。
Nvidia尚未透露有关这些NVL芯片的进一步细节,包括是何种外形尺寸,但传统上带有CPU的芯片(包括GH200)是可以安装在主板插槽中的。
Nvidia将在2024年首次推出新系列中的GH200NVL,这表明Grace Hopper Superchip具有更高的性能,专注于推理和训练工作负载。
后继产品GB200NVL将在今年晚些时候推出,采用据称名为Blackwell的下一代GPU架构。
GB200NVL之后Nvidia将在2025年推出带有NVL后缀的尚未命名芯片,暂定为“GX200NVL”。
InfiniBand、以太网产品也改为年度发布
根据路线图显示,Nvidia用于AI基础设施的InfiniBand和以太网网络产品组合也将转向每年发布的节奏。
这将从2024年Nvidia的400 Gb/s InfiniBand和以太网产品开始,品牌名称分别为Quantum和Spectrum-X。
Nvidia预计将在2024年晚些时候升级到800 Gb/s Quantum和Spectrum-X产品,随后在明年推出800 Gb/s产品。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。