Nvidia在一份新路线图中透露,计划在2024年和2025年发布自己强大且受欢迎的H100 GPU后继产品,主要用于AI训练和推理,这也反映出Nvidia把AI芯片的发布策略从之前的每两年发布一次改为了每年发布一次。
Nvidia网站上公布的一份投资者演示文件中包含的路线图还显示,这家AI芯片巨头计划在接下来的两年中发布L40S通用加速器后继产品以及Grace Hopper Superchip,后者是GPU和CP相结合的产品。
此外,根据Nvidia在私人投资者会议上披露的路线图显示,Nvidia计划推出一种新的芯片类别,它是Grace Hopper Superchip的一个分支,具有增强的AI训练和推理计算能力,一位Nvidia新闻发言人这样表示。
这个信息是在网上发布的,当时生成式AI工作负载让市场对芯片的需求激增,Nvidia面对英特尔、AMD、众多芯片初创公司以及AWS等云服务提供商的竞争,后者试图夺取市场份额,而Nvidia希望能够捍卫自己在AI计算领域的主导地位。
2024年推出H200和B100 2025年推出尚未命名的GPU
在路线图中,Nvidia将把AI芯片新品的发布改为“一年节奏”,从2024年推出H200开始,H200是今年H100的后继产品,而H100是Nvidia当前产品线中最强大的一款GPU。H200将使用与H100相同的Hopper架构。
Nvidia将H200、前身及后继产品定位为专为运行在英特尔或者AMD x86 CPU系统上的AI训练和推理工作负载而设计的。
H200的后继产品是B100,预计也会在2024年推出。有多个传言表明,“B”代表名为Blackwell的下一代GPU架构。
Nvidia发言人在回应时表示,在B100之后将有一款尚未正式命名的100系列GPU于2025年推出,暂定为“X100”。
Grace Hopper的后继产品L40S将于2024年及以后推出
Grace Hopper也称为GH200,是Nvidia新系列芯片中的首款芯片,该芯片结合了基于Arm的CPU和GPU,用于数据中心的高性能AI推理工作负载。
路线图显示,GH200的目标是人工智能推理,发布时间为2024年。此前Nvidia曾表示,GH200将使用Grace CPU和Hopper GPU,于明年第二季度开始在系统中使用。
Nvidia还计划在2023年发布GH200的后继产品GB200,采用据称名为Blackwell的下一代GPU架构。
暂命名为“GX200”的后继产品将于2025年推出。
路线图的另一侧是L40S,一款专为企业客户使用x86数据中心系统设计的通用加速器。
L40S基于Nvidia的Ada Lovelace架构,专为AI推理和训练、要求苛刻的图形应用和模拟应用而构建,从2021年开始提供比Nvidia A100更高的性能。
Nvidia此前表示配备L40S的系统将于今年秋季推出,但路线图把这款加速器标记为2024年的产品。Nvidia预计将在2024年晚些时候发布L40S的后继产品称为B40,这表明,Nvidia将使用据称名为Blackwell的下一代架构。
2025年,继B40之后的是一款尚未正式命名的GPU,暂定为“X40”。
Nvidia公布新芯片类别 用于基于Arm的AI训练和推理
Nvidia的路线图还包括一个新的芯片类别,似乎是Nvidia Superchips的升级版,结合了CPU和GPU,为基于Arm系统的AI训练和推理工作负载提供动力。
这些芯片结合了CPU和GPU但带有后缀“NVL”,与Nvidia用于组合两个H100 PCIe卡的H100 SVL产品后缀是一样的。
Nvidia尚未透露有关这些NVL芯片的进一步细节,包括是何种外形尺寸,但传统上带有CPU的芯片(包括GH200)是可以安装在主板插槽中的。
Nvidia将在2024年首次推出新系列中的GH200NVL,这表明Grace Hopper Superchip具有更高的性能,专注于推理和训练工作负载。
后继产品GB200NVL将在今年晚些时候推出,采用据称名为Blackwell的下一代GPU架构。
GB200NVL之后Nvidia将在2025年推出带有NVL后缀的尚未命名芯片,暂定为“GX200NVL”。
InfiniBand、以太网产品也改为年度发布
根据路线图显示,Nvidia用于AI基础设施的InfiniBand和以太网网络产品组合也将转向每年发布的节奏。
这将从2024年Nvidia的400 Gb/s InfiniBand和以太网产品开始,品牌名称分别为Quantum和Spectrum-X。
Nvidia预计将在2024年晚些时候升级到800 Gb/s Quantum和Spectrum-X产品,随后在明年推出800 Gb/s产品。
好文章,需要你的鼓励
本文评测了六款控制台平铺终端复用器工具。GNU Screen作为老牌工具功能强大但操作复杂,Tmux更现代化但学习曲线陡峭,Byobu为前两者提供友好界面,Zellij用Rust编写界面简洁易用,DVTM追求极简主义,Twin提供类似TurboVision的文本界面环境。每款工具都有各自特点和适用场景。
纽约大学研究团队通过INT-ACT测试套件全面评估了当前先进的视觉-语言-动作机器人模型,发现了一个普遍存在的"意图-行动差距"问题:机器人能够正确理解任务和识别物体,但在实际动作执行时频频失败。研究还揭示了端到端训练会损害原有语言理解能力,以及多模态挑战下的推理脆弱性,为未来机器人技术发展提供了重要指导。
网络安全公司Snyk宣布收购瑞士人工智能安全研究公司Invariant Labs,收购金额未公开。Invariant Labs从苏黎世联邦理工学院分拆成立,专注于帮助开发者构建安全可靠的AI代理工具和框架。该公司提供Explorer运行时观察仪表板、Gateway轻量级代理、Guardrails策略引擎等产品,并在工具中毒和模型上下文协议漏洞等新兴AI威胁防护方面处于领先地位。此次收购将推进Snyk保护下一代AI原生应用的使命。
北卡罗来纳大学教堂山分校研究团队提出MEXA框架,通过动态选择和聚合多个专业AI模型来处理复杂的多模态推理任务。该方法无需额外训练,在视频理解、音频分析、3D场景理解和医学诊断等多个基准测试中显著超越现有模型,为AI系统设计提供了新思路。