Nvidia在一份新路线图中透露,计划在2024年和2025年发布自己强大且受欢迎的H100 GPU后继产品,主要用于AI训练和推理,这也反映出Nvidia把AI芯片的发布策略从之前的每两年发布一次改为了每年发布一次。
Nvidia网站上公布的一份投资者演示文件中包含的路线图还显示,这家AI芯片巨头计划在接下来的两年中发布L40S通用加速器后继产品以及Grace Hopper Superchip,后者是GPU和CP相结合的产品。
此外,根据Nvidia在私人投资者会议上披露的路线图显示,Nvidia计划推出一种新的芯片类别,它是Grace Hopper Superchip的一个分支,具有增强的AI训练和推理计算能力,一位Nvidia新闻发言人这样表示。
这个信息是在网上发布的,当时生成式AI工作负载让市场对芯片的需求激增,Nvidia面对英特尔、AMD、众多芯片初创公司以及AWS等云服务提供商的竞争,后者试图夺取市场份额,而Nvidia希望能够捍卫自己在AI计算领域的主导地位。
2024年推出H200和B100 2025年推出尚未命名的GPU
在路线图中,Nvidia将把AI芯片新品的发布改为“一年节奏”,从2024年推出H200开始,H200是今年H100的后继产品,而H100是Nvidia当前产品线中最强大的一款GPU。H200将使用与H100相同的Hopper架构。
Nvidia将H200、前身及后继产品定位为专为运行在英特尔或者AMD x86 CPU系统上的AI训练和推理工作负载而设计的。
H200的后继产品是B100,预计也会在2024年推出。有多个传言表明,“B”代表名为Blackwell的下一代GPU架构。
Nvidia发言人在回应时表示,在B100之后将有一款尚未正式命名的100系列GPU于2025年推出,暂定为“X100”。
Grace Hopper的后继产品L40S将于2024年及以后推出
Grace Hopper也称为GH200,是Nvidia新系列芯片中的首款芯片,该芯片结合了基于Arm的CPU和GPU,用于数据中心的高性能AI推理工作负载。
路线图显示,GH200的目标是人工智能推理,发布时间为2024年。此前Nvidia曾表示,GH200将使用Grace CPU和Hopper GPU,于明年第二季度开始在系统中使用。
Nvidia还计划在2023年发布GH200的后继产品GB200,采用据称名为Blackwell的下一代GPU架构。
暂命名为“GX200”的后继产品将于2025年推出。
路线图的另一侧是L40S,一款专为企业客户使用x86数据中心系统设计的通用加速器。
L40S基于Nvidia的Ada Lovelace架构,专为AI推理和训练、要求苛刻的图形应用和模拟应用而构建,从2021年开始提供比Nvidia A100更高的性能。
Nvidia此前表示配备L40S的系统将于今年秋季推出,但路线图把这款加速器标记为2024年的产品。Nvidia预计将在2024年晚些时候发布L40S的后继产品称为B40,这表明,Nvidia将使用据称名为Blackwell的下一代架构。
2025年,继B40之后的是一款尚未正式命名的GPU,暂定为“X40”。
Nvidia公布新芯片类别 用于基于Arm的AI训练和推理
Nvidia的路线图还包括一个新的芯片类别,似乎是Nvidia Superchips的升级版,结合了CPU和GPU,为基于Arm系统的AI训练和推理工作负载提供动力。
这些芯片结合了CPU和GPU但带有后缀“NVL”,与Nvidia用于组合两个H100 PCIe卡的H100 SVL产品后缀是一样的。
Nvidia尚未透露有关这些NVL芯片的进一步细节,包括是何种外形尺寸,但传统上带有CPU的芯片(包括GH200)是可以安装在主板插槽中的。
Nvidia将在2024年首次推出新系列中的GH200NVL,这表明Grace Hopper Superchip具有更高的性能,专注于推理和训练工作负载。
后继产品GB200NVL将在今年晚些时候推出,采用据称名为Blackwell的下一代GPU架构。
GB200NVL之后Nvidia将在2025年推出带有NVL后缀的尚未命名芯片,暂定为“GX200NVL”。
InfiniBand、以太网产品也改为年度发布
根据路线图显示,Nvidia用于AI基础设施的InfiniBand和以太网网络产品组合也将转向每年发布的节奏。
这将从2024年Nvidia的400 Gb/s InfiniBand和以太网产品开始,品牌名称分别为Quantum和Spectrum-X。
Nvidia预计将在2024年晚些时候升级到800 Gb/s Quantum和Spectrum-X产品,随后在明年推出800 Gb/s产品。
好文章,需要你的鼓励
北京大学与小红书公司联合研究团队提出的Uni-Instruct框架,成功统一了10多种现有单步扩散蒸馏方法。该框架基于新颖的f-散度扩散扩展理论,通过可计算的等价损失函数训练单步扩散模型。实验表明,Uni-Instruct在CIFAR10和ImageNet 64×64数据集上创造了新的单步生成记录,FID分别达到1.46和1.02,甚至超越了其79步教师模型。研究还成功将该方法应用于文本到3D生成任务,展示了统一框架在提升生成质量和效率方面的巨大潜力。
这篇研究介绍了KVzip,一种创新的查询无关KV缓存压缩方法,通过上下文重建机制为大型语言模型提供高效存储解决方案。该技术能将KV缓存大小减少394倍,同时提高解码速度约2倍,在各种任务上性能几乎不受影响。不同于传统查询相关的压缩方法,KVzip创建可在多种查询场景下重用的通用压缩缓存,特别适合个性化AI助手和企业信息检索系统。研究在LLaMA3.1-8B、Qwen2.5-14B和Gemma3-12B等多种模型上进行了验证,处理长度高达17万词元的文本,并能与KV缓存量化等其他优化技术无缝集成。
腾讯与上海交通大学联合推出的DeepTheorem研究突破了大型语言模型在数学定理证明领域的限制。该项目创建了包含12.1万个IMO级别非形式化定理的大规模数据集,开发了专门的RL-Zero强化学习策略,并设计了全面的评估框架。研究表明,通过使用自然语言而非传统形式化系统,即使是7B参数的模型也能在复杂定理证明上取得显著成果,超越许多更大的专业模型。这一成果为AI数学推理开辟了新途径,使语言模型能够像人类数学家一样思考和证明。
MAGREF是字节跳动智能创作团队开发的多主体视频生成框架,能从多张参考图像和文本提示生成高质量视频。该技术引入了区域感知动态遮罩机制,使单一模型灵活处理人物、物体和背景,无需架构变化;并采用像素级通道拼接机制,在通道维度上运作以更好地保留外观特征。实验表明,MAGREF在身份一致性和视觉质量方面优于现有技术,能将单主体训练泛化到复杂多主体场景,为内容创作者提供了强大而便捷的视频生成工具。