AMD和英伟达已经宣布其下一代数据中心GPU将采用HBM4技术,而SK海力士希望成为主要供应商。
周五,这家韩国内存巨头宣布已完成HBM4开发,正准备开始大批量生产这些芯片。这一消息推动SK海力士股价上涨7%,这种反应是有充分理由的。
高带宽内存(HBM)已成为英伟达、AMD等公司高端AI加速器的关键组件。英伟达的Rubin系列和AMD的Instinct MI400系列GPU都在今年早些时候预发布,它们依赖内存供应商在2026年发布时能够提供充足的HBM4供应。
这一转变是因为GPU制造商遇到了现有HBM技术的限制,目前的容量上限约为36GB,每个模块的带宽约为1TB/s,使得英伟达B300或AMD MI355X等芯片的总内存带宽约为8TB/s。
随着向HBM4的迁移,带宽将显著提升。在3月的GTC大会上,英伟达透露其Rubin GPU将配备288GB的HBM4,实现13TB/s的总带宽。AMD计划在其即将推出的MI400系列GPU上装载更大容量的内存,这将为其首个机架级系统Helios提供动力。
从AMD 6月份的AI推进活动中我们了解到,这些产品将配备多达432GB的HBM,总带宽接近20TB/s。
SK海力士表示,通过将I/O终端数量增加到2048个(是HBM3e的两倍),有效地将HBM带宽提高了一倍。该公司认为这也将能效提升了40%以上。
虽然服务器中的普通DRAM通常不是主要的能耗来源,但HBM却是。从AMD MI300X的24GB增加到MI325的36GB模块,功耗从250W跃升至每个GPU约1千瓦。
SK海力士表示,除了更多I/O终端和改进的效率外,其芯片还超越了HBM4的JEDEC标准,实现了10Gb/s的运行速度。
三大HBM供应商中哪家最终将供应这些芯片还有待观察。虽然SK海力士在过去几年中赢得了英伟达大部分HBM业务,但三星和美光也在努力将HBM4推向市场。
美光在6月开始向客户提供36GB 12层高HBM4堆栈样品。与SK海力士类似,这些堆栈使用2048位接口,带宽大约是当前HBM3e模块的两倍。这家美国内存供应商预计明年某个时候开始批量生产这些堆栈。
与此同时,对于三星来说,HBM4为赢得英伟达业务提供了新机会。据报道,该供应商在让其HBM3e堆栈通过英伟达Blackwell加速器的验证方面遇到了困难。
Q&A
Q1:HBM4相比HBM3e有什么改进?
A:HBM4将I/O终端数量增加到2048个,是HBM3e的两倍,有效地将带宽提高了一倍,同时能效提升40%以上。SK海力士的HBM4还超越了JEDEC标准,实现了10Gb/s的运行速度。
Q2:下一代GPU对HBM4的需求有多大?
A:英伟达Rubin GPU将配备288GB的HBM4,实现13TB/s总带宽;AMD MI400系列GPU计划装载多达432GB的HBM,总带宽接近20TB/s,相比目前约8TB/s的水平有显著提升。
Q3:HBM4什么时候能大规模量产?
A:SK海力士已完成HBM4开发,正准备大批量生产。美光预计明年开始批量生产HBM4堆栈。这些产品主要服务于2026年发布的下一代数据中心GPU。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。