AMD和英伟达已经宣布其下一代数据中心GPU将采用HBM4技术,而SK海力士希望成为主要供应商。
周五,这家韩国内存巨头宣布已完成HBM4开发,正准备开始大批量生产这些芯片。这一消息推动SK海力士股价上涨7%,这种反应是有充分理由的。
高带宽内存(HBM)已成为英伟达、AMD等公司高端AI加速器的关键组件。英伟达的Rubin系列和AMD的Instinct MI400系列GPU都在今年早些时候预发布,它们依赖内存供应商在2026年发布时能够提供充足的HBM4供应。
这一转变是因为GPU制造商遇到了现有HBM技术的限制,目前的容量上限约为36GB,每个模块的带宽约为1TB/s,使得英伟达B300或AMD MI355X等芯片的总内存带宽约为8TB/s。
随着向HBM4的迁移,带宽将显著提升。在3月的GTC大会上,英伟达透露其Rubin GPU将配备288GB的HBM4,实现13TB/s的总带宽。AMD计划在其即将推出的MI400系列GPU上装载更大容量的内存,这将为其首个机架级系统Helios提供动力。
从AMD 6月份的AI推进活动中我们了解到,这些产品将配备多达432GB的HBM,总带宽接近20TB/s。
SK海力士表示,通过将I/O终端数量增加到2048个(是HBM3e的两倍),有效地将HBM带宽提高了一倍。该公司认为这也将能效提升了40%以上。
虽然服务器中的普通DRAM通常不是主要的能耗来源,但HBM却是。从AMD MI300X的24GB增加到MI325的36GB模块,功耗从250W跃升至每个GPU约1千瓦。
SK海力士表示,除了更多I/O终端和改进的效率外,其芯片还超越了HBM4的JEDEC标准,实现了10Gb/s的运行速度。
三大HBM供应商中哪家最终将供应这些芯片还有待观察。虽然SK海力士在过去几年中赢得了英伟达大部分HBM业务,但三星和美光也在努力将HBM4推向市场。
美光在6月开始向客户提供36GB 12层高HBM4堆栈样品。与SK海力士类似,这些堆栈使用2048位接口,带宽大约是当前HBM3e模块的两倍。这家美国内存供应商预计明年某个时候开始批量生产这些堆栈。
与此同时,对于三星来说,HBM4为赢得英伟达业务提供了新机会。据报道,该供应商在让其HBM3e堆栈通过英伟达Blackwell加速器的验证方面遇到了困难。
Q&A
Q1:HBM4相比HBM3e有什么改进?
A:HBM4将I/O终端数量增加到2048个,是HBM3e的两倍,有效地将带宽提高了一倍,同时能效提升40%以上。SK海力士的HBM4还超越了JEDEC标准,实现了10Gb/s的运行速度。
Q2:下一代GPU对HBM4的需求有多大?
A:英伟达Rubin GPU将配备288GB的HBM4,实现13TB/s总带宽;AMD MI400系列GPU计划装载多达432GB的HBM,总带宽接近20TB/s,相比目前约8TB/s的水平有显著提升。
Q3:HBM4什么时候能大规模量产?
A:SK海力士已完成HBM4开发,正准备大批量生产。美光预计明年开始批量生产HBM4堆栈。这些产品主要服务于2026年发布的下一代数据中心GPU。
好文章,需要你的鼓励
数字孪生技术正在改变网络安全防御模式,从被动响应转向主动预测。这种实时学习演进的虚拟副本让安全团队能够在威胁发生前预见攻击。组织可以在数字孪生环境中预演明日的攻击,将防御从事后反应转变为事前排演。通过动态更新的IT生态系统副本,团队可在真实条件下压力测试防御体系,模拟零日漏洞攻击并制定应对策略,从根本上重塑网络安全实践方式。
北京交通大学等机构联合开发出首个多图像视觉定位AI模型Migician,能像人类一样在多张图片中精确定位目标物体。该模型平均准确率达63.82%,比同类AI高出25个百分点,在自动驾驶、安防监控、医疗影像等领域具有广泛应用前景。研究团队构建了63万样本数据库和全面测试平台,并将所有资源开源,为多模态AI发展开辟新方向。
Linux内核开发面临动荡时期,Rust语言引入引发摩擦,多名核心开发者相继离职。文章介绍了三个有趣的替代方案:Managarm是基于微内核的操作系统,支持运行Linux软件;Asterinas采用Rust语言开发,使用新型framekernel架构实现内核隔离;Xous同样基于Rust和微内核设计,已有实际硬件产品Precursor发布。这些项目证明了除Linux之外,还有许多令人兴奋的操作系统研发工作正在进行。
田纳西理工大学研究团队通过结合强化学习和变形金刚架构,成功开发出具备"元学习"能力的AI系统。该系统能在未见过的环境中快速适应并持续改进,展现了900%的性能提升。研究证实AI可进行技能组合、适应环境变化,且对训练数据质量具有显著鲁棒性,为通用人工智能发展指明新方向。