ZDNet至顶网服务器频道 05月21日编译:低功耗、高容量并降低电路板占用空间,在这份优势清单当中,AMD公司为其即将推出的高带宽内存(简称HBM)架构下足了宣传功夫。
AMD公司此前已经在一份白皮书中对HBM的细节情况作出了一番粗略说明,目前这套架构即将开始在部分Radeon 300系列显卡当中出现,同时也将作为AMD公司尚正处于规划当中的高性能计算集群化发展战略的组成部分。
除了功耗降低之外,新机制也将减少自身在垂直堆栈当中的占用空间:这套方案将利用硅通孔实现晶粒与晶粒间的连通,而微焊点则负责实现硅通孔间的物理隔离。
各硅通孔贯通整块芯片并达至逻辑晶粒,最终通过中介层接入封装基板。该中介层的作用是实现面向CPU或者GPU的快速连接,AMD公司宣称其性能表现“与芯片集成内存几乎没有区别”。
Hothardware网站预计,采用更宽总线——1024位,远大于GDDR5芯片上可怜的32位,意味着HBM将能够实现每秒100 GB的惊人传输能力,这一数字令GDDR5的每秒28 GB传输水平看起来如同笑话。
与此同时,这样的性能表现只需更低时钟速率即可实现,在HBM上需500 MHz,而在GDDR5上则需要1.75 GHz,再配合上1.3伏工作电压(GDDR5为1.5伏)意味着新规范能够实现50%的功耗缩减,且一举将每瓦带宽提升至过去的三倍(HBM为每瓦每秒35 GB,GDDR5则为每瓦每秒10.66 GB)。
AMD公司表示,更小物理尺寸在功耗节约与性能提升方面带来的另一大优势在于,HBM内存将能够与CPU/GPU一样被集成在同一基板之上。
Hothardware网站认为,采用这一技术的首款样品将于今年六月随AMD的下一代GPU一同亮相。
好文章,需要你的鼓励
法国AI公司Mistral发布开源模型Mistral Small 3.2-24B,在3.1版本基础上改进指令遵循、输出稳定性和函数调用可靠性。新版本可在单个A100/H100 80GB GPU上运行,降低了企业部署门槛。虽然整体架构未变,但在指令准确性和减少重复输出方面有显著提升,同时保持Apache 2.0开源许可。
NVIDIA研究团队揭示了训练AI模型同时掌握数学推理和编程能力的突破性方法。通过精心设计的监督学习和强化学习协同训练,他们发现仅用数学题训练就能显著提升编程能力。研究提出了温度调节、阶段性训练等关键技术,最终的AceReason-Nemotron 1.1模型在多项权威测试中达到业界领先水平,为AI跨领域能力发展提供了新范式。
微出行行业正经历转型,从早期疯狂扩张转向可持续商业模式。在布鲁塞尔微出行欧洲会议上,多家初创企业展示创新解决方案:英国Convoy推出自行车货运改装套件;德国Azora Charge开发太阳能充电停车站;Fleetser打造二手电动车辆交易平台;意大利Switch将AI应用于车队管理;波黑Zapp推出特许经营超级应用;法国J2R设计时尚电动摩托车;德国Trace Mobility提供商业智能服务。这些企业代表着微出行产业的新发展阶段。
弗吉尼亚理工大学推出AR-RAG技术,让AI像拼图高手一样在生成图像时动态检索参考片段。该技术突破传统"闭门造车"模式,实现边生成边参考,显著提升图像质量和细节准确性。提供免训练DAiD和优化训练FAiD两种方案,在多个权威测试中创造同规模模型最佳成绩。