ZDNet至顶网服务器频道 05月21日编译:低功耗、高容量并降低电路板占用空间,在这份优势清单当中,AMD公司为其即将推出的高带宽内存(简称HBM)架构下足了宣传功夫。
AMD公司此前已经在一份白皮书中对HBM的细节情况作出了一番粗略说明,目前这套架构即将开始在部分Radeon 300系列显卡当中出现,同时也将作为AMD公司尚正处于规划当中的高性能计算集群化发展战略的组成部分。
除了功耗降低之外,新机制也将减少自身在垂直堆栈当中的占用空间:这套方案将利用硅通孔实现晶粒与晶粒间的连通,而微焊点则负责实现硅通孔间的物理隔离。
各硅通孔贯通整块芯片并达至逻辑晶粒,最终通过中介层接入封装基板。该中介层的作用是实现面向CPU或者GPU的快速连接,AMD公司宣称其性能表现“与芯片集成内存几乎没有区别”。
Hothardware网站预计,采用更宽总线——1024位,远大于GDDR5芯片上可怜的32位,意味着HBM将能够实现每秒100 GB的惊人传输能力,这一数字令GDDR5的每秒28 GB传输水平看起来如同笑话。
与此同时,这样的性能表现只需更低时钟速率即可实现,在HBM上需500 MHz,而在GDDR5上则需要1.75 GHz,再配合上1.3伏工作电压(GDDR5为1.5伏)意味着新规范能够实现50%的功耗缩减,且一举将每瓦带宽提升至过去的三倍(HBM为每瓦每秒35 GB,GDDR5则为每瓦每秒10.66 GB)。
AMD公司表示,更小物理尺寸在功耗节约与性能提升方面带来的另一大优势在于,HBM内存将能够与CPU/GPU一样被集成在同一基板之上。
Hothardware网站认为,采用这一技术的首款样品将于今年六月随AMD的下一代GPU一同亮相。
好文章,需要你的鼓励
随着AI广泛应用推动数据中心建设热潮,运营商面临可持续发展挑战。2024年底美国已建成或批准1240个数据中心,能耗激增引发争议。除能源问题外,服务器和GPU更新换代产生的电子废物同样严重。通过采用模块化可修复系统、AI驱动资产跟踪、标准化数据清理技术以及与认证ITAD合作伙伴合作,数据中心可实现循环经济模式,在确保数据安全的同时减少环境影响。
剑桥大学研究团队首次系统探索AI在多轮对话中的信心判断问题。研究发现当前AI系统在评估自己答案可靠性方面存在严重缺陷,容易被对话长度而非信息质量误导。团队提出P(SUFFICIENT)等新方法,但整体问题仍待解决。该研究为AI在医疗、法律等关键领域的安全应用提供重要指导,强调了开发更可信AI系统的紧迫性。
超大规模云数据中心是数字经济的支柱,2026年将继续保持核心地位。AWS、微软、谷歌、Meta、甲骨文和阿里巴巴等主要运营商正积极扩张以满足AI和云服务需求激增,预计2026年资本支出将超过6000亿美元。然而增长受到电力供应、设备交付和当地阻力制约。截至2025年末,全球运营中的超大规模数据中心达1297个,总容量预计在12个季度内翻倍。
威斯康星大学研究团队开发出Prithvi-CAFE洪水监测系统,通过"双视觉协作"机制解决了AI地理基础模型在洪水识别上的局限性。该系统巧妙融合全局理解和局部细节能力,在国际标准数据集上创造最佳成绩,参数效率提升93%,为全球洪水预警和防灾减灾提供了更准确可靠的技术方案。