ZDNet至顶网服务器频道 05月21日编译:低功耗、高容量并降低电路板占用空间,在这份优势清单当中,AMD公司为其即将推出的高带宽内存(简称HBM)架构下足了宣传功夫。
AMD公司此前已经在一份白皮书中对HBM的细节情况作出了一番粗略说明,目前这套架构即将开始在部分Radeon 300系列显卡当中出现,同时也将作为AMD公司尚正处于规划当中的高性能计算集群化发展战略的组成部分。
除了功耗降低之外,新机制也将减少自身在垂直堆栈当中的占用空间:这套方案将利用硅通孔实现晶粒与晶粒间的连通,而微焊点则负责实现硅通孔间的物理隔离。
各硅通孔贯通整块芯片并达至逻辑晶粒,最终通过中介层接入封装基板。该中介层的作用是实现面向CPU或者GPU的快速连接,AMD公司宣称其性能表现“与芯片集成内存几乎没有区别”。
Hothardware网站预计,采用更宽总线——1024位,远大于GDDR5芯片上可怜的32位,意味着HBM将能够实现每秒100 GB的惊人传输能力,这一数字令GDDR5的每秒28 GB传输水平看起来如同笑话。
与此同时,这样的性能表现只需更低时钟速率即可实现,在HBM上需500 MHz,而在GDDR5上则需要1.75 GHz,再配合上1.3伏工作电压(GDDR5为1.5伏)意味着新规范能够实现50%的功耗缩减,且一举将每瓦带宽提升至过去的三倍(HBM为每瓦每秒35 GB,GDDR5则为每瓦每秒10.66 GB)。
AMD公司表示,更小物理尺寸在功耗节约与性能提升方面带来的另一大优势在于,HBM内存将能够与CPU/GPU一样被集成在同一基板之上。
Hothardware网站认为,采用这一技术的首款样品将于今年六月随AMD的下一代GPU一同亮相。
好文章,需要你的鼓励
HPE存储业务表现优异,公司重新公开报告存储收入数据,Alletra Storage MP成为主导产品。在AI驱动的市场变革中,HPE将存储作为AI系统销售的重要组成部分,Alletra存储连续三个季度实现三位数同比增长。公司调整财务报告结构,突出云和AI业务,存储收入重新独立披露。面对Dell、NetApp和Pure Storage等竞争对手,HPE依托服务器和网络优势推动存储销售增长。
斯坦福大学研究团队深入分析了广泛使用的AI评判系统Arena-Hard Auto,发现了三个重大问题:AI评委经常不按既定标准评判(规划失效),不同评判维度高度重合无法独立区分(因子坍塌),以及ELO评分系统通过数学变换掩盖了底层的不确定性。研究开发了专门的诊断工具来检测这些问题,并提出了改进建议,对依赖AI评判系统的学术研究和商业应用具有重要警示意义。
能源初创公司联邦聚变系统宣布与谷歌DeepMind合作,利用AI技术优化其即将建成的Sparc反应堆运行。双方将使用DeepMind的Torax软件模拟反应堆内等离子体,并结合AI模型帮助实现聚变发电。聚变发电有望提供零排放的大量电力,AI公司看好聚变作为数据中心电源。谷歌此前已投资多家聚变公司,并计划从CFS首个商业电站采购200兆瓦电力。
斯坦福大学研究团队开发出"边听边想"的音频识别新技术,让人工智能像侦探一样逐步分析声音。系统将音频分成半秒片段,对每段进行多次推理,再用语言模型综合判断。相比传统方法只在最后给答案,新技术实现渐进式理解,准确率从84%提升至88.3%。该技术可应用于智能家居、医疗设备、工业监测等领域,让AI决策更透明可信。