ZDNet至顶网服务器频道 05月21日编译:低功耗、高容量并降低电路板占用空间,在这份优势清单当中,AMD公司为其即将推出的高带宽内存(简称HBM)架构下足了宣传功夫。
AMD公司此前已经在一份白皮书中对HBM的细节情况作出了一番粗略说明,目前这套架构即将开始在部分Radeon 300系列显卡当中出现,同时也将作为AMD公司尚正处于规划当中的高性能计算集群化发展战略的组成部分。
除了功耗降低之外,新机制也将减少自身在垂直堆栈当中的占用空间:这套方案将利用硅通孔实现晶粒与晶粒间的连通,而微焊点则负责实现硅通孔间的物理隔离。
各硅通孔贯通整块芯片并达至逻辑晶粒,最终通过中介层接入封装基板。该中介层的作用是实现面向CPU或者GPU的快速连接,AMD公司宣称其性能表现“与芯片集成内存几乎没有区别”。
Hothardware网站预计,采用更宽总线——1024位,远大于GDDR5芯片上可怜的32位,意味着HBM将能够实现每秒100 GB的惊人传输能力,这一数字令GDDR5的每秒28 GB传输水平看起来如同笑话。
与此同时,这样的性能表现只需更低时钟速率即可实现,在HBM上需500 MHz,而在GDDR5上则需要1.75 GHz,再配合上1.3伏工作电压(GDDR5为1.5伏)意味着新规范能够实现50%的功耗缩减,且一举将每瓦带宽提升至过去的三倍(HBM为每瓦每秒35 GB,GDDR5则为每瓦每秒10.66 GB)。
AMD公司表示,更小物理尺寸在功耗节约与性能提升方面带来的另一大优势在于,HBM内存将能够与CPU/GPU一样被集成在同一基板之上。
Hothardware网站认为,采用这一技术的首款样品将于今年六月随AMD的下一代GPU一同亮相。
好文章,需要你的鼓励
中国生数科技旗下AI产品Vidu发布新版本更新,推出"参考图像生成"功能,用户可上传最多7张参考图片,通过AI模型的语义理解技术将多张图像合成为高度一致的新图像。该功能支持快速编辑照片、替换物体、调整光照等操作,为摄影师、营销人员提供便捷的AI图像编辑工具,在保持视觉一致性方面与谷歌等竞品形成竞争。
CORA是微软研究院与谷歌研究团队联合开发的突破性AI视觉模型,发表于2023年CVPR会议。它通过创新的"区域提示"和"锚点预匹配"技术,成功解决了计算机视觉领域的一大挑战——开放词汇目标检测。CORA能够识别训练数据中从未出现过的物体类别,就像人类能够举一反三一样。在LVIS数据集测试中,CORA的性能比现有最佳方法提高了4.6个百分点,尤其在稀有类别识别上表现突出。这一技术有望广泛应用于自动驾驶、零售、安防和辅助技术等多个领域。
芯片初创公司SiFive推出四款专为运行人工智能模型优化的CPU核心。这些基于开源RISC-V架构的新核心增加了矢量扩展功能,能够更高效地并行处理多个数据点,显著加速AI模型运算。其中X160和X180是主打产品,具备加速卷积运算的矢量处理功能,可用于工业设备、消费电子和数据中心。公司预计客户将于2026年第二季度开始基于新核心设计生产芯片。
中国电信研究院联合重庆大学、北航发布T2R-bench基准,首次系统评估AI从工业表格生成专业报告的能力。研究涵盖457个真实工业表格,测试25个主流AI模型,发现最强模型得分仅62.71%,远低于人类专家96.52%。揭示AI在处理复杂结构表格、超大规模数据时存在数字计算错误、信息遗漏等关键缺陷,为AI数据分析技术改进指明方向。