ZDNet至顶网服务器频道 05月21日编译:低功耗、高容量并降低电路板占用空间,在这份优势清单当中,AMD公司为其即将推出的高带宽内存(简称HBM)架构下足了宣传功夫。
AMD公司此前已经在一份白皮书中对HBM的细节情况作出了一番粗略说明,目前这套架构即将开始在部分Radeon 300系列显卡当中出现,同时也将作为AMD公司尚正处于规划当中的高性能计算集群化发展战略的组成部分。
除了功耗降低之外,新机制也将减少自身在垂直堆栈当中的占用空间:这套方案将利用硅通孔实现晶粒与晶粒间的连通,而微焊点则负责实现硅通孔间的物理隔离。
各硅通孔贯通整块芯片并达至逻辑晶粒,最终通过中介层接入封装基板。该中介层的作用是实现面向CPU或者GPU的快速连接,AMD公司宣称其性能表现“与芯片集成内存几乎没有区别”。
Hothardware网站预计,采用更宽总线——1024位,远大于GDDR5芯片上可怜的32位,意味着HBM将能够实现每秒100 GB的惊人传输能力,这一数字令GDDR5的每秒28 GB传输水平看起来如同笑话。
与此同时,这样的性能表现只需更低时钟速率即可实现,在HBM上需500 MHz,而在GDDR5上则需要1.75 GHz,再配合上1.3伏工作电压(GDDR5为1.5伏)意味着新规范能够实现50%的功耗缩减,且一举将每瓦带宽提升至过去的三倍(HBM为每瓦每秒35 GB,GDDR5则为每瓦每秒10.66 GB)。
AMD公司表示,更小物理尺寸在功耗节约与性能提升方面带来的另一大优势在于,HBM内存将能够与CPU/GPU一样被集成在同一基板之上。
Hothardware网站认为,采用这一技术的首款样品将于今年六月随AMD的下一代GPU一同亮相。
好文章,需要你的鼓励
OpenAI宣布获得400亿美元融资,估值飙升至3000亿美元,成为史上最大私募投资。这笔资金将用于AI研究、基础设施和产品开发,显示了AI在企业技术领域的重要性日益提升。OpenAI用户数量激增,每小时新增100万,反映出其在激烈竞争中的强劲增长。此轮融资强化了OpenAI在企业AI解决方案市场的地位,企业决策者需密切关注AI技术的快速发展。
OpenAI 宣布计划发布自 2019 年以来首个"开放权重"语言模型,这标志着该公司战略的重大转变。这一决定源于开源 AI 的经济压力,反映了基础模型商品化的趋势。此举可能重塑企业 AI 实施策略,尤其是在受监管行业中。OpenAI 面临在开放性和责任之间取得平衡的挑战,同时也凸显了 AI 行业竞争格局的根本变化。
Microsoft 正在对 Windows 系统崩溃时显示的蓝屏 (BSOD) 进行重新设计。新设计简化了界面,保留了技术信息,旨在提高用户生产力恢复速度。新版 BSOD 移除了表情符号和二维码,但保留了错误代码和失败进程信息。这一变更反映了 Microsoft 对提升用户体验的持续关注。
CarMax 作为美国最大的二手车零售商,年收入超过 265 亿美元。在 Shamim Mohammad 的领导下,公司成功实现了数字化转型,成为汽车行业的领先者。通过建立强大的技术基础、优化数据策略、应用人工智能技术,以及采用产品运营模式,CarMax 正在重塑汽车零售的未来。Mohammad 的前瞻性领导力和对创新的不懈追求,使 CarMax 在数字化时代保持竞争优势。