IBM的研究人员表示,一个重要的原因是数据中心内部仍然主要依靠铜线而不是高速的光纤。
IBM杰出工程师John Knickerbocker表示:“我们估计GPU有一半的时间是在空转。”“这白白耗费了大量的能量。”
现在,IBM表示已经在解决这一问题上取得了重大进展。该公司今天发布了一种新的协同封装光学工艺,将光学元件与电子芯片直接集成在一个封装内,从而实现了数据中心设备之间的光速连接。
该公司表示,它已建立并成功测试了基于聚合物光波导的互连器件,这种由聚合物材料制成的结构灵活轻便,可引导光线沿着一条路径前进,并限制光信号,从而在保持信号完整性的同时最大限度地减少损耗。
与电气互连相比,该模块可以减少80%以上的能源需求,同时将数据中心内可连接组件的电缆从目前的一米延长至数百米。
IBM表示,这样做的结果是,人工智能大型语言模型的训练速度可提高五倍,同时,据其估计,每训练一个模型可节省相当于5000个美国家庭一年的耗电量。
电力需求激增
IBM半导体部门总经理兼IBM研究院混合云研究副总裁Mukesh Khare表示:“在生成式人工智能和LLM出现之前,计算需求每20个月翻一番。”“自从LLM出现后,每6个月就会翻一番。”
电力消耗及其相应的碳足迹是人工智能经常被忽略的一个后果。国际能源机构今年早些时候估计,到2026年,处理人工智能和加密货币工作负载的数据中心的用电量可能会翻一番。届时,这个数字将相当于日本的总耗电量。
聚合物光波导技术被广泛应用于电信、数据通信和传感领域,但在数据中心内却从来不够经济实用。原因包括初始成本高、介质易碎、传统系统中铜线占主导地位以及光纤的尺寸。
它们的直径约为250微米,是人类头发宽度的三倍,宽约四分之一毫米。这大大超过了电子电路所需的相应空间。
Khare表示:“虽然业界在制造越来越快的芯片方面取得了重大进展,但这些芯片相互通信的速度却没有跟上。”“这中间存在着几个数量级的差距。”
IBM的研究人员利用PWG技术在芯片边缘排列高密度的光纤束,使芯片能够直接通过聚合物光纤进行通信。这种方法让光纤与连接器之间的公差缩小到半微米或者更小,这被认为是成功的基准。
该公司表示,其新型光学结构使芯片制造商能够在硅光子芯片边缘封装六倍于现在数量的光纤。每根光纤的跨度只有几厘米,每秒可传输太比特级的数据。当为每个光通道传输配置多个波长时,CPO技术可将芯片间的带宽提高80倍之多。
IBM表示,其工艺已将传统光通道的尺寸缩小了80%,测试表明还可能进一步缩小,从而将带宽提高1200%。
共同封装的光学模块已可投入商业使用,并将在IBM位于魁北克布罗蒙的工厂生产。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。