IBM的研究人员表示,一个重要的原因是数据中心内部仍然主要依靠铜线而不是高速的光纤。
IBM杰出工程师John Knickerbocker表示:“我们估计GPU有一半的时间是在空转。”“这白白耗费了大量的能量。”
现在,IBM表示已经在解决这一问题上取得了重大进展。该公司今天发布了一种新的协同封装光学工艺,将光学元件与电子芯片直接集成在一个封装内,从而实现了数据中心设备之间的光速连接。
该公司表示,它已建立并成功测试了基于聚合物光波导的互连器件,这种由聚合物材料制成的结构灵活轻便,可引导光线沿着一条路径前进,并限制光信号,从而在保持信号完整性的同时最大限度地减少损耗。
与电气互连相比,该模块可以减少80%以上的能源需求,同时将数据中心内可连接组件的电缆从目前的一米延长至数百米。
IBM表示,这样做的结果是,人工智能大型语言模型的训练速度可提高五倍,同时,据其估计,每训练一个模型可节省相当于5000个美国家庭一年的耗电量。
电力需求激增
IBM半导体部门总经理兼IBM研究院混合云研究副总裁Mukesh Khare表示:“在生成式人工智能和LLM出现之前,计算需求每20个月翻一番。”“自从LLM出现后,每6个月就会翻一番。”
电力消耗及其相应的碳足迹是人工智能经常被忽略的一个后果。国际能源机构今年早些时候估计,到2026年,处理人工智能和加密货币工作负载的数据中心的用电量可能会翻一番。届时,这个数字将相当于日本的总耗电量。
聚合物光波导技术被广泛应用于电信、数据通信和传感领域,但在数据中心内却从来不够经济实用。原因包括初始成本高、介质易碎、传统系统中铜线占主导地位以及光纤的尺寸。
它们的直径约为250微米,是人类头发宽度的三倍,宽约四分之一毫米。这大大超过了电子电路所需的相应空间。
Khare表示:“虽然业界在制造越来越快的芯片方面取得了重大进展,但这些芯片相互通信的速度却没有跟上。”“这中间存在着几个数量级的差距。”
IBM的研究人员利用PWG技术在芯片边缘排列高密度的光纤束,使芯片能够直接通过聚合物光纤进行通信。这种方法让光纤与连接器之间的公差缩小到半微米或者更小,这被认为是成功的基准。
该公司表示,其新型光学结构使芯片制造商能够在硅光子芯片边缘封装六倍于现在数量的光纤。每根光纤的跨度只有几厘米,每秒可传输太比特级的数据。当为每个光通道传输配置多个波长时,CPO技术可将芯片间的带宽提高80倍之多。
IBM表示,其工艺已将传统光通道的尺寸缩小了80%,测试表明还可能进一步缩小,从而将带宽提高1200%。
共同封装的光学模块已可投入商业使用,并将在IBM位于魁北克布罗蒙的工厂生产。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。