IBM的研究人员表示,一个重要的原因是数据中心内部仍然主要依靠铜线而不是高速的光纤。
IBM杰出工程师John Knickerbocker表示:“我们估计GPU有一半的时间是在空转。”“这白白耗费了大量的能量。”
现在,IBM表示已经在解决这一问题上取得了重大进展。该公司今天发布了一种新的协同封装光学工艺,将光学元件与电子芯片直接集成在一个封装内,从而实现了数据中心设备之间的光速连接。
该公司表示,它已建立并成功测试了基于聚合物光波导的互连器件,这种由聚合物材料制成的结构灵活轻便,可引导光线沿着一条路径前进,并限制光信号,从而在保持信号完整性的同时最大限度地减少损耗。
与电气互连相比,该模块可以减少80%以上的能源需求,同时将数据中心内可连接组件的电缆从目前的一米延长至数百米。
IBM表示,这样做的结果是,人工智能大型语言模型的训练速度可提高五倍,同时,据其估计,每训练一个模型可节省相当于5000个美国家庭一年的耗电量。
电力需求激增
IBM半导体部门总经理兼IBM研究院混合云研究副总裁Mukesh Khare表示:“在生成式人工智能和LLM出现之前,计算需求每20个月翻一番。”“自从LLM出现后,每6个月就会翻一番。”
电力消耗及其相应的碳足迹是人工智能经常被忽略的一个后果。国际能源机构今年早些时候估计,到2026年,处理人工智能和加密货币工作负载的数据中心的用电量可能会翻一番。届时,这个数字将相当于日本的总耗电量。
聚合物光波导技术被广泛应用于电信、数据通信和传感领域,但在数据中心内却从来不够经济实用。原因包括初始成本高、介质易碎、传统系统中铜线占主导地位以及光纤的尺寸。
它们的直径约为250微米,是人类头发宽度的三倍,宽约四分之一毫米。这大大超过了电子电路所需的相应空间。
Khare表示:“虽然业界在制造越来越快的芯片方面取得了重大进展,但这些芯片相互通信的速度却没有跟上。”“这中间存在着几个数量级的差距。”
IBM的研究人员利用PWG技术在芯片边缘排列高密度的光纤束,使芯片能够直接通过聚合物光纤进行通信。这种方法让光纤与连接器之间的公差缩小到半微米或者更小,这被认为是成功的基准。
该公司表示,其新型光学结构使芯片制造商能够在硅光子芯片边缘封装六倍于现在数量的光纤。每根光纤的跨度只有几厘米,每秒可传输太比特级的数据。当为每个光通道传输配置多个波长时,CPO技术可将芯片间的带宽提高80倍之多。
IBM表示,其工艺已将传统光通道的尺寸缩小了80%,测试表明还可能进一步缩小,从而将带宽提高1200%。
共同封装的光学模块已可投入商业使用,并将在IBM位于魁北克布罗蒙的工厂生产。
好文章,需要你的鼓励
诺基亚最新全球网络流量报告预测,到2034年WAN流量将增长300%至700%,主要驱动力包括人工智能、工业运营扩展和消费者沉浸式应用。报告称AI流量年复合增长率将达23%,到2034年占全球WAN流量30%。然而专家对此预测提出质疑,认为报告缺乏具体应用场景支撑。分析师指出,企业目前并未因WAN带宽限制而无法实现目标,工业设备更新周期长达15年以上,大规模流量增长不太可能快速实现。
GigaAI团队开发的GigaBrain-0.5M*系统首次让机器人获得了"预见未来"的能力,通过世界模型预测未来场景并指导行动决策。该系统采用RAMP强化学习方法,在多项复杂操作任务中表现优异,成功率比传统方法提升约30%,并在国际RoboChallenge基准测试中排名第一,代表了从反应式控制向前瞻式智能的重大突破。
今天的出海故事,从一笔690.78万加元的少数股权投资开始:金牌家居的全资子公司与关联方通过新加坡主体共同参投 RIFO Holding Group Inc.,简称RIFO,先把钱放到加拿大“住房交易、金融服务与安居服务”这条链条更靠前的位置。
这项由人大和腾讯联合开展的研究提出了ExOPD方法,通过调节奖励信号让AI学生模型突破老师性能限制。研究在数学推理和代码生成任务上验证了该方法的有效性,发现合适的奖励外推能让小模型超越大模型表现。该技术为AI训练领域带来新思路,但仍需考虑计算成本等实际限制。