IBM的研究人员表示,一个重要的原因是数据中心内部仍然主要依靠铜线而不是高速的光纤。
IBM杰出工程师John Knickerbocker表示:“我们估计GPU有一半的时间是在空转。”“这白白耗费了大量的能量。”
现在,IBM表示已经在解决这一问题上取得了重大进展。该公司今天发布了一种新的协同封装光学工艺,将光学元件与电子芯片直接集成在一个封装内,从而实现了数据中心设备之间的光速连接。
该公司表示,它已建立并成功测试了基于聚合物光波导的互连器件,这种由聚合物材料制成的结构灵活轻便,可引导光线沿着一条路径前进,并限制光信号,从而在保持信号完整性的同时最大限度地减少损耗。
与电气互连相比,该模块可以减少80%以上的能源需求,同时将数据中心内可连接组件的电缆从目前的一米延长至数百米。
IBM表示,这样做的结果是,人工智能大型语言模型的训练速度可提高五倍,同时,据其估计,每训练一个模型可节省相当于5000个美国家庭一年的耗电量。
电力需求激增
IBM半导体部门总经理兼IBM研究院混合云研究副总裁Mukesh Khare表示:“在生成式人工智能和LLM出现之前,计算需求每20个月翻一番。”“自从LLM出现后,每6个月就会翻一番。”
电力消耗及其相应的碳足迹是人工智能经常被忽略的一个后果。国际能源机构今年早些时候估计,到2026年,处理人工智能和加密货币工作负载的数据中心的用电量可能会翻一番。届时,这个数字将相当于日本的总耗电量。
聚合物光波导技术被广泛应用于电信、数据通信和传感领域,但在数据中心内却从来不够经济实用。原因包括初始成本高、介质易碎、传统系统中铜线占主导地位以及光纤的尺寸。
它们的直径约为250微米,是人类头发宽度的三倍,宽约四分之一毫米。这大大超过了电子电路所需的相应空间。
Khare表示:“虽然业界在制造越来越快的芯片方面取得了重大进展,但这些芯片相互通信的速度却没有跟上。”“这中间存在着几个数量级的差距。”
IBM的研究人员利用PWG技术在芯片边缘排列高密度的光纤束,使芯片能够直接通过聚合物光纤进行通信。这种方法让光纤与连接器之间的公差缩小到半微米或者更小,这被认为是成功的基准。
该公司表示,其新型光学结构使芯片制造商能够在硅光子芯片边缘封装六倍于现在数量的光纤。每根光纤的跨度只有几厘米,每秒可传输太比特级的数据。当为每个光通道传输配置多个波长时,CPO技术可将芯片间的带宽提高80倍之多。
IBM表示,其工艺已将传统光通道的尺寸缩小了80%,测试表明还可能进一步缩小,从而将带宽提高1200%。
共同封装的光学模块已可投入商业使用,并将在IBM位于魁北克布罗蒙的工厂生产。
好文章,需要你的鼓励
多伦多大学研究团队提出Squeeze3D压缩框架,巧妙利用3D生成模型的隐含压缩能力,通过训练映射网络桥接编码器与生成器的潜在空间,实现了极致的3D数据压缩。该技术对纹理网格、点云和辐射场分别达到2187倍、55倍和619倍的压缩比,同时保持高视觉质量,且无需针对特定对象训练网络,为3D内容传输和存储提供了革命性解决方案。
浙江大学与腾讯联合研究团队提出MoA异构适配器混合方法,通过整合不同类型的参数高效微调技术,解决了传统同质化专家混合方法中的表征坍塌和负载不均衡问题。该方法在数学和常识推理任务上显著优于现有方法,同时大幅降低训练参数和计算成本,为大模型高效微调提供了新的技术路径。
耶鲁、哥大等四校联合研发的RKEFino1模型,通过在Fino1基础上注入XBRL、CDM、MOF三大监管框架知识,显著提升了AI在数字监管报告任务中的表现。该模型在知识问答准确率提升超过一倍,数学推理能力从56.87%提升至70.69%,并在新颖的数值实体识别任务中展现良好潜力,为金融AI合规应用开辟新路径。
加州大学圣巴巴拉分校研究团队开发出能够自我进化的AI智能体,通过《卡坦岛拓荒者》桌游测试,这些AI能在游戏过程中自主修改策略和代码。实验显示,具备自我进化能力的AI显著超越静态版本,其中Claude 3.7模型性能提升达95%。研究验证了AI从被动工具向主动伙伴转变的可能性,为复杂决策场景中的AI应用开辟新路径。