这家芯片制造巨头开发出一款小型chiplet,使用光而非电来传输数据,希望借此提高负责运行AI密集型工作负载的数据中心的传输带宽。
这款精巧的小芯片使用光而非电来增加数据传输带宽。
AI技术对于计算能力和电力的需求似乎永无止境,即使是最强大的数据中心也需要部署更多处理器和能源供应以满足日益增长的AI运行需求。
为了解决这个难题,英特尔宣布已经开发出所谓光计算互连(OCI)芯片,其使用光而非电在处理器之间传输数据。在英特尔看来,这是市面上第一款能够应对AI市场所需计算工作量的设备。为此,芯片巨头最近在光纤通信会议上专门展示了这款与其CPU配套集成的解决方案。
英特尔公司产品管理与战略高级总监Thomas Liljeberg在本次发布前的媒体发布会上表示,“AI技术的普及加速并加剧了一系列已知挑战。我们认为这款产品非常引人注目,有望成为帮助应对挑战的可扩展解决方案。”
在数据中心处理过程中,信息会不断在服务器之间往来传输,通常借助铜缆之上的电信号实现连接。虽然这能够实现高效处理所必需的高带宽、低能耗传输效果,但线缆的长度一般只能略微超过3英尺,因此严重限制了连接规划能力。而当前广泛使用的替代方案是依靠可插拔模块进行数据传输,只是此类设备往往效率低下且存在延迟问题。
英特尔的集成芯片有效解决了这些问题,其采用的光信号传输(激光通过光纤连接进行传播)使得处理器能够在更长的距离上进行通信,且长度几乎达到铜缆的100倍,由此开启了更加灵活的分布式数据中心架构新时代。
除了光连接之外,OCI还配备用于处理信息的集成电路以及用于处理电信号的电路,外加一条用于接入光学连接器的路径,其中的连接器就是光信号的端口。它还具备可扩展空间,能够以更快的速度传输更多数据,从而为处理器间的数据传输提供更高的容量上限。这样的模块化设计有望降低传输容量在数据中心内的添加门槛,更好、更轻松地满足连接需求。
英特尔并不是市面上唯一一家研究半导体电子技术的公司。格罗方德和Ayar Labs等厂商同样公布了自己用于辅助AI架构及产品的光传输集成方案。然而,由于光传输技术比传统技术更昂贵,因此人们普遍关心这些产品需要达到怎样的部署规模才能真正具备经济意义。
谈到英特尔的光传输解决方案,咨询公司Simon Kucher合伙人兼董事会成员Bhavin Manjee表示,“我认为价格仍算合理,因为其具备相应的优势并启发出新的用例。另外,光传输也更加可靠、更加灵活。”
英特尔的另一大优势在于,其新产品并不局限于自家设备环境,也同样支持其他使用场景。Liljeberg表示,光传输设备能够与大多数处理器相兼容,甚至可以与英特尔和AMD等厂商的处理器产品对接。
他解释称,“我们相信自己的解决方案在效果和能力方面具有很强的说服力,也一定会将其推向更广阔的市场。我们将与生态系统合作,在保障互操作性的同时,确保我们的光子芯片能够与其他供应商的电子芯片顺利对接。”
展望未来,英特尔计划批量交付这款芯片,将其与更多处理平台相集成。芯片巨头已经与部分客户携手运行了试点项目,希望在扩大生产规模的同时尽早着手整合这项技术。
随着制造规模的扩大,Liljeberg表示OCI将“既能满足成本要求,又能满足制造难度方面的要求。”他还补充道,随着越来越多的数据中心引入这项技术,“其应用规模将不断扩大,成为支持未来几代数据中心传输带宽需求的一股中坚力量。”
好文章,需要你的鼓励
IDC数据显示,Arm架构服务器出货量预计2025年将增长70%,但仅占全球总出货量的21.1%,远低于Arm公司年底达到50%市场份额的目标。大规模机架配置系统如英伟达DGX GB200 NVL72等AI处理设备推动了Arm服务器需求。2025年第一季度全球服务器市场达到创纪录的952亿美元,同比增长134.1%。IDC将全年预测上调至3660亿美元,增长44.6%。配备GPU的AI服务器预计增长46.7%,占市场价值近半。
华为诺亚实验室联合多家顶尖院校推出开源机器人编程框架Ark,通过Python优先设计和模块化架构,实现仿真与现实环境的无缝切换。该框架大幅降低机器人编程门槛,支持现代AI技术集成,为机器人学习研究提供统一平台,有望加速机器人技术普及。
AI正在重塑创业公司的构建方式,这是自云计算出现以来最重大的变革。January Ventures联合创始人Jennifer Neundorfer将在TechCrunch All Stage活动中分享AI时代的新规则,涵盖从创意验证、产品开发到团队架构和市场策略的各个方面。作为专注于B2B早期投资的风投合伙人,她将为各阶段创业者提供关键洞察。
网易有道研究团队开发了Confucius3-Math,这是一个专门针对中国K-12数学教育的14B参数AI模型。该模型在多项数学推理测试中表现出色,超越了许多规模更大的竞争对手,训练成本仅需2.6万美元,推理速度比DeepSeek-R1快15倍,能在消费级GPU上高效运行,旨在通过降低AI教育成本来促进教育公平。