英伟达、思科等多家企业决意大量支持这一新型制造平台
GlobalFoundries认为以光速传输数据才是未来趋势,而英伟达、思科等重量级厂商的支持也是对其硅光子制造技术发展潜力的有力背书。

这家总部位于纽约州马耳他市的芯片制造商表示,他们正在与主要客户合作设计新的GF Fotonix平台。根据GlobalFoundries的介绍,这套本周一刚刚发布的全新平台意在满足不断增长的市场芯片需求,强调更低功耗与更快数据处理速度,也将成为GlobalFoundries在快速增长的光网络模块市场上保持领导地位的关键因素。
GlobalFoundries公司计算与有线基础设施高级副总裁兼总经理Amir Faintuch表示,“目前业界已经公认硅光子技术将成为下一轮数据中心革命的必要前提,我们领先的半导体制造技术平台则有助于推动这项技术步入主流应用。”
GlobalFoundries解释称,GF Fotonix属于单片平台,也开业界之先河将300mm光子模块与一块300 GHz级RF-CMOS集成在同一芯片之上。于是这些以往只能分别存在于独立芯片上的光子、射频与互补金属氧化物半导体元件,如今被成功整合在同一芯片当中。
根据GlobalFoundries的介绍,这种单片设计拥有一系列显著优势。实验证明GF Fotonix能够提供单光纤0.5 Tbps传输速率,追平业界单根光纤的最高数据传输能力。以此为基础,GlobalFoundries公司完全可以制造出传输速率在1.6到3.2 Tbps之间的光学小芯片,由此提供更快、更高效的数据传输能力,同时带来更好的信号完整性。
GlobalFoundries认为GF Fotonix将在下一代AI应用场景中大放异彩,将系统错误率降低至现有水平的万分之一。
该公司还强调了GF Fotonix在光子集成电路层面的超高集成度。这意味着客户能够在芯片上封装进更多产品功能,同时“简化芯片基材清单”。
GF Fotonix还支持多种芯片封装解决方案,包括以往只适用于更大光纤阵列的被动附着元件、2.5D封装与片上激光器等。
GlobalFoundries表示,用于GF Fotonix的初片制程设计套件将于今年4月推出。该套件能够与Ansys、Cadence Design Systems以及Synopsys等设计工具配合使用。
这家芯片制造商坚信GF Fotonix这套去年才初次亮相的方案必将获得市场青睐,目前也已经得到多家有意使用该平台的企业客户的积极推荐。
GlobalFoundries公司发布一份声明,提到英伟达正计划将GF Fotonix平台提供的高带宽、低功耗光学互连引入“前沿”数据中心产品,推动高性能计算与AI应用迈入新的发展阶段。
在思科方面,GlobalFoundries已经与这家网络巨头合作开发用于数据中心网络及数据中心互连应用的定制化硅光子解决方案。
思科公司光学系统与光学集团负责人Bill Gartner在一份声明中表示,“我们在硅光子技术领域的巨额投入与领先地位,再加上GlobalFoundries功能丰富的制造技术,必将带来一流的最终产品。”
其他GF Fotonix企业客户还包括量子初创公司PsiQuantum与芯片初创公司Ayar Labs。GlobalFoundries也在声明中提到将为Marvell、Broadcom、Lightmatter以及Macom等企业提供更广泛的硅光子技术支持。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。