联合多家大学的合作研究中心,汇集世界知名的光子学和电路科研人员,为未来十年的计算互连铺平道路。
英特尔研究院近期成立了英特尔®面向数据中心互连的集成光电研究中心。该中心的使命是加速光互连输入/输出(I/O)技术在性能扩展和集成方面的创新,专注于光电子技术和器件、CMOS电路和链路架构,以及封装集成和光纤耦合。
英特尔资深首席工程师,英特尔研究院PHY 研究实验室主任James Jaussi表示:“在英特尔研究院,我们坚信单一机构不能将所有必要的创新都成功转化为研究现实。通过与全美国的一些顶尖科学家合作,英特尔正为面向下一代计算互连的集成光电发展打开大门。我们期待与这些科研人员密切合作,共同探索如何克服即将到来的性能障碍。”
随着服务器间的数据移动不断增加,对当下的网络基础架构能力提出了全新挑战。行业正在迅速接近电气I/O性能的实际极限。随着需求的持续增长,电气I/O的功耗性能调节无法保持同步增长,很快将限制用于计算运行的功率。这一性能障碍可以通过集成计算芯片和光互连I/O来克服,这也是英特尔集成光电研究中心的重点工作之一。
英特尔近期展示了集成光电关键构建模块的技术进展。光的产生、放大、检测、调制、CMOS接口电路和封装集成是实现所需的性能以取代电气成为主要的高带宽封装外接口的关键。
此外,光互连I/O有望在可达性、带宽密度、功耗和延迟等关键性能指标上显著优于电气I/O。在多个前沿领域的进一步创新来同时提升光学性能、降低功率和成本也是必不可少的。
关于研究中心:英特尔面向数据中心互连的集成光电研究中心汇集了多所大学和世界知名的科研人员,共同加速光互连输入/输出(I/O)技术在性能扩展和集成方面的创新,其研究愿景是探索技术扩展的路径,以满足未来十年及之后对能效和带宽性能的要求。
英特尔深知学术是技术创新的核心,并致力于促进全球领先学术机构的科研创新。集成光电研究中心的成立反映了英特尔致力于与学术界合作开发新的先进技术,从而进一步推动计算的发展。
参加该研究中心的科研人员包括:
研究项目:硅上异质集成量子点激光器
项目说明:加州大学圣巴巴拉分校的团队将研究砷化铟(InAs)量子点激光器与传统硅光子的集成问题。该项目的目标是阐明单频和多波长光源的预期性能和设计参数。
研究项目:通过双二进制信号和波特率时钟恢复实现的低功耗光收发器。
项目说明:该项目将使用新型跨阻抗放大器和波特率时钟和数据恢复架构来开发超低功耗、高灵敏度的光接收器。光收发模块原型机将采用22纳米CMOS工艺实现,展现出超高的抖动容限和出色的能效。
研究项目:用于高带宽数据通信的非易失性可重构光交换网络
项目说明:华盛顿大学的团队将使用新兴的硫族化合物相变材料研究低损耗、非易失性电气可重构硅光子交换机。与现有的可调机制不同,开发出的交换机将保持其状态,允许零静态功耗消耗。
研究项目:用于数据中心互连的Sub-150fJ/b光收发器
项目说明:该项目将为大规模并行、高密度和高容量光互连系统开发高能效的光收发器电路,其目标是通过在收发器中采用动态电压频率缩放、低摆幅电压模式驱动器、具有紧密集成光电检测器的超灵敏光接收器和低功率光器件调谐环路来提高能效。
研究项目:由高迁移率透明导电氧化物驱动的0.5V硅微型环调制器
项目说明:该项目旨在通过硅MOS电容器与高迁移率Ti:In2O3之间的异构集成开发一种低驱动电压、高带宽的硅微型环谐振器调制器(MRM)。该器件有望克服光发射器的能效瓶颈,并且可能共同封装在未来的光I/O系统中。
研究项目:硅光子的晶圆级光学封装
项目说明:加州大学伯克利分校的团队将开发集成波导透镜,该透镜具有实现低损耗和高容差光纤阵列的非接触式光学封装的潜力。
研究项目:无热且节能的可扩展大容量硅光子收发器
项目说明:加州大学戴维斯分校的团队将开发极度节能的无热硅光子调制器和谐振光电检测器光集成电路,150 fJ/b能效和16 Tb/s/mm I/O密度下,其容量可扩展至40 Tb/s。为实现这一目标,该团队还将开发一种全新的3D封装技术,用于垂直整合光子和电子集成电路,其互连密度为每平方毫米10,000个焊盘。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。