Nvidia近日与Ayar Labs签署了一项技术合作协议。Ayar Labs是一家开发光学芯片的初创公司,其芯片有望提高数据中心基础设施的速度和效率。
就该消息公布的几周之前,Nvidia刚刚为这家初创公司提供了1.3亿美元的融资资金,其他几家科技巨头也加入了这轮融资,包括英特尔的投资部门Intel Capital。自创立以来,Ayar Labs累计融资了1.947亿美元。
Nvidia将与Ayar Labs合作,开发基于Ayar Labs光学芯片技术的人工智能基础设施新产品,特别是,两家公司希望打造“由高带宽、低延迟和超低功耗光学互连接入技术实现的横向扩展架构”。
对很多企业AI使用场景来说,将芯片连接在一起是必不可少的。在互连技术的帮助下,企业客户可以将多个图形卡相互连接,并使用它们来运行AI软件,速度比使用单个处理器更快。
互连速度直接影响驱动AI硬件的性能。在AI环境中,数据在芯片之间传输的速度越快,执行的处理速度也就越快。
Ayar Labs开发了一种新的互连技术,速度要比现有产品快得多。通常,互连技术是以电的形式在互相连接的芯片之间传输数据,而Ayar Labs的技术是以光的形式传输数据,从而提高性能。
Ayar Labs在一款名为TeraPHY的模块中提供了这种互连技术,这种模块可以内置到图形卡等处理器中。据Ayar Labs称,单个TeraPHY模块每秒能够传输2 TB的数据,而且这种技术提供的带宽要比传统互连技术高出1000倍,功耗仅为传统互连的十分之一。
Nvidia公司数据中心产品首席平台架构师Rob Ober表示:“在过去十年中,Nvidia加速计算在AI领域实现了百万倍的加速。下一个百万级的飞跃将需要借助新的先进技术,如光学I/O,以满足未来人工智能和机器学习工作负载和系统架构对带宽、功率和规模的要求。”
两家厂商不仅计划在产品开发方面展开合作,还计划加速光学芯片技术的普及。人工智能基础设施市场只是Nvidia应用光学互连技术的几个潜在领域之一。Ayar Labs表示,TeraPHY模块有助于提高云数据中心和超级计算环境的性能,两者都是Nvidia关注的主要领域。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
哈佛大学研究团队开发出LangSplatV2系统,实现了超高速3D语言查询功能。该系统通过创新的稀疏编码技术和高效渲染算法,将3D场景语言理解速度提升了47倍,达到每秒384帧的实时处理能力。系统采用全局语义字典和稀疏系数表示,彻底解决了传统方法中解码器速度瓶颈问题,为AR/VR、智能机器人等应用提供了强大的技术基础。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
马里兰大学研究团队提出了CoLa(Chain-of-Layers)方法,让AI模型能够根据任务难度动态调整内部层的使用策略,实现"快思考"和"慢思考"的灵活切换。通过蒙特卡洛树搜索算法,该方法在推理任务上显著提升了模型的准确性和效率,为75%的正确答案找到了更短的处理路径,并纠正了60%的错误答案,为AI模型的架构优化开辟了新方向。