Nvidia近日与Ayar Labs签署了一项技术合作协议。Ayar Labs是一家开发光学芯片的初创公司,其芯片有望提高数据中心基础设施的速度和效率。
就该消息公布的几周之前,Nvidia刚刚为这家初创公司提供了1.3亿美元的融资资金,其他几家科技巨头也加入了这轮融资,包括英特尔的投资部门Intel Capital。自创立以来,Ayar Labs累计融资了1.947亿美元。
Nvidia将与Ayar Labs合作,开发基于Ayar Labs光学芯片技术的人工智能基础设施新产品,特别是,两家公司希望打造“由高带宽、低延迟和超低功耗光学互连接入技术实现的横向扩展架构”。
对很多企业AI使用场景来说,将芯片连接在一起是必不可少的。在互连技术的帮助下,企业客户可以将多个图形卡相互连接,并使用它们来运行AI软件,速度比使用单个处理器更快。
互连速度直接影响驱动AI硬件的性能。在AI环境中,数据在芯片之间传输的速度越快,执行的处理速度也就越快。
Ayar Labs开发了一种新的互连技术,速度要比现有产品快得多。通常,互连技术是以电的形式在互相连接的芯片之间传输数据,而Ayar Labs的技术是以光的形式传输数据,从而提高性能。
Ayar Labs在一款名为TeraPHY的模块中提供了这种互连技术,这种模块可以内置到图形卡等处理器中。据Ayar Labs称,单个TeraPHY模块每秒能够传输2 TB的数据,而且这种技术提供的带宽要比传统互连技术高出1000倍,功耗仅为传统互连的十分之一。
Nvidia公司数据中心产品首席平台架构师Rob Ober表示:“在过去十年中,Nvidia加速计算在AI领域实现了百万倍的加速。下一个百万级的飞跃将需要借助新的先进技术,如光学I/O,以满足未来人工智能和机器学习工作负载和系统架构对带宽、功率和规模的要求。”
两家厂商不仅计划在产品开发方面展开合作,还计划加速光学芯片技术的普及。人工智能基础设施市场只是Nvidia应用光学互连技术的几个潜在领域之一。Ayar Labs表示,TeraPHY模块有助于提高云数据中心和超级计算环境的性能,两者都是Nvidia关注的主要领域。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。