Nvidia今天揭开了所谓“统一计算平台”的神秘面纱,该平台将经典的计算架构与先进的量子计算机相结合,用于加速研发。
这款新平台名为“Nvidia Quantum Optimized Device Architecture”,Nvidia表示,平台的主要目的是为了简化混合量子经典计算的开发,为当前最强大的一些超级计算机和量子处理器提供了一个开放和统一的环境,以提高科学生产力并实现更大的量子研究规模。
混合量子经典计算是指经典计算系统与更先进、但仍处于萌芽状态的量子机器的结合体。该理论认为,通过将传统计算机与其量子计算机相结合,可以取得更大的技术进步,因为量子系统并不适用于很多更为基础的计算任务,而量子应用仍然需要有系统去运行。
Nvidia公司高性能计算和量子计算产品总监Tim Costa表示,目前大多数研究人员都认为,这两种不同类型的系统相结合,将实现最大的科学突破。他说:“QODA将通过让更多开发人员快速访问所需工具,彻底改变量子计算。”
QODA架构包括了Nvidia cuQuantum软件开发套件,一组优化的库和模拟环境,旨在加速GPU上的量子计算工作流程。
QODA架构还提供了来自IQM Finland、Pasqal、Quantinuum、Quantum Brilliance和Xanadu Quantum Technologies等公司的量子硬件,以及QC Ware和Zapata Computing等公司的量子软件,资源则由Forschungszentrum Jülich、美国劳伦斯伯克利国家实验室和橡树岭国家实验室的超级计算中心提供。
该架构的设计思路,就是让开发人员可以使用Nvidia cuQuantum SDK在单一的、整合的环境中,对量子和经典资源进行编程。
研究人员使用QODA架构可以对各种超级计算资源和实验量子机器进行实验。例如,此前Quantinuum开发了基于离子阱架构的20量子位设备,这次Quantinuum将提供H系列量子处理器,配合合作伙伴的超级计算资源一起使用。
“化学、药物发现、材料科学等领域的近期应用,将可以与量子计算无缝集成,随着实用量子技术的优势逐渐体现,将推动这些领域有新的成果发现,”Zapata首席技术官Yudong Cao表示。
Constellation Research分析师Holger Mueller表示,量子计算技术正在迅速成熟,因此,需要确保周边平台能与量子技术相互共存。
“这越来越有必要,因为量子系统将成为企业第一个不运行在自己数据中心内、而是完全运行在云中的计算平台。随着QODA平台的推出,Nvidia将把量子技术与其强大的人工智能和高性能计算相结合,相互利用实现下一代应用和场景。很高兴看到量子技术厂商们彼此之间相互合作和采用。”
Nvidia表示,希望QODA平台最终将让开发人员可以在各种典型的软硬件平台和量子软硬件平台上利用开放的、可互操作的标准。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。