近年来,全球量子计算领域研究开始步入快速增长期,也成为当前各国高科技企业关注的热点领域,量子机器学习的加速效果无论理论上还是实际中也都已被初步证实。近日,京东探索研究院院长陶大程带领其量子计算研究团队主要成员杜宇轩、钱扬提出全球首个以经典云平台为依托、量子计算设备为终端的量子并行处理框架QUDIO(quantum distributed optimization scheme),将可实现充分调度现有量子计算资源去求解超越经典计算的大规模任务。
具体来说,QUDIO是由一个经典处理器为中心和多个分布式量子处理器形成的量子云构成的,其中经典计算机作为一个中心节点服务器,将大规模数据进行高效划分并且快速分发到云端的多个量子计算机。每个量子计算机在获取到数据块之后独立处理,同时以一定频率与其他量子计算机进行通信,共享模型参数和处理结果,最后将计算结果返回到经典计算机进行汇总和后处理。整个计算过程完全实现在量子云上完成,经典计算机只负责数据的分发与通信。
据悉,与传统处理框架相比,QUDIO将已有的量子计算机结合起来形成量子云,可以充分利用各个量子资源,加速大规模数据处理,有效地缓解了当前量子计算机性能稳定性较差、处理大规模数据迭代时间过长的困境。要知道当前量子计算机受困于经典量子数据有效转化问题,一次能够处理的数据有限,通过联合多台量子计算机,可以并行处理多条数据。
同时,QUDIO是一种独立于具体量子硬件和协议的框架,具有很强的兼容性,易于扩展到各种光量子计算机、离子阱量子计算机和超导量子计算机,能最大程度地利用现有的量子资源;它利用并行计算和量子计算的加速性能,为自然语言处理、计算机视觉、量子化学、组合优化等领域的大规模问题求解和数据处理提供显著的运行时间优势。
QUDIO相较传统计算还具有耗能低、碳排放量少的优势。随着深度学习的数据规模越来越大、模型越来越复杂,传统处理框架也面临着处理时间长、耗能高的难题。就拿目前的深度学习模型举例,比如BERT预训练模型就需要花费64块GPU训练四天,排放大约1438磅的二氧化碳。如使用QUDIO就可以充分利用量子计算的存储和加速优势,用相较传统计算更少的耗能和碳排放量,为各个行业的智能计算赋能,为大规模社会计算的实现提供算力保障,有助于实现碳中和的目标。京东探索研究院算法科学家杜宇轩表示,QUDIO将为未来实现以量子互联网为以托、通用量子计算机为终端的全量子云平台打下了坚实的基础。
京东探索研究院是以京东集团各事业群与业务单元的技术发展为基础,集合全集团资源和能力, 成立的专注于前沿科技探索的研发部门,实现研究和协同创新的生态平台。此前,京东探索研究院已经明确将“量子机器学习”、“可信人工智能”、“超级深度学习”等人工智能的三大领域锁定为研究方向并持续推进创新研究,致力于从基础理论层面实现颠覆式创新,助力数智化产业发展及变革, 以原创性科技赋能京东的零售、物流、健康、科技等全产业链场景,打造源头性科技高地。
对于最新的创新研究成果,京东探索研究院院长陶大程认为, QUDIO所具有的高效计算优势可为智能化社会供应链提供实时计算保障,有望打破目前的数据在线采集-信息离线提取的处理模式,提高供应链各个环节的反应速度,有效应对大规模用户请求的集中处理,未来将进一步增强保障京东数智化社会供应链服务的可靠性、智能性和快速性。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。