量子计算承诺带来魔法般的强大性能,但同时也有着诸多难以克服的阻力。其中最重要的一点,就是如何把待解决的问题,表达为能够运行在现有硬件之上的量子“电路”。但是,如果问题中只有一部分符合这种表达形式,该如何处理?一般来说,复杂问题最好是由传统计算与量子技术进行综合处理,但大多数开发者并不熟悉这种把问题拆分成分别面向CPU、GPU和QPU等不同计算域的技术。为此,IBM决定通过抽象层为量子计算铺平道路,像云服务供应商那样推广量子层面的“无服务器”计算。
“量子无服务器”是什么?
IBM的这种“量子无服务器”方法,旨在引导用户大规模利用量子计算资源,同时不必担心底层硬件带来的复杂性。这种无摩擦开发过程主要依托于开源Qiskit,这是一套以容器化方式执行经典计算代码的环境,能够以低延迟形式访问量子硬件。如此一来,各种各样的工作负载就都能迭代或重复使用量子硬件,从而获得远超以往的执行速度。事实上,与以往的电路API模型相比,IBM借助Qiskit运行时将变分量子Eigensolver算法的执行速度提高了120倍。
关于Qiskit
IBM Qiskit主要面向三种用户类别。首先就是不太熟悉量子技术的化学、金融或AI等领域的高水平专家,现在他们也可以用相对透明的方式向量子硬件上部署电路了。这无疑是量子计算迎合市场需求所迈出的重要一步。其次就是对量子电路有一定了解,打算通过运行时库来测试量子计算相较于经典计算的比较优势的开发人员。最后则是那些想要检查量子计算脉冲(即控制量子位进出的信号)的量子计算专家,他们可以在Qiskit的支持下,将同样的运行时套件部署在IBM支持的全球20多种量子系统之上。
IBM团队也一直在研究新方法,希望利用经典资源处理电路设计、量子嵌入和错误缓解等复杂问题,借此提升量子计算系统的问题解决能力。经典资源能够在电路设计问题中找到关键切入点,借此生成体量更小的量子电路以适应当前算力较弱的量子设备。分部完成之后,再由经典计算机将各部分重新组合起来以模拟整体问题。错误缓解则通过经典的后处理机制减少某些特定错误及其影响,借此获得更准确的量子计算解。IBM希望这种量子+经典的组合,能够让技术社区比预期更早地在某些应用中享受到量子计算优势。
“无服务器”有何优势?
其实“无服务器”这个表述可能让人有点迷惑。底层的服务器(包括经典或量子形式)当然存在,只是开发者现在只需要关注编码,而不需要分神于硬件基础设施。一切资源都将被封装成云服务形式,消除开发端的容量或生命周期管理需求,而且能够实现无缝扩展。最后,用户可以即付即用,不必承担硬件闲置带来的成本。
总结
目前,IBM发布的还只是简单演示,主要强调IBM云代码引擎与Qiskit运行时如何帮助用户将CPU、GPU和QPU在同一应用场景中组合起来,相当于开启了一扇窥探未来应用场景的小窗。
展望未来,IBM正在重新思考量子程序的运行方式,探索更复杂的量子计算实现途径,希望真正实现并加速“量子霸权”——也就是量子计算显著优于传统计算的使用场景。而“量子无服务器”的出现,正是IBM为量子计算学科勾勒出的一份发展蓝图。
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。