在过去几个月中,量子计算技术已经取得了一些重大的突破,这显示出该技术正以惊人的速度发展。
虽然量子计算目前仍主要处于学术界和专注于纠错研究的科研人员的领域,但各量子计算企业的路线图表明,实用的量子机器已经指日可待。
IBM 的路线图显示,今年将从现有的 Heron 机器转向一种名为 Flamingo 的新设备,而 Flamingo 实际上是通过将两台 Heron 设备连接在一起构建的。在 2024 年 11 月举行的首次量子计算开发者大会上,IBM 展示了一种称为 L-couplers 的连接技术,该技术将两颗 Heron R2 芯片通过四个最长达 1 米的连接器连接起来。Flamingo 标志着一个为期三年的计划的开始,该计划旨在利用模块化量子计算架构,将量子设备上门(gate)的数量从 5,000 扩增到 15,000,目标直至 2028 年。
今年 2 月,Microsoft 发布了关于拓扑量子比特(称为 Majorana 费米子)的研究成果,公司预期这种量子比特将更稳定,从而减少对纠错的需求。此外,Microsoft 还在研发一种名为 Majorana 1 的设备,可用于检测这些量子比特,使其能够应用于量子计算任务。
Heligan Group 的战略洞察总监 Will Ashford-Brown 表示: “我们每天都在向实现面向实际应用的商业量子使用迈进。体积、散热、价格、速度与影响力都是一系列持续改进中的长期目标,但我们似乎正处在商业应用、投资与机遇敲门的时刻。”
他预计,新一代量子计算平台的推出将引发顾客需求的激增。“目前,该市场主要局限于国家研究实验室和超级计算实验室,” Ashford-Brown 说道,“但商业采纳正在启动,起步于科技巨头。Microsoft, Amazon, Google 与 IBM 均已与量子计算初创企业展开合作,提供基于量子技术的云服务,或正在开发自有量子机器。”
工业应用
在量子计算不断演进的同时,利用这一技术加速计算复杂问题的混合方案也备受关注。
例如,D-Wave 最近扩展了其量子优化产品,开展了多项举措以促进技术采纳。该公司表示,Ford Otosan(这是 Ford Motor Company 与土耳其 Koc Holding 的一家合资企业)已经在生产中部署了一款基于 D-Wave 技术的混合量子应用,该应用能够简化 Ford Transit 的制造流程。
美国则制定了一项为期 8 年的计划,旨在使量子计算具备商业应用价值。Alice & Bob、Quantinuum 和 Rigetti 等 10 家量子计算企业已被美国国防部选中,参与该机构量子基准测试计划( QBI )第一阶段的工作。该计划旨在评估到 2033 年前构建一台具有工业实用性的量子计算机的可行性。
这些进展仅是科技界大力开发量子计算及利用量子技术加速解决高难度计算问题的众多努力中的一小部分快照。
M Squared Lasers 创始人兼首席执行官 Graeme Malcolm 认为,现在需要一次决定性的商业推动。他表示:“业内正处于所谓‘量子死亡谷’的边缘——这是从科研卓越迈向商业现实的一个关键转变。”鉴于政府最近注入的资金,即将在英国投入 1.21 亿英镑以推动量子技术的发展,他补充道:“我们必须将集体重点转向工业化。一个没有量子的国家,将失去关键的竞争优势。”
然而,尽管取得了诸多进展,《经济学人影响》的一项调查显示,有 57% 的受访者认为,对于量子计算的误解正在切实阻碍其发展。调查结果表明,技术进步与商业准备之间存在脱节,这进一步强化了在高层管理中加强沟通、教育和协调的重要性,以维持持续进步的势头。
《经济学人影响》贸易、技术与产业事件策划负责人 Helen Ponsford 指出:“有 80% 的受访者认为展示特定行业的应用案例对于加速采纳至关重要,同时三分之二的人强调证明投资回报率的重要性。信息非常明确:量子技术一旦实现科学突破,其商业相关性必须紧随其后,才能保持持续增长。”
第一块量子拼图
虽然通过平台与软件开发工具包使量子计算技术向软件开发者开放已取得显著进展,但在讨论量子计算时,安全问题绝不可或缺,这些问题必须在大规模应用之前得到妥善解决。
谈及量子安全密码学,Arqit 首席密码学家 Daniel Shiu 表示:“尽管一台切实可用的量子计算机何时问世尚充满不确定性,但有两件事是明确的——业界正不断进步,而威胁已经出现。除非当前的系统得到充分保护,否则一旦量子机器面世,今天被攻破的系统数据也可能被解密。量子安全是我们现在就必须解决的问题。”
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。