从当前的发展态势来看,量子计算很可能成为中期内最具颠覆性的技术之一。
原因在于:通过利用量子纠缠和叠加等奇特现象,在亚原子层面上利用物质的特性,可以大大加快某些类型的计算速度。
这些计算包括:
- 在海量数据集中识别模式 - 解决涉及多个变量的复杂优化问题 - 用于编码和解码信息的密码加密
人工智能、药物和材料研发、网络安全等关键现实问题的解决都依赖于这些计算。因此,量子计算的影响力可能会非常巨大。
不过,也有人认为真正实用的量子计算还需要很长时间。Nvidia CEO Jensen Huang 最近的观点导致量子计算供应商的股价出现小幅下跌。他认为"真正实用的量子计算机"可能还需要 30 年时间。
另一方面,证据表明量子计算的可访问性正在提高。大多数大型云服务提供商 (如 Google、Amazon、Microsoft) 都提供量子计算即服务,同时还有包括 D-Wave 和 IonQ 在内的众多初创企业和颠覆者不断涌现。
那么,今天可用的量子计算与未来真正实用的量子计算之间有什么区别呢?
当今的量子计算机 - NISQ 时代
尽管是了不起的工程壮举,但当今的量子计算机仍存在诸多限制。因此,当前的量子计算时代被称为嘈杂中等规模量子 (NISQ) 时代。虽然不断有改进和突破,但目前可用的系统存在容错率低、量子比特退相干导致的高错误率以及对干扰极度敏感等问题。
大多数系统仍依赖经典计算架构来处理许多任务,这造成了速度瓶颈。
虽然当今最强大的量子计算机拥有约 1,000 个量子比特,但有预测认为解决高级问题可能需要数十万甚至数百万量子比特的规模。
增加新的量子比特并不像听起来那么容易。实际上,这是一个极其复杂的工程问题,因为量子比特必须与外界隔离以防止退相干,而且必须冷却到接近绝对零度的百万分之一度。
简而言之,今天的技术主要是实验性的、概念验证性的或原型性的。虽然它们在不断改进,但还不是工业应用所需的可扩展、稳健系统。
迈向量子优越性
尽管仍面临重大挑战,但近年来已取得了一些重大进展。
Google 最近宣布,通过将多个量子比特组合成逻辑量子比特,他们开发出了提高量子计算容错率的革命性方法。
光子量子比特和离子阱量子比特等新型量子比特在提高稳定性方面也显示出了前景。
在室温量子比特的开发方面也取得了突破,这可能会消除超低温制冷的成本。
在建设量子计算真正可用时所需的基础设施方面也在持续推进。
这包括创建像 Microsoft Q#、IBM Qiskit 或开源 PennyLane 这样的量子编程语言以及操作系统。
Microsoft 最近宣布在 Majorana 1(世界首个拓扑量子比特处理器)方面取得突破。该处理器使用全新的物质状态来大幅提高量子比特的稳定性和可扩展性——有望在单个芯片上集成超过 100 万个量子比特,这是向实用量子计算迈出的重要一步。
在培养能够充分利用量子计算的人才方面也仍然存在挑战。这将需要在教育、技能和培训方面进行大量投入。
所以我们正在朝着量子优越性(量子计算机能够解决经典计算机无法解决的问题)的方向前进。
虽然"真正的"量子计算可能不会立即出现,但我认为用不了多久我们就能看到它在我们的生活中产生影响。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。