谷歌公司日前发表一篇科学论文,表示已经成功在实验室环境中利用53量子比特超导芯片首次证明所谓“量子霸权”理论。
量子霸权是指对量子计算机执行复杂计算能力的实际证明,要求其解决经典计算机所无法解决的计算任务。谷歌方面此次宣布,其Sycamore芯片已经成功达成这项目标。
此次验证的核心,在于利用处理器中的量子比特查找随机数生成模式。Sycamore在约3分20秒之内即给出一组准确的结果。根据谷歌公司的介绍,即使是全球最强的超级计算机(由美国能源部使用的200千万亿次Summit系统),完成这项任务也需要1万年时间。
上个月,这篇论文的副本曾意外流出,而学术界对此做出的评价亦褒贬不一。《纽约时报》采访到的研究人员将谷歌的这一里程碑比作莱特兄弟于1903年首次完成飞机试飞。但着力开发自有量子芯片的IBM公司科学家则对这项突破提出质疑。
IBM专家们在博文当中指出,实际上,Sycamore所做的计算任务完全能够在经典计算机上求解。他们引用了IBM的一项分析结果,表明只要具备充足的存储硬件,Summit在理论上完全能够在合理时间内完成这项计算任务。他们指出,“我们认为,经典系统能够在2.5天之内完成同一任务的理想模拟,且保真度更高。”
事实上,量子计算领域的其他参与者对这条消息也抱持谨慎的乐观态度。红杉资本资助的量子软件初创企业Q-CTRL Pty公司CEO Michael Biercuk表示,“如果能够通过后续严格审查,这一学术成就将具有里程碑式的意义。”而英特尔实验室负责人Rich Uglig则强调,量子计算机远未达到商业可行的水平,但仍对这一消息表示祝贺。
此外,Constellation Research公司分析师Holger Mueller表示此次成果只是万里长征的第一步。
他指出,“这第一步当然是辛勤工作与大量投资的结果,但对量子计算的实际应用并没有多大影响。每项技术都拥有自己的第一步;对于现在的量子计算,最重要的在于降低复杂性、降低总体拥有成本,以及实现下一代量子应用与传统应用间的共存。”
打造一款超越超级计算机的量子芯片绝非易事。位于美国加州圣芭芭拉谷歌实验室(Sycamore即诞生于此)的研究人员开发出一种基于超导金属的新架构,同时采用可靠性更高的量子比特设计以避免计算错误。
谷歌公司量子计算负责人John Martinis与Sergio Boixo解释称,“我们利用一种新型控制旋钮达成了此次目标。该旋钮能够关闭相邻量子比特间的交互,从而极大减少这类多连接量子比特系统中出现的错误。我们还对芯片设计做出优化以减少串扰问题,同时开发出新的量子比特控制校准技术以进一步提高性能水平。”
谷歌公司在商用量子计算机的研发方面已经投入十余年光阴。其早在2006年就加入这场竞争,最早由研究人员Hartmut Neven发起项目,旨在探索如何将量子计算与机器学习结合起来。谷歌现在拥有专门的量子计算工程小组,并与多所高校就相关技术开展积极合作。
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。