谷歌公司日前发表一篇科学论文,表示已经成功在实验室环境中利用53量子比特超导芯片首次证明所谓“量子霸权”理论。
量子霸权是指对量子计算机执行复杂计算能力的实际证明,要求其解决经典计算机所无法解决的计算任务。谷歌方面此次宣布,其Sycamore芯片已经成功达成这项目标。
此次验证的核心,在于利用处理器中的量子比特查找随机数生成模式。Sycamore在约3分20秒之内即给出一组准确的结果。根据谷歌公司的介绍,即使是全球最强的超级计算机(由美国能源部使用的200千万亿次Summit系统),完成这项任务也需要1万年时间。
上个月,这篇论文的副本曾意外流出,而学术界对此做出的评价亦褒贬不一。《纽约时报》采访到的研究人员将谷歌的这一里程碑比作莱特兄弟于1903年首次完成飞机试飞。但着力开发自有量子芯片的IBM公司科学家则对这项突破提出质疑。
IBM专家们在博文当中指出,实际上,Sycamore所做的计算任务完全能够在经典计算机上求解。他们引用了IBM的一项分析结果,表明只要具备充足的存储硬件,Summit在理论上完全能够在合理时间内完成这项计算任务。他们指出,“我们认为,经典系统能够在2.5天之内完成同一任务的理想模拟,且保真度更高。”
事实上,量子计算领域的其他参与者对这条消息也抱持谨慎的乐观态度。红杉资本资助的量子软件初创企业Q-CTRL Pty公司CEO Michael Biercuk表示,“如果能够通过后续严格审查,这一学术成就将具有里程碑式的意义。”而英特尔实验室负责人Rich Uglig则强调,量子计算机远未达到商业可行的水平,但仍对这一消息表示祝贺。
此外,Constellation Research公司分析师Holger Mueller表示此次成果只是万里长征的第一步。
他指出,“这第一步当然是辛勤工作与大量投资的结果,但对量子计算的实际应用并没有多大影响。每项技术都拥有自己的第一步;对于现在的量子计算,最重要的在于降低复杂性、降低总体拥有成本,以及实现下一代量子应用与传统应用间的共存。”
打造一款超越超级计算机的量子芯片绝非易事。位于美国加州圣芭芭拉谷歌实验室(Sycamore即诞生于此)的研究人员开发出一种基于超导金属的新架构,同时采用可靠性更高的量子比特设计以避免计算错误。
谷歌公司量子计算负责人John Martinis与Sergio Boixo解释称,“我们利用一种新型控制旋钮达成了此次目标。该旋钮能够关闭相邻量子比特间的交互,从而极大减少这类多连接量子比特系统中出现的错误。我们还对芯片设计做出优化以减少串扰问题,同时开发出新的量子比特控制校准技术以进一步提高性能水平。”
谷歌公司在商用量子计算机的研发方面已经投入十余年光阴。其早在2006年就加入这场竞争,最早由研究人员Hartmut Neven发起项目,旨在探索如何将量子计算与机器学习结合起来。谷歌现在拥有专门的量子计算工程小组,并与多所高校就相关技术开展积极合作。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。