谷歌公司日前发表一篇科学论文,表示已经成功在实验室环境中利用53量子比特超导芯片首次证明所谓“量子霸权”理论。
量子霸权是指对量子计算机执行复杂计算能力的实际证明,要求其解决经典计算机所无法解决的计算任务。谷歌方面此次宣布,其Sycamore芯片已经成功达成这项目标。
此次验证的核心,在于利用处理器中的量子比特查找随机数生成模式。Sycamore在约3分20秒之内即给出一组准确的结果。根据谷歌公司的介绍,即使是全球最强的超级计算机(由美国能源部使用的200千万亿次Summit系统),完成这项任务也需要1万年时间。
上个月,这篇论文的副本曾意外流出,而学术界对此做出的评价亦褒贬不一。《纽约时报》采访到的研究人员将谷歌的这一里程碑比作莱特兄弟于1903年首次完成飞机试飞。但着力开发自有量子芯片的IBM公司科学家则对这项突破提出质疑。
IBM专家们在博文当中指出,实际上,Sycamore所做的计算任务完全能够在经典计算机上求解。他们引用了IBM的一项分析结果,表明只要具备充足的存储硬件,Summit在理论上完全能够在合理时间内完成这项计算任务。他们指出,“我们认为,经典系统能够在2.5天之内完成同一任务的理想模拟,且保真度更高。”
事实上,量子计算领域的其他参与者对这条消息也抱持谨慎的乐观态度。红杉资本资助的量子软件初创企业Q-CTRL Pty公司CEO Michael Biercuk表示,“如果能够通过后续严格审查,这一学术成就将具有里程碑式的意义。”而英特尔实验室负责人Rich Uglig则强调,量子计算机远未达到商业可行的水平,但仍对这一消息表示祝贺。
此外,Constellation Research公司分析师Holger Mueller表示此次成果只是万里长征的第一步。
他指出,“这第一步当然是辛勤工作与大量投资的结果,但对量子计算的实际应用并没有多大影响。每项技术都拥有自己的第一步;对于现在的量子计算,最重要的在于降低复杂性、降低总体拥有成本,以及实现下一代量子应用与传统应用间的共存。”
打造一款超越超级计算机的量子芯片绝非易事。位于美国加州圣芭芭拉谷歌实验室(Sycamore即诞生于此)的研究人员开发出一种基于超导金属的新架构,同时采用可靠性更高的量子比特设计以避免计算错误。
谷歌公司量子计算负责人John Martinis与Sergio Boixo解释称,“我们利用一种新型控制旋钮达成了此次目标。该旋钮能够关闭相邻量子比特间的交互,从而极大减少这类多连接量子比特系统中出现的错误。我们还对芯片设计做出优化以减少串扰问题,同时开发出新的量子比特控制校准技术以进一步提高性能水平。”
谷歌公司在商用量子计算机的研发方面已经投入十余年光阴。其早在2006年就加入这场竞争,最早由研究人员Hartmut Neven发起项目,旨在探索如何将量子计算与机器学习结合起来。谷歌现在拥有专门的量子计算工程小组,并与多所高校就相关技术开展积极合作。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。