IBM Quantum System 2美术概念图
IBM刚刚结束一年一度的量子峰会。这一年来,蓝色巨人已经先后完成量子发展路线图中的多个里程碑,并设定了未来12个月内的新挑战。在峰值期间,IBM向业界介绍了自己如何推动量子计算在未来的计算世界中占据重要位置,也给下一步前进路线设定了目标。峰会的主题为“下一波浪潮”(The Next Wave),定名的理由是IBM认为量子技术即将迎来发展拐点。今年的峰会在纽约曼哈顿市中心举行,包括波音、博世、沃达丰在内的多家IBM业务合作伙伴出席。此外,来自学术界和政府机构的研究人员也纷纷到场观礼。
要想让量子计算作为独立行业得到广泛认同、逐步发展成熟,其关键在于建立起健康的生态系统和充实的合作伙伴关系。IBM量子网络目前拥有200多家成员,公司还在亚利桑那州立大学、德国电子加速器(DESY)、IIT Madras以及瑞士新开设的uptownBasel创新中心分别建设了量子研发部门。IBM的最新行业合作伙伴包括博世、法国CMAF保险金融集团(Crédit Mutuel Alliance Fédérale)、Erste Digital、Tokyo Electron、HSBC及沃达丰等。IBM为量子计划设置了多种产品,包括开放计划、现收现付计划以及高级计划等。此外,蓝色巨人还公布了量子加速器计划,能够为身处不同筹备阶段的企业随时提供量子支持资源。

IBM量子网络行业客户及应用领域
跨国电信企业沃达丰是IBM量子网络的最新合作伙伴之一。作为3GPP联盟的主要合作方,该公司正在积极探索量子计算与量子安全密码学等方向。另一家合作伙伴则是法国CMAF金融保险集团,他们正在探索量子计算的金融服务用例。此外,uptownBasel带来的则是技能培训及量子/高性能计算技术促进等方面的领先项目。
IBM在峰会上一口气发布了12项重大公告,这里我们选取要点进行回顾。首先是重要的硬件发布——Osprey,IBM打造的最新433量子比特量子处理单元(QPU),同时也是世界上最大的超导量子处理器。

IBM Osprey量子处理器
总体而言,IBM正持续改进量子计算机的规模(更多量子比特)、质量(增加相干时间和错误率中的量子体积因子)及速度(每秒电路层操作,简称CLOP)。随着433量子比特Osprey QPU的推出,量子比特数量提升至2倍、量子体积提高至4倍(从128到512),CLOPS更是暴涨10倍、从1.4k提高到15k(成功超越IBM之前提出的10k CLOPS目标),且仍然沿用之前的Falcon芯片。
IBM还发布了对量子动态电路的完全访问设计,这些电路在持续时间之内结合了经典计算以执行更丰富的电路操作。动态电路最重要的优势,就是大大减少了某些量子电路的长度,从而切实提升了量子电路设计的实用性。
为了解决多量子系统的规模扩展难题,IBM还需要找到新的低温恒温器方案。蓝色巨人此前曾公布IBM Quantum System 2设计,但随着逐步推进实施,这一艺术构想也发生了变化,于是本届峰会带来了最新成果。借助IBM Quantum System 2,多个低温恒温器可以彼此相邻放置,进而形成具有通信链路的单一系统。IBM计划在2023年底之前推动System 2上线,并计划在下一代系统中构建“The Next Wave”量子计算,立足多云环境将量子中间件同量子/经典工作流集成起来。
随着量子计算技术的发展,我们也必须考虑由此引发的安全威胁。由于算力可观,量子计算也许将逐步具备利用Shor算法破解公钥加密协议的程度。标准组织美国国家标准与技术研究院(NIST)专门为此公布了下一代加密标准,希望提前解决这一潜在威胁。IBM也提醒与会观众,其已经在最新IBM Z16大型计算机中部署了对下一代加密标准的支持。
IBM研究员兼量子业务副总裁Jay Gambetta以“100 x 100”挑战作为公告的收尾。他在博文中提到,“2024年,我们计划发布一款工具,能够在合理的运行时间内计算出具有100量子比特和100个门操作深度的电路的无偏可预测值。感谢Heron,我们对这款工具的如期交付充满信心:如果我们能够构建起错误率低于「99.9%」门保真度阈值的Heron处理器及软件基础设施,并搭配经典计算资源稳定读出电路,那么我们就能够在一天周期以内运行100 x 100电路并产生无偏差结果。该系统所能运行的量子电路复杂度和时间周期,都将超出目前最佳的经典计算机。”也就是说,只要达成这一阈值,IBM即可证明量子计算机在解决特定问题时优于经典计算机,成功实现“量子霸权”。而且有了100量子比特、极低错误率的QPU之后,深度更大的量子电路也将成为可能,进而执行更加复杂的运算操作。

IBM研究员兼量子业务副总裁Jay Gambetta在2022年IBM量子峰会上
虽然量子计算机的概念已经存续了几十年,但直到最近我们才真正拥有能够一窥其可行性的量子比特资源。相关工具变得越来越复杂、但也越来越易用,可大部分成果仍然属于科学研究项目,量子电路真正适合解决哪些问题也在探索当中。此外,量子计算的先驱们使用的那些术语和技术概念仍不为主流程序员们所理解。总体来看,目前的量子计算大致处于十年前神经网络和深度学习尚未全面起飞的阶段。但随着量子计算能力的增强,我们可能会看到类似的拐点。二者真正的区别在于,AI负载的运行范围更大,从微控制器到超级计算机均有覆盖。但超导量子计算只能在数据中心环境的专用设备上实现。虽然其他类型的量子计算设备也能在特定场景下有所应用,但为了在速度和算力方面建立优势,IBM还是决定将赌注押在超导量子比特身上。
IBM一直致力于量子计算研究,正如公司研究主管Dario Gil在峰会开幕式上告诉观众的那样,整个计算世界的演进过程分为三个阶段:比特(经典计算)、神经元(AI计算)和量子比特(量子计算)。AI和量子仍然需要经典计算的控制与加持,因此在短时间内还不可能取代我们熟知的算力技术。但另一方面,二者也都能提供经典计算难以实现、甚至完全无法达成的特定功能。目前AI已经在主流市场上站稳了脚跟,但量子计算仍是一项新兴技术。观察之下,我们可以在AI和量子计算之间发现某些共通之处。例如,二者提供的都是概率(随机)结果——AI提供的是正确答案的对应概率,而量子提供的则是概率分布。AI赢得主流认可的过程绝非一蹴而就,凭借韧性和坚持成长为如此公认的强大工具,相关应用也如雨后春笋般涌现。量子计算的接受度和认可度尚在培养当中,还没有找到最适合自己的利基市场。如今,量子计算在现实问题中的应用还非常有限,但人们看好其解决某些最困难问题的潜力。毕竟相较于经典计算时代的近似计算和AI计算时代的结果猜测,只有量子计算能够带来实实在在的概率分布。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。