IBM公司在今日举行的年度量子开发者大会上发布了两款新型量子处理器,旨在于明年提供可扩展的量子计算能力,并在2029年实现容错量子计算。
量子Nighthawk处理器突破性能极限
公司发布的量子Nighthawk是一款120量子比特处理器,配备218个新一代可调耦合器,在前代Heron处理器基础上增加了20%的耦合器数量。据公司介绍,量子比特间连接性的增强使用户能够执行复杂度提升30%的电路,同时保持较低的错误率。
量子比特是量子计算机中逻辑信息的基本单元,类似于经典计算机的比特。与只能表示0或1的经典比特不同,量子比特可以同时处于0、1或两者的"叠加态"。利用这一特性,IBM的Nighthawk等量子处理器能够执行复杂的并行计算。
可调耦合器进一步扩展了这种能力,允许量子比特对相互作用,从而实现量子纠缠。量子纠缠的价值在于单次计算操作可以同时影响多个量子比特的量子态,使量子计算机能够同时探索多种潜在解决方案。
IBM表示,Nighthawk的架构将使程序员能够探索需要多达5000个双量子比特门的复杂问题。公司预期该处理器的未来版本将在2026年底提供7500个门,2028年达到15000个门。
通过这款新芯片,IBM正致力于实现"量子优势"的路径,即量子计算机证明其能够执行传统强大计算机无法完成或不实用的特定计算。目标是证明量子计算机能够超越在小众问题上的理论优势,开始比任何传统计算机更快地解决有用的现实世界问题。
IBM的目标是在2026年底前确认首批经过更广泛社区验证的量子优势案例。为支持这一目标,IBM创建了一个公共追踪器,用于监测和验证量子计算机在经典难题上的新兴演示。IBM、Algorithmiq公司、BlueQubit公司和Flatiron研究所正在为该追踪器做出贡献。
Algorithmiq首席执行官兼联合创始人Sabrina Maniscalco表示:"我们设计的模型探索的复杂性程度对目前测试的所有最先进经典方法都构成挑战。这只是第一步——量子优势的验证需要时间,追踪器将让每个人都能跟踪这一进程。"
实现容错量子计算的突破
公司还发布了量子Loon,这是一款实验性处理器,展示了实现极低错误率和高效错误恢复所需的全部组件。
尽管量子计算机功能强大,能够高速解决复杂问题,但量子比特本身极其脆弱,会受到环境中最微小波动的干扰。
IBM表示,Loon验证了一种新架构,能够实现实用的高效量子错误纠正。这一功能使量子计算机能够高速运行,同时处理由磁场、热量或其他随机波动引起的不可避免的错误。
一项突破性功能是整合了多个高质量低损耗路由层,允许超越最近邻的量子纠缠,并在同一芯片上物理连接距离较远的量子比特。公司还展示了在计算间重置量子比特的技术。
结合IBM设计的用于实时准确解码错误的经典计算机硬件(耗时少于480纳秒),Loon为高速扩展量子容错性提供了必要基础。
为支持即将推出的量子计算机规模,IBM宣布将在纽约奥尔巴尼纳米技术综合体的先进300毫米芯片制造设施进行晶圆的主要制造。
Loon和Nighthawk代表了IBM在2029年前交付大规模容错量子计算机平台路线图上的重要里程碑。
Q&A
Q1:量子Nighthawk处理器有什么特殊能力?
A:量子Nighthawk是IBM发布的120量子比特处理器,配备218个新一代可调耦合器,比前代增加20%的耦合器数量。它能让用户执行复杂度提升30%的电路,同时保持低错误率,使程序员能够探索需要多达5000个双量子比特门的复杂问题。
Q2:什么是量子优势,IBM何时能实现?
A:量子优势是指量子计算机能够执行传统强大计算机无法完成或不实用的特定计算,超越理论优势开始解决现实问题。IBM目标是在2026年底前确认首批经过验证的量子优势案例,并创建了公共追踪器来监测进展。
Q3:量子Loon处理器解决了什么关键问题?
A:量子Loon是实验性处理器,专门解决量子比特极其脆弱、易受环境干扰的问题。它验证了新架构,能实现实用的高效量子错误纠正,整合多个高质量低损耗路由层,结合实时错误解码硬件,为高速扩展量子容错性提供基础。
好文章,需要你的鼓励
香港大学联合Adobe研究院提出PS-VAE技术,成功解决了AI无法同时具备图像理解和生成能力的难题。通过创新的两阶段训练策略,让AI既能准确理解图片语义,又能生成高质量图像,在图像编辑任务上性能提升近4倍,为统一视觉AI系统开辟新路径,在数字创作、教育、电商等领域具有广阔应用前景。
Instagram负责人莫塞里在接受采访时透露,平台正考虑引入长视频内容功能,尽管此前一直专注于短视频。他承认为了吸引优质内容,Instagram可能需要支持长视频格式。此外,Meta最近推出了"您的算法"功能,旨在让用户更好地控制信息流内容。莫塞里承诺未来将提供更多工具,让用户主动塑造个性化内容,但完整实现可能需要2-4年时间。
华中科技大学与马里兰大学研究团队开发出Sage评估框架,首次无需人工标注即可评估AI评判员可靠性。研究发现即使最先进的AI模型在评判任务中也存在严重不一致问题,近四分之一困难情况下无法保持稳定偏好。团队提出明确评判标准和专门微调等改进方法,为构建更可靠AI评估体系提供重要工具。