就在这家IT和网络巨头透露其开发出专为新网络范式设计的软件,并通过经典用例的网络应用演示展示其功能几周后,思科宣布与IBM建立合作伙伴关系,共同构建大规模容错量子计算机网络,为网络化分布式量子计算奠定基础,计划在2030年代初期实现。
两家公司认为,分布式量子网络可以为2030年代后期由量子计算机、传感器和通信定义的量子计算互联网奠定基础。
通过结合IBM在构建量子计算机方面的专业知识与思科的量子网络开发工作,两家公司计划探索如何扩展大规模容错量子计算机。此外,他们还计划致力于解决量子计算互联网面临的基本挑战。
在未来五年内,IBM和思科将致力于展示首个概念验证网络,该网络结合了独立的大规模容错量子计算机,使它们能够协同工作,在数万到数十万量子比特上运行计算。他们认为,这样的网络可以运行潜在万亿量子门的问题,这些量子门是实现变革性量子应用所需的基本纠缠操作,如大规模优化问题或复杂材料和药物的设计。
两家公司的目标是在2030年底前完成初始概念验证演示,计划将来自位于不同低温环境中的多台独立量子计算机的量子比特进行纠缠。公司表示,要实现这一目标,需要发明新的连接方式,包括微波光学转换器和支持的软件堆栈。
为了扩展到连接物理上分离但相距较近的两台量子计算机之外,IBM和思科还计划探索如何在更长距离上传输量子比特,比如在不同建筑物或数据中心之间。为了实现这一目标,两家公司将探索光子和微波光学转换器技术,并研究如何将它们整合到量子网络中,以便按需传输量子信息。
公司还表示,要连接多台量子计算机,需要适当的接口。IBM计划构建量子网络单元(QNU)作为量子处理单元(QPU)的接口,其明确任务是获取QPU中的静态量子信息,并通过QNU将其转换为"飞行"量子信息,然后通过网络进一步连接到潜在的多台量子计算机。
IBM和思科还打算探索开发量子硬件和软件,以物理方式连接多台大规模容错量子计算机,形成网络化分布式量子计算。
对于这一合作伙伴关系,IBM研究总监兼IBM院士杰·甘贝塔表示,其路线图包括在本十年结束前交付大规模容错量子计算机的计划。
甘贝塔说:"通过与思科合作探索如何将多台这样的量子计算机连接到分布式网络中,我们将追求如何进一步扩展量子计算能力。在构建计算的未来时,我们的愿景将推动量子计算机在更大的高性能计算架构中能力的前沿。"
思科Outshift部门总经理兼高级副总裁维乔伊·潘迪表示,让量子计算达到有用规模不仅仅是构建更大的独立机器,还要将它们连接起来。
潘迪说:"IBM正在构建具有积极扩展路线图的量子计算机,而我们提供的量子网络技术能够实现横向扩展。我们共同将此作为完整的系统问题来解决,包括连接量子计算机的硬件、跨计算机运行计算的软件,以及使其工作的网络智能。"
Q&A
Q1:IBM和思科的量子网络合作项目有什么具体目标?
A:他们计划在2030年底前展示首个概念验证网络,将多台大规模容错量子计算机连接起来,使它们能够协同工作处理数万到数十万量子比特的计算,为2030年代初期实现网络化分布式量子计算奠定基础。
Q2:量子网络单元是什么?它有什么作用?
A:量子网络单元(QNU)是IBM计划构建的量子处理单元(QPU)接口,其核心任务是获取QPU中的静态量子信息,并将其转换为"飞行"量子信息,通过网络连接到多台量子计算机。
Q3:分布式量子网络能解决什么样的问题?
A:这种网络可以运行潜在万亿量子门的问题,适用于变革性量子应用,如大规模优化问题、复杂材料设计和药物研发。最终目标是在2030年代后期实现由量子计算机、传感器和通信构成的量子计算互联网。
好文章,需要你的鼓励
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。