总部位于特拉维夫的量子计算初创公司Q-Factor今日宣布完成2400万美元种子轮融资,正式进入公众视野。
该公司的使命是开发基于中性原子的量子计算机,目标是将其扩展到100万个量子比特甚至更多。本轮超额认购的融资由NFX和TPY Capital领投,英特尔资本、韩国投资伙伴、Deep33和Matias家族参与投资。以色列创新局通过赠款形式提供资金支持,以色列理工学院和魏茨曼科学研究所也参与其中。
Q-Factor专注解决量子比特扩展问题,量子比特是量子计算机的基本计算单元。多年来,量子计算机一直被认为即将实现突破,有望在药物发现、天气预报和金融建模等领域带来革命性变化,但该行业的进展几乎停滞不前。目前运行中最强大的量子计算机仅拥有几百到几千个量子比特,而要真正发挥作用,需要扩展到数百万个量子比特。
为了突破这一扩展"瓶颈",Q-Factor押注于一种名为中性原子的方法,即通过激光束(通常称为"光镊")捕获和操控单个原子。这与IBM和谷歌等量子计算先驱采用的方法截然不同,后者依赖超导量子比特,必须保持在接近绝对零度的温度下,需要极其昂贵的超低温基础设施。这也不同于IonQ公司使用的"离子阱"技术,该技术面临着极其复杂的布线瓶颈问题。
相比之下,中性原子天然惰性,这意味着它们极其稳定,能够长时间保持其"状态"。Q-Factor并非唯一研究中性原子的公司,但即使这些系统也难以扩展到超过几百个量子比特。
现有的中性原子系统受到架构瓶颈的限制,几乎无法管理大规模计算所需的原子和激光数量。但Q-Factor的创始人相信他们找到了克服这些问题的方法。通过借鉴几十年来对里德伯物理学和超冷原子的研究,他们设计了一个据称能够轻松扩展的系统。
突破量子瓶颈
联合创始人兼首席执行官Guy Raz表示,扩展基于中性原子的系统具有挑战性,因为随着处理器规模的增长,很难保持对单个量子比特的精确控制。在更大规模下,保持一切稳定所需的光学、校准、读出和资源变得极其苛刻,而完成这一切的架构根本不存在。
Raz表示,他目前还不能透露公司方法的具体细节,但该方法专注于在架构层面扩展中性原子。"我们不是逐步扩展当今的小规模设计并依赖量子互连,而是从第一天起就构建适用于更大系统的中性原子架构。我们相信这是从实验室演示转向真正大规模和有用的量子机器所必需的。"
维持量子稳定性的关键挑战之一是噪声和"串扰",即单个量子比特相互干扰的风险,Q-Factor从一开始就特别关注这些问题。"高效的量子纠错是该设计的组成部分。我们还不能分享详细的实现方式,但核心是我们在架构层面解决扩展问题,使系统能够在不失去控制、保真度或实用性的情况下增长。"
追求量子优势
Q-Factor的下一步是在实验室研究基础上,创建其新型量子计算架构的功能性大规模原型。英特尔资本的支持可能意义重大,因为该公司在制造和扩展实验性硬件方面拥有专业知识。
问题在于Q-Factor是否能最终实现所谓的"量子优势",即量子机器达到能够超越经典计算机能力的规模。IBM、谷歌、IonQ等公司多年来一直努力实现这一目标,但迄今未能成功。
Q-Factor可能也会面临同样的挑战,但它有一些有利因素。首先,中性原子被认为是实现更高量子比特数最有前景的方法之一,因为它们比其他系统复杂性更低。
此外,其创始人被认为是原子物理学领域的世界顶级专家。例如,Raz是一位拥有20年深度技术初创公司成长经验的物理学家。首席科学家Ofer Firstenberg是魏茨曼研究所教授,量子光学和里德伯原子专家,而Nir Davidson被认为是超冷原子领域的世界领先专家之一,已发表280多篇同行评议论文。最后,以色列理工学院教授Yoav Sagi是中性原子操控专家。
英特尔资本的Lisa Cohen表示,Q-Factor的创始团队对构建基于中性原子的商业可行量子计算机所需条件有"清醒的理解"。"他们观察了该领域的发展,从其他公司遇到的挑战中学习,并汇集了合适的专业知识来解决量子计算中最困难的剩余问题:规模化。"
Q&A
Q1:什么是中性原子量子计算技术?
A:中性原子量子计算是一种通过激光束(称为"光镊")捕获和操控单个原子的技术。与需要超低温环境的超导量子比特不同,中性原子天然惰性且极其稳定,能够长时间保持量子状态,被认为是实现大规模量子计算最有前景的方法之一。
Q2:Q-Factor如何解决量子计算的扩展难题?
A:Q-Factor采用全新的架构层面解决方案,不是简单扩展现有小规模设计,而是从一开始就构建适用于大规模系统的中性原子架构。他们特别关注噪声和量子比特间串扰问题,将高效量子纠错作为设计的核心组成部分。
Q3:量子优势是什么意思?目前实现了吗?
A:量子优势指量子计算机达到能够超越经典计算机能力的关键点。目前IBM、谷歌、IonQ等公司都在努力实现这一目标,但尚未成功。现有最强大的量子计算机只有几百到几千个量子比特,而实现真正有用的量子计算需要数百万个量子比特。
好文章,需要你的鼓励
亚马逊宣布向Anthropic追加50亿美元投资,分析师指出此举更多是为解决AI算力瓶颈。根据协议,Anthropic将锁定AWS最高5吉瓦的Trainium芯片算力,包括新一代Trainium 3和Trainium 4。此前Anthropic因容量不足被迫限流,此次扩容将提升用户并发支持能力。协议还涵盖亚欧地区推理算力扩展。分析师指出,此类交易已超越传统风险投资范畴,本质是"供应链融资"——将股权投资与云计算承诺捆绑,以锁定客户并确保资本回报。
这篇由清华大学、香港大学、美团LongCat团队等机构联合发布于2026年4月的综述(arXiv:2604.10098),是关于Transformer"注意力沉积"(Attention Sink)问题的首篇全面系统性研究。注意力沉积是指AI模型将大量注意力集中到语义无关的词上的普遍现象。综述梳理超过180篇研究,围绕"如何利用、如何解释、如何消除"三个维度构建了完整知识体系,涵盖大语言模型、视觉Transformer、多模态模型等多种架构,为AI推理效率、幻觉治理和低精度部署提供了系统性指导。
前微软工程师Dave Plummer是任务管理器的原始开发者,他近日解释了CPU使用率显示背后的原理。任务管理器并非实时读取CPU数值,而是通过定时器采样,计算两次采样间的CPU累计执行时间差来估算使用率。这一方法在早期静态时钟频率的CPU上表现良好,但在现代CPU动态调频、核心休眠等机制普及后,显示结果更接近"占用率"而非真实"生产力",导致数字有时显得不够精准。
这项由加州大学圣地亚哥分校等多家机构联合发布于2026年4月的研究(arXiv:2604.11201),推出了名为COCOABENCH的AI综合能力测试平台,包含153道需要同时运用视觉理解、网络搜索和编程三种能力的真实任务,并配套轻量级测试框架COCOA-AGENT。测试发现,当前最强AI系统成功率仅为45.1%,主要失败原因集中在推理规划、工具执行和视觉感知三大方面,揭示了现有AI距离"真正全能数字助手"仍有显著差距。