如果能利用现有芯片制造工艺生产硅量子芯片,必将大大缩短实用型量子计算系统的落地周期
英特尔与QuTech发布联合声明,表示已经在负责量产英特尔处理器芯片的制造设施中生产出首块可以实现量子逻辑门的硅量子芯片。
双方表示,此举或将为未来千级、乃至万级量子比特实用系统的实现打开大门。
根据英特尔的介绍,其工程师与来自QuTech的科学家们开展合作,共同在位于俄勒冈州希尔斯伯勒的英特尔D1晶圆厂中成功制造出第一块大规模硅量子比特芯片,而且使用的300毫米晶圆与英特尔量产芯片晶圆高度相似。
QuTech是一家由代尔夫特理工大学(TU Delft)与荷兰应用科学研究组织(TNO)合作建立的企业,专注于量子计算研究。
英特尔指出,此次双方已经成功在单一晶圆上制造出超过10000个阵列及多个硅自旋量子比特,良品率超过95%,而且量子比特数及良品率均高于现有量子比特制造工艺。
目前量子计算仍处于早期发展阶段,而研究人员所测试的各类架构往往需要大量量子比特以保障系统可靠性。除此之外,门保真度(即衡量单一量子比特无误差度的指标)也很重要。
可以看到,大规模制造量子比特的能力将成为推进量子计算突破的重要一步。如果英特尔等芯片制造商多年来开发并调优出的传统硅芯片制造工艺也能服务于量子芯片,那么千级甚至万级量子比特实用系统也将不再遥远。此次英特尔与QuTech发布的联合声明,正是朝着这个目标发起的首轮冲击。
英特尔量子硬件总监James Clarke表示,“我们的研究证明,全尺寸量子计算机不仅可以实现、而且完全能够在现有芯片工厂中进行生产。我们期待与QuTech继续保持合作,利用我们在硅芯片制造领域的专业知识释放出量子计算硬件的全部潜力。”
这项研发已经发表在《自然电子学》杂志上。文章摘要部分指出,将工业半导体制造工艺用于量子门生产,代表着硅量子点式量子计算技术的重要进步。在此之前,这类制造工艺高度依赖于电子束光刻,因此产量低且均匀性差。
根据QuTech的解释,当前的量子比特芯片往往需要在无尘室中制造,使用的工具已经针对灵活的设计变更及短迭代周期做出了优化,但在可靠性上仍有所不足。工业半导体制造工艺则拥有更出色的可靠性表现,有望补全量子比特芯片的这一制造短板。
QuTech博士研究员、论文一作Anne-Marije Zwerver表示,“工业 制造技术与之前大家使用的量子点样本制造技术完全不同。”
其中的一大关键差异,在于工业半导体制造会遵循可靠且严格的图案化设计规则,但这些规则能否适配量子比特元件的布局一直没有答案。研究人员也一直不清楚量子比特的相干性能否经受得住化学机械抛光等工业硅芯片制造工艺中的常规操作。
虽然英特尔与QuTech均将这一发现视为重大突破,但其中似乎仍有不少等待解答的问题。至少在短时间内,我们还不太可能看到英特尔生产线批量产出硅量子比特芯片。
报告还提到,虽然现有方案还存在着设计缺陷、量子比特性能可扩展性较差等现实挑战,但英特尔与QuTech建立的这套全流程300毫米晶圆集成生产线已经开辟出一条大量实验、不断加快开发速度的光明道路。
报告总结道,“此次证实的硅自旋量子比特与工业半导体生产设施的兼容性,让我们看到了未来扩展并建立高容错、全栈量子计算机方面的无限可能。”
英特尔上周还透露,他们将向美国能源部阿贡国家实验室(ANL)提供量子计算测试台设备,由此迈出实践落地的重要一步。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。