如果能利用现有芯片制造工艺生产硅量子芯片,必将大大缩短实用型量子计算系统的落地周期
英特尔与QuTech发布联合声明,表示已经在负责量产英特尔处理器芯片的制造设施中生产出首块可以实现量子逻辑门的硅量子芯片。
双方表示,此举或将为未来千级、乃至万级量子比特实用系统的实现打开大门。
根据英特尔的介绍,其工程师与来自QuTech的科学家们开展合作,共同在位于俄勒冈州希尔斯伯勒的英特尔D1晶圆厂中成功制造出第一块大规模硅量子比特芯片,而且使用的300毫米晶圆与英特尔量产芯片晶圆高度相似。
QuTech是一家由代尔夫特理工大学(TU Delft)与荷兰应用科学研究组织(TNO)合作建立的企业,专注于量子计算研究。
英特尔指出,此次双方已经成功在单一晶圆上制造出超过10000个阵列及多个硅自旋量子比特,良品率超过95%,而且量子比特数及良品率均高于现有量子比特制造工艺。
目前量子计算仍处于早期发展阶段,而研究人员所测试的各类架构往往需要大量量子比特以保障系统可靠性。除此之外,门保真度(即衡量单一量子比特无误差度的指标)也很重要。
可以看到,大规模制造量子比特的能力将成为推进量子计算突破的重要一步。如果英特尔等芯片制造商多年来开发并调优出的传统硅芯片制造工艺也能服务于量子芯片,那么千级甚至万级量子比特实用系统也将不再遥远。此次英特尔与QuTech发布的联合声明,正是朝着这个目标发起的首轮冲击。
英特尔量子硬件总监James Clarke表示,“我们的研究证明,全尺寸量子计算机不仅可以实现、而且完全能够在现有芯片工厂中进行生产。我们期待与QuTech继续保持合作,利用我们在硅芯片制造领域的专业知识释放出量子计算硬件的全部潜力。”
这项研发已经发表在《自然电子学》杂志上。文章摘要部分指出,将工业半导体制造工艺用于量子门生产,代表着硅量子点式量子计算技术的重要进步。在此之前,这类制造工艺高度依赖于电子束光刻,因此产量低且均匀性差。
根据QuTech的解释,当前的量子比特芯片往往需要在无尘室中制造,使用的工具已经针对灵活的设计变更及短迭代周期做出了优化,但在可靠性上仍有所不足。工业半导体制造工艺则拥有更出色的可靠性表现,有望补全量子比特芯片的这一制造短板。
QuTech博士研究员、论文一作Anne-Marije Zwerver表示,“工业 制造技术与之前大家使用的量子点样本制造技术完全不同。”
其中的一大关键差异,在于工业半导体制造会遵循可靠且严格的图案化设计规则,但这些规则能否适配量子比特元件的布局一直没有答案。研究人员也一直不清楚量子比特的相干性能否经受得住化学机械抛光等工业硅芯片制造工艺中的常规操作。
虽然英特尔与QuTech均将这一发现视为重大突破,但其中似乎仍有不少等待解答的问题。至少在短时间内,我们还不太可能看到英特尔生产线批量产出硅量子比特芯片。
报告还提到,虽然现有方案还存在着设计缺陷、量子比特性能可扩展性较差等现实挑战,但英特尔与QuTech建立的这套全流程300毫米晶圆集成生产线已经开辟出一条大量实验、不断加快开发速度的光明道路。
报告总结道,“此次证实的硅自旋量子比特与工业半导体生产设施的兼容性,让我们看到了未来扩展并建立高容错、全栈量子计算机方面的无限可能。”
英特尔上周还透露,他们将向美国能源部阿贡国家实验室(ANL)提供量子计算测试台设备,由此迈出实践落地的重要一步。
好文章,需要你的鼓励
存储阵列行业正在发生巨大转变,转向支持AI训练和推理的极度规模化、并行化和多协议数据传输。传统的双控制器阵列和横向扩展文件集群正逐渐被淘汰。新一代存储系统具有超大容量、低延迟、高性能和多协议支持等特点,能够满足AI对数据的海量需求。VAST Data、WEKA等新兴公司引领了这一变革,传统厂商也纷纷推出相应的产品和解决方案来应对挑战。
全球支付巨头 Visa 正在利用人工智能技术提升其业务运营。通过部署检索增强生成 (RAG) 系统,Visa 大幅提高了信息检索速度和准确性。同时,Visa 还开发了安全的内部 AI 模型,并利用深度学习来加强欺诈防范。这些 AI 应用都建立在 Visa 精心构建的多层技术架构之上,旨在平衡创新与风险管理。
Google 宣布将其高清语音接口 Chirp 3 添加到 Vertex AI 开发平台。Chirp 3 支持 31 种语言的 8 种新声音,可用于构建语音助手、创建有声读物等。Google 强调 AI 发展是一场马拉松,短期内不会成为解决一切问题的灵丹妙药,但未来十年将带来重大变革。
随着 AI 数据呈指数级增长,存储环境日益复杂。传统存储方法正在升级以应对海量数据。应用交付控制器成为关键,通过负载均衡和智能流量管理来优化数据应用。组织正转向可扩展的云对象存储,以实现高性能、安全和可扩展的 AI 数据管理。ADC 平台成为支持任何环境下应用交付需求的关键解决方案。