今天,英特尔发布包含12个硅自旋量子比特(silicon spin qubit)的全新量子芯片Tunnel Falls,继续探索量子实用性,以解决重大难题。Tunnel Falls是英特尔迄今为止研发的最先进的硅自旋量子比特芯片,利用了英特尔数十年来积累的晶体管设计和制造能力。
在英特尔的晶圆厂里,Tunnel Falls是在300毫米的硅晶圆上生产的,利用了英特尔领先的晶体管工业化制造能力,如极紫外光刻技术(EUV),以及栅极和接触层加工技术。在硅自旋量子比特中,信息(0/1)被编码在单个电子的自旋(上/下)中。硅自旋量子比特本质上是一个单电子晶体管,因此英特尔能够采用与标准CMOS(互补金属氧化物半导体)逻辑生产线类似的流程制造它。
英特尔认为,硅自旋量子比特比其他量子比特技术更有优势,因其可以利用先进晶体管类似的生产技术。硅自旋量子比特的大小与一个晶体管相似,约为50 x 50纳米,比其它类型的量子比特小100万倍,并有望更快实现量产。《自然·电子学》期刊上的一篇论文表示,“硅可能是最有机会实现大规模量子计算的平台”。
同时,利用先进的CMOS生产线,英特尔可以通过其创新的制程控制技术提高良率和性能。Tunnel Falls的良率达到了95%,实现了与CMOS逻辑制程接近的电压均匀性(voltage uniformity)。此外,英特尔可在每块晶圆上实现超过24000个量子点。Tunnel Falls能够形成可被相互隔离或同时操控的4到12个量子比特。
接下来,英特尔将继续致力于提高Tunnel Falls的性能,并将其和英特尔量子软件开发工具包(SDK)整合在一起,集成到英特尔的量子计算堆栈中。此外,基于制造Tunnel Falls的经验,英特尔已经开始研发下一代量子芯片,预计将于2024年推出。
好文章,需要你的鼓励
北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。
普拉大学研究团队开发的BPMN助手系统利用大语言模型技术,通过创新的JSON中间表示方法,实现了自然语言到标准BPMN流程图的自动转换。该系统不仅在生成速度上比传统XML方法快一倍,在流程编辑成功率上也有显著提升,为降低业务流程建模的技术门槛提供了有效解决方案。
谷歌宣布已将约3万个生产软件包移植到Arm架构,计划全面转换以便在自研Axion芯片和x86处理器上运行工作负载。YouTube、Gmail和BigQuery等服务已在x86和Axion Arm CPU上运行。谷歌开发了名为CogniPort的AI工具协助迁移,成功率约30%。公司声称Axion服务器相比x86实例具有65%的性价比优势和60%的能效提升。
北京大学联合团队发布开源统一视频模型UniVid,首次实现AI同时理解和生成视频。该模型采用创新的温度模态对齐技术和金字塔反思机制,在权威测试中超越现有最佳系统,视频生成质量提升2.2%,问答准确率分别提升1.0%和3.3%。这项突破为视频AI应用开辟新前景。