今天,英特尔发布包含12个硅自旋量子比特(silicon spin qubit)的全新量子芯片Tunnel Falls,继续探索量子实用性,以解决重大难题。Tunnel Falls是英特尔迄今为止研发的最先进的硅自旋量子比特芯片,利用了英特尔数十年来积累的晶体管设计和制造能力。
在英特尔的晶圆厂里,Tunnel Falls是在300毫米的硅晶圆上生产的,利用了英特尔领先的晶体管工业化制造能力,如极紫外光刻技术(EUV),以及栅极和接触层加工技术。在硅自旋量子比特中,信息(0/1)被编码在单个电子的自旋(上/下)中。硅自旋量子比特本质上是一个单电子晶体管,因此英特尔能够采用与标准CMOS(互补金属氧化物半导体)逻辑生产线类似的流程制造它。
英特尔认为,硅自旋量子比特比其他量子比特技术更有优势,因其可以利用先进晶体管类似的生产技术。硅自旋量子比特的大小与一个晶体管相似,约为50 x 50纳米,比其它类型的量子比特小100万倍,并有望更快实现量产。《自然·电子学》期刊上的一篇论文表示,“硅可能是最有机会实现大规模量子计算的平台”。
同时,利用先进的CMOS生产线,英特尔可以通过其创新的制程控制技术提高良率和性能。Tunnel Falls的良率达到了95%,实现了与CMOS逻辑制程接近的电压均匀性(voltage uniformity)。此外,英特尔可在每块晶圆上实现超过24000个量子点。Tunnel Falls能够形成可被相互隔离或同时操控的4到12个量子比特。
接下来,英特尔将继续致力于提高Tunnel Falls的性能,并将其和英特尔量子软件开发工具包(SDK)整合在一起,集成到英特尔的量子计算堆栈中。此外,基于制造Tunnel Falls的经验,英特尔已经开始研发下一代量子芯片,预计将于2024年推出。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。