Amazon Web Services Inc. (AWS) 今天发布了其首款量子计算芯片,并表示这是第一代具有优秀纠错能力的硬件,这一突破有望解决量子计算技术扩展的难题。
这款名为 Ocelot 的新处理器采用了创新方案,与现有技术相比,将量子纠错的实现成本降低了高达 90%。
AWS 从零开始构建了一个专门的架构,使用了所谓的"猫量子比特"技术。AWS 量子计算中心的研究人员最初于 2021 年提出了这一方法,并最近在 Nature 期刊上发表了描述这种纠错技术的论文。这项技术的命名灵感来自著名的"薛定谔的猫"思想实验。
在量子计算机中,量子比特是用于计算的基本信息单位,相当于经典计算中表示 1 或 0 的比特,但它可以同时存在于多个状态。这使得量子计算机能够极快地进行计算。问题在于,物理量子比特极其脆弱,容易受到电磁辐射、热量甚至微小振动等外部干扰的影响,从而产生噪声和错误。
猫量子比特通过使用振荡器组件来存储用于计算的量子态,这些振荡器能产生具有稳定时序的重复电信号。这种信号用于防止一种在硬件中难以纠正的相位偏移错误。芯片中的高质量振荡器由钽超导材料薄膜制成。
AWS 量子硬件主管 Oskar Painter 表示:"随着量子研究的最新进展,实用、容错的量子计算机用于现实世界应用已不是能否实现的问题,而是何时实现的问题。Ocelot 是这一征程中的重要一步。"
Ocelot 是 AWS 创建的小规模原型,用于测试该架构方法的有效性。Amazon 表示,可能还需要数年的规模扩展,该架构才能准备好公开发布。目前,公司计划继续研究并将其作为进一步发展的基础。
Painter 补充道:"我们才刚刚起步,我们相信还需要经过多个扩展阶段。目前,我们的任务是继续在量子计算技术栈上创新,不断检验我们是否使用了正确的架构,并将这些经验教训纳入我们的工程努力中。这是一个持续改进和扩展的飞轮。"
Ocelot 的发布紧随 Microsoft Corp. 发布其量子计算芯片 Majorana 1 之后,后者是一款八量子比特芯片,微软称这也是行业的一个突破。上周发布的微软芯片采用了称为 Majorana 费米子的准粒子,这种粒子可作为自身的反粒子,为计算提供量子态。
量子计算有望帮助解决现实世界中经典系统难以处理的复杂应用,如加快药物发现和开发、协助新材料生产,以及做出准确的投资策略预测。
好文章,需要你的鼓励
Gartner预测,到2030年所有IT工作都将涉及AI技术的使用,这与目前81%的IT工作不使用AI形成鲜明对比。届时25%的IT工作将完全由机器人执行,75%由人类在AI辅助下完成。尽管AI将取代部分入门级IT职位,但Gartner认为不会出现大规模失业潮,目前仅1%的失业由AI造成。研究显示65%的公司在AI投资上亏损,而世界经济论坛预计AI到2030年创造的就业机会将比消除的多7800万个。
CORA是微软研究院与谷歌研究团队联合开发的突破性AI视觉模型,发表于2023年CVPR会议。它通过创新的"区域提示"和"锚点预匹配"技术,成功解决了计算机视觉领域的一大挑战——开放词汇目标检测。CORA能够识别训练数据中从未出现过的物体类别,就像人类能够举一反三一样。在LVIS数据集测试中,CORA的性能比现有最佳方法提高了4.6个百分点,尤其在稀有类别识别上表现突出。这一技术有望广泛应用于自动驾驶、零售、安防和辅助技术等多个领域。
人工智能正从软件故事转向AI工厂基础,芯片、数据管道和网络协同工作形成数字化生产系统。这种新兴模式重新定义了性能衡量标准和跨行业价值创造方式。AI工厂将定制半导体、低延迟结构和大规模数据仪器整合为实时反馈循环,产生竞争优势。博通、英伟达和IBM正在引领这一转变,通过长期定制芯片合同和企业遥测技术,将传统体验转化为活跃的数字生态系统。
中国电信研究院联合重庆大学、北航发布T2R-bench基准,首次系统评估AI从工业表格生成专业报告的能力。研究涵盖457个真实工业表格,测试25个主流AI模型,发现最强模型得分仅62.71%,远低于人类专家96.52%。揭示AI在处理复杂结构表格、超大规模数据时存在数字计算错误、信息遗漏等关键缺陷,为AI数据分析技术改进指明方向。