每个参与量子计算的人都会被问到一个问题:"这项技术何时能够实现商业化?"
在伦敦举办的首届量子数据中心联盟论坛上,谷歌量子计算标准工作组成员、IEC/ISO量子技术标准联合技术委员会美国代表团主席李奥斯汀向专家小组提出了这个问题。
尽管业界围绕逻辑量子比特和纠错技术产生了大量讨论,这些技术对于构建能够执行有用任务的量子计算机至关重要,但构建完全可用且可扩展的量子计算系统仍缺乏众多关键拼图。
专业硬件挑战
在论坛上发言的QuEra公司首席技术官亚历山大·基斯林讨论了激光器的局限性,这些激光器正在为完全不同的应用领域进行优化。他说:"你可以找到功率很高的激光器,但这些激光器没有任何相干性,"这使得它们不适合用于量子计算机。
基斯林认为,业界需要解决的另一个挑战是可扩展性。他说,现实中,量子比特数量翻倍的系统不应该需要两倍大小的机器,并补充说必须在量子比特数量增加时控制量子计算机所需的基础设施。
"如果我们只是在量子计算机旁边再建造一个系统,然后想办法连接它们,我会说这是可扩展的,但不是可伸缩的,"他说。
牛津量子电路公司产品开发副总裁欧文·阿诺德讨论了与稀释制冷机供应商合作面临的挑战。稀释制冷机是实现超导环境所必需的,某些量子计算机系统需要这种环境。他说:"这些设备非常令人印象深刻,但它们主要是为学术市场而建造的。"
根据阿诺德的经验,稀释制冷机制造商需要考虑如何将这种专业设备扩展到数据中心环境中运行。"如果你需要稀释制冷机,那么你就需要运行该制冷机的专业知识,"他补充说。
另一个考虑因素是量子计算机往往是为实验而构建的。"实验失败了,这在很大程度上是可以接受的。受影响的人数很少,"他说。
但当考虑到量子计算行业在数据中心部署此类机器的雄心时,这不再只是一个可以有限中断的实验。相反,需要99.999%的正常运行时间。阿诺德补充说:"我们希望为这些设备提供更好的诊断功能。我们希望控制维护周期,并确保有冗余电源。"
即使量子计算背后的科学能够发展到可以高度可靠地执行的程度,行业能够制造出数据中心就绪的量子计算系统,编程的便利性仍需要解决,以实现数据中心规模的采用。
编程便利性和混合复杂性
Quantinuum公司产品管理总监乔什·萨沃里在论坛上讨论了公司的2029年路线图,以及到那时需要克服的挑战才能交付商业化可行的产品。他认为需要围绕标准达成行业一致。
萨沃里表示,QIR(设计和实现必要编译器技术以加速量子编程语言设计进步的社区范围努力)和CQASM(为量子计算提供将量子电路表达为代码方式的编程语言)需要为应用程序开发人员提供统一的编程接口。
专家小组还讨论了量子计算机如何作为一种协处理器与经典高性能计算(HPC)并存。虽然这种方法可能是许多量子计算公司在数据中心部署其机器的发展方向,但这种架构极其复杂。
QuEra的基斯林说:"我们今天试图解决的问题类型如何通过量子计算机加速仍然未知。"
如果采用混合方法,诸如考虑可以发送到量子计算机的应用程序代码与最适合在HPC架构上运行的代码,以及在这些不同类别的计算资源之间进行协调等因素,都是行业需要回答的问题。
已经有大量关于量子计算的研究表明,至少从技术角度来看,行业的目标是可以实现的。但量子数据中心联盟论坛专家小组传达的信息是,在这些机器能够真正在商业数据中心设置中扩展之前,还需要做大量工作。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。