Nvidia公司正在和位于多伦多的初创公司Xanadu Quantum Technologies展开合作,首次实现在超级计算机上运行量子计算模拟。
Nvidia在今天发布的一篇博文中表示,研究人员正在使用最新版本的Xanadu PennyLane在名为“Perlmutter”的超级计算机上模拟量子机器。PennyLane是一个名为“混合量子计算”的开源框架,也就是使用经典计算资源和量子处理器。研究人员将PennyLane与Nvidia cuQuantum软件开发套件结合起来,使其能够模拟由高性能GPU集群驱动的量子机器。
这种高性能是一项关键要求,因为美国能源部布鲁克海文国家实验室的Shinjae Yoo等研究人员表示,需要多达256个GPU才能模拟大约36个量子位——这是真正的量子机器所采用的特有的计算器,而且至关重要的是,这大约是研究人员目前可用量子位数量的两倍。
Nvidia表示,PennyLane的多节点版本将搭配cuQuantum SDK一起使用,以简化加速量子计算机大规模模拟的复杂工作。Yoo表示:“这甚至让我的实习生也可以运行一些最大规模的模拟,的确令人感到兴奋。”他的团队计划将有不少于6个项目将使用PennyLane。
Yoo的研究旨在推进高能物理和机器学习应用,而其他研究人员正在使用模拟量子计算机来扩展他们对化学和材料科学的理解。
量子计算机是一种实验型计算机,依赖于量子力学的特性,有望比经典计算机更为强大,尽管这仍然是一项尚未完全开发的新兴技术,而模拟运算则让研究人员能够在开发过程中开始探索他们的能力。
除了帮助研究人员之外,Xanadu公司还与劳斯莱斯汽车有限公司合作开发量子算法,用于设计更可持续的喷气发动机;与大众集团合作,为电动汽车设计更高效、更强大的电池。
除了Yoo的项目外,国家能源研究科学计算中心的Perlmutter超级计算机至少还在四个项目中利用PennyLane在模拟量子算机。NERSC量子计算项目的负责人Katherine Klymko 表示,研究人员正在使用量子模拟来研究对于传统计算机来说太大的分子复合物。Klymko说:“像PennyLane这样的工具是让他们扩展当前经典功能的关键,为最终在大型计算机上运行算法做好准备。”
Xanadu公司高级量子软件开发人员Lee O’Riordan表示,PennyLane和cuQuantum的结合使可模拟的量子位数量大幅增加成为可能,超出了之前所实现的任何水平。“当我们从2022年开始在单个GPU上使用cuQuantum的时候,我们就几乎全面实现了10倍的加速。我们希望在今年年底之前扩展到1000个节点,也就是4000个GPU,这可能意味着模拟超过40个量子位。”
O’Riordan相信,最终Nvidia cuQuantum和GPU可以帮助模拟相当于60多个量子位,分为30个量子位子电路,甚至更多。
Xanadu的团队仍在收集有关任何可能性的数据,但这项研究看起来很有希望,“根据我们基于样本的工作负载,我们看到的几乎都是线性扩展。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。