Nvidia公司正在和位于多伦多的初创公司Xanadu Quantum Technologies展开合作,首次实现在超级计算机上运行量子计算模拟。
Nvidia在今天发布的一篇博文中表示,研究人员正在使用最新版本的Xanadu PennyLane在名为“Perlmutter”的超级计算机上模拟量子机器。PennyLane是一个名为“混合量子计算”的开源框架,也就是使用经典计算资源和量子处理器。研究人员将PennyLane与Nvidia cuQuantum软件开发套件结合起来,使其能够模拟由高性能GPU集群驱动的量子机器。
这种高性能是一项关键要求,因为美国能源部布鲁克海文国家实验室的Shinjae Yoo等研究人员表示,需要多达256个GPU才能模拟大约36个量子位——这是真正的量子机器所采用的特有的计算器,而且至关重要的是,这大约是研究人员目前可用量子位数量的两倍。
Nvidia表示,PennyLane的多节点版本将搭配cuQuantum SDK一起使用,以简化加速量子计算机大规模模拟的复杂工作。Yoo表示:“这甚至让我的实习生也可以运行一些最大规模的模拟,的确令人感到兴奋。”他的团队计划将有不少于6个项目将使用PennyLane。
Yoo的研究旨在推进高能物理和机器学习应用,而其他研究人员正在使用模拟量子计算机来扩展他们对化学和材料科学的理解。
量子计算机是一种实验型计算机,依赖于量子力学的特性,有望比经典计算机更为强大,尽管这仍然是一项尚未完全开发的新兴技术,而模拟运算则让研究人员能够在开发过程中开始探索他们的能力。
除了帮助研究人员之外,Xanadu公司还与劳斯莱斯汽车有限公司合作开发量子算法,用于设计更可持续的喷气发动机;与大众集团合作,为电动汽车设计更高效、更强大的电池。
除了Yoo的项目外,国家能源研究科学计算中心的Perlmutter超级计算机至少还在四个项目中利用PennyLane在模拟量子算机。NERSC量子计算项目的负责人Katherine Klymko 表示,研究人员正在使用量子模拟来研究对于传统计算机来说太大的分子复合物。Klymko说:“像PennyLane这样的工具是让他们扩展当前经典功能的关键,为最终在大型计算机上运行算法做好准备。”
Xanadu公司高级量子软件开发人员Lee O’Riordan表示,PennyLane和cuQuantum的结合使可模拟的量子位数量大幅增加成为可能,超出了之前所实现的任何水平。“当我们从2022年开始在单个GPU上使用cuQuantum的时候,我们就几乎全面实现了10倍的加速。我们希望在今年年底之前扩展到1000个节点,也就是4000个GPU,这可能意味着模拟超过40个量子位。”
O’Riordan相信,最终Nvidia cuQuantum和GPU可以帮助模拟相当于60多个量子位,分为30个量子位子电路,甚至更多。
Xanadu的团队仍在收集有关任何可能性的数据,但这项研究看起来很有希望,“根据我们基于样本的工作负载,我们看到的几乎都是线性扩展。”
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。