劳伦斯利弗莫尔国家实验室(Lawrence Livermore National Laboratory,LLNL)今天表示,已经将美国国家核安全局(National Nuclear Security Administration)的Lassen超级计算机与全球最大的计算机芯片进行了集成。
此次集成意味着Lassen系统(如图所示)成为全球第一台将人工智能技术与高性能计算建模和仿真功能相结合的超级计算机。
劳伦斯利弗莫尔国家实验室表示,该系统旨在实现所谓的“认知模拟”,让研究人员可以研究用于预测建模的创新方法。该计划有几个目标,包括协助在美国国家点火设施进行融合内爆实验、材料科学、以及通过“医学治疗研发计划”快速开发用于治疗新冠病毒和癌症的新药。
Lassen超级计算机是目前全球排名第14的超级计算机,每秒浮点运算性能超过23 petaflops。劳伦斯利弗莫尔国家实验室表示,该系统已经集成了Cerebras Systems的CS-1加速器硬件系统,后者基于Wafer Scale Engine专用AI芯片,尺寸是标准数据中心GPU的57倍,封装了1.2万亿多个晶体管。
去年Cerebras宣布,配置了40万个处理核心的WSE芯片已经针对AI工作负载进行了优化,配备18 GB高速板载内存。
该项目得到了美国国家核安全局(NNSA)的高级仿真和计算计划的资助,在该计划下,这款增强的系统将在未来十年内用于加速美国能源部和美国国家安全任务的一系列应用。
劳伦斯利弗莫尔国家实验室首席技术官Bronis R. de Supinski表示,该计划是在对计算提出了更高需求的情况下孕育而生的。由于计算需求已经远远超过了摩尔定律(根据摩尔定律,芯片上的晶体管密度每两年翻一番),因此已经无法通过常规手段提升计算性能了。
他说:“认知仿真是一种可以推动容量呈现指数级持续提升的方法,而像Cerebras CS-1这样系统级的异构方法,是实现这一提升的一个重要组成部分。”
研究人员通过这种方法探索一种所谓“异构性”的新概念,在这个概念下,超级计算机的不同元素负责某个特定工作负载的不同方面。根据De Supinski的说法,这样就可以运行数据生成和纠错之类的操作,从而为各种科学问题提供了一种更高效、更具成本效益的解决方案。
劳伦斯利弗莫尔国家实验室计算机科学家Ian Karlin表示:“异构的系统让我们能够确定,我们所使用的应用,其不同组成部分是可以同时执行各种任务的。对于我们的认知模拟工作负载来说,我们将在Cerebras硬件上运行机器学习负载,在GPU上运行高性能计算模拟负载,从而缩短了生成解决方案的时间。”
这意味着,研究人员可以跳过工作流程中很多不必要的处理,加速深度学习神经网络,最大程度上减少了将某些问题“切片和切成小块”的需要。
劳伦斯利弗莫尔国家实验室计算机科学家Brian Van Essen表示:“我们可以在更短的计算时间内进行科学探索,也可以在科学不确定性更高的领域进行更深入的研究,在有了更多计算时间的同时,得到更好的答案。”
Van Essen正在领导一个研究小组,该小组选择在CS-1系统上运行两种AI模型,初步工作重点是从多达50亿张模拟激光内爆图像中进行学习,优化用于国家点火装置实验的聚变目标,最终实现高能量输出,以及更强大的核武器储备管理应用聚变内爆。
与此同时,劳伦斯利弗莫尔国家实验室和Cerebras将合作建立一个人工智能卓越中心(Artificial Intelligence Center of Excellence),旨在确定认知模拟的最佳参数,这项研究可能会促使劳伦斯利弗莫尔国家实验室向Lassen及其他超级计算机平台中配置更多的CS-1。
作为该中心的负责人,Van Essen表示:“我是一名受过培训的计算机架构师,因此有机会构建这样的系统,并成为大规模部署这些系统的第一人,令人非常兴奋。将其集成并耦合到像Lassen这样的系统中,给我们提供了一个独有的机会,让我们能够率先去探索这种框架。”
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。