El Capitan 超级计算机由 HPE 制造,使用 AMD Instinct MI300A 加速处理单元(APU)。El Capitan在最新 Top500 榜单上的高性能 Linpack(HPL)分数为 1.742 exaflops。
劳伦斯利弗莫尔国家实验室将这台超级计算机用于核安全方面的应用。El Capitan 是美国国家核安全局(NNSA)的第一台超级(每秒一百亿亿次浮点运算级)计算机,将用于推动科学发现和国家安全,提供 AMD 所称的“必要计算能力,在无需进行试验的情况下确保国家核威慑力量的安全、安保和可靠性”。
El Capitan的建模和模拟能力将用于支持美国国家核安全局的库存管理计划,该计划负责认证老化的核库存以及其他关键的核安全任务,例如防扩散和反恐。
LLNL 高级模拟与计算项目主任 Rob Neely 表示,“El Capitan 对国家核安全局的核心任务至关重要,显著增强了我们执行大型高保真三维模拟的能力,解决核心任务所面临的复杂科学挑战。”
LLNL以及洛斯阿拉莫斯和桑迪亚国家实验室的其他NNSA也在也在使用 El Capitan 及其配套系统 Tuolumne,推动人工智能和机器学习辅助数据分析。El Capitan 可以应用于各种高能量密度问题,例如惯性约束聚变研究,而 Tuolumne 则将可以用于一些非保密的开放科学应用,包括气候建模、生物安全/药物发现和地震建模等应用。
LLNL首席技术官 Bronis R de Supinski 表示,“人工智能现在在我们领域日益普及,El Capitan 使我们能够将人工智能与我们传统的模拟和建模工作负载整合在一起,为各科学学科的探索开辟新的途径。”
AMD表示,AMD Instinct MI300X和MI325X加速器可提供人工智能性能和内存功能,而AMD Instinct MI300A APU则是将中央处理器(CPU)和图形处理器(GPU)内核以及堆叠内存整合到一个单一封装中,可以为高性能计算和人工智能工作负载实现“新的效率和性能水平”。
AMD的EPYC处理器和Instinct加速器也被用于推动许多新的超级计算和人工智能项目和部署,包括意大利能源公司 Eni,Eni 的 HPC 6超级计算机采用了AMD EPYC处理器和AMD Instinct GPU。德国帕德博恩大学也将收到一台采用最新第五代 AMD EPYC 技术的新型超级计算机。
另据悉,IBM 和 AMD 宣布了一项合作,将在 IBM 云上部署 AMD Instinct MI300X 加速器即服务。这项新服务将于2025年上半年推出,目标是提升生成式人工智能模型的性能和能效。通过这项合作,IBM 的 Watsonx AI 和数据平台以及 Red Hat Enterprise Linux AI 推理平台将提供对 AMD Instinct MI300X 加速器的支持。
好文章,需要你的鼓励
来自耶路撒冷希伯来大学的研究团队开发了WHISTRESS,一种创新的无需对齐的句子重音检测方法,能够识别说话者在语音中强调的关键词语。研究者基于Whisper模型增加了重音检测组件,并创建了TINYSTRESS-15K合成数据集用于训练。实验表明,WHISTRESS在多个基准测试中表现优异,甚至展示了强大的零样本泛化能力。这项技术使语音识别系统不仅能理解"说了什么",还能捕捉"如何说"的细微差别,为人机交互带来更自然的体验。
这项研究提出了"力量提示"方法,使视频生成模型能够响应物理力控制信号。研究团队来自布朗大学和谷歌DeepMind,他们通过设计两种力提示——局部点力和全局风力,让模型生成符合物理规律的视频。惊人的是,尽管仅使用约15,000个合成训练样本,模型展现出卓越的泛化能力,能够处理不同材质、几何形状和环境下的力学交互。研究还发现模型具有初步的质量理解能力,相同力量对不同质量物体产生不同影响。这一突破为交互式视频生成和直观世界模型提供了新方向。
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。