至顶网计算频道 03月06日 新闻消息:
— 与HPE的合作致力于在2023年初带来领先的HPC和AI处理性能
— El Capitan将成为美国第二套全部使用AMD CPU和GPU的E级超算(Exascale)系统,且其预期性能将超过现在200台最快的超级计算机的总和
2020年3月6日,加利福尼亚州圣克拉拉讯——AMD(NASDAQ:AMD)公司联合劳伦斯利弗莫尔国家实验室(LLNL)和HPE近日宣布,即将在LLNL实验室面世的E级超算(Exascale百亿亿次)超级计算机El Capitan将采用下一代AMD EPYC CPU和AMD Radeon Instinct GPU,以及开源的AMD ROCm异构计算软件。
El Capitan系统计划在2023年初交付,拥有超过2 exaflops(百亿亿次)的双精度性能,预计交付后将成为世界上最快的超级计算机。这项创纪录的性能将用于支持美国国家核安全局(National Nuclear Security Administration)的重要使命,确保美国核储备的安全、保障及可靠性。
基于AMD的节点也将被优化,来加速人工智能(AI)和机器学习(ML)的工作负载,从而使AI和ML扩展应用到有益于NNSA任务的研究、计算技术和分析中。
AMD高级副总裁兼数据中心与嵌入式解决方案事业部总经理Forrest Norrod表示:“El Capitan超级计算机将借助下一代AMD EPYC CPU和Radeon Instinct GPU推动HPC和AI的空前发展。基于AMD在HPC领域的强大基础,加之以变革性的相关能力,AMD助力NNSA三大实验室(LLNL和Los Alamos以及Sandia国家实验室)能够实现其关键的任务目标,并为行业贡献其在AI领域所取得的创新成就。我们对与HPE和NNSA在E级超算方面的持续合作倍感自豪,期待能够在2023年初交付世界上预期性能最强的超级计算机。”
AMD技术为El Capitan赋能
AMD正在运用其在HPC领域的经验,并为El Capitan改进其现有的CPU和GPU设计,从而使El Capitan系统能够具备超强的性能和易用性。
El Capitan采用的AMD技术包括:
· 具有“ Zen 4”处理器内核,代号为“Genoa”(热那亚)的下一代AMD EPYC处理器。这些处理器支持下一代内存和I/O子系统以用于AI和HPC工作负载。
· 下一代Radeon Instinct GPU,基于为HPC和AI等工作负载而优化计算的新型架构,这些GPU将采用下一代高带宽内存,旨在实现最优的深度学习性能。
· 第三代AMD Infinity架构,将在El Capitan每个节点中包含的四个Radeon Instinct GPU和一个AMD EPYC CPU之间提供高带宽、低延迟的互连。 同时,该架构还包括跨CPU和GPU的统一内存,从而使程序员更容易访问加速计算。
· 正在开发中的开源ROCm异构编程环境的增强版本,以利用AMD CPU和GPU的组合发挥最强性能。
LLNL实验室主任Bill Goldstein表示:“AMD先进的CPU和GPU技术所提供的前所未有的计算能力,将有助于维持美国在高性能计算领域的全球地位。今天的新闻是一个展现政府如何与行业协同合作,最终惠及整个国家的典型范例。”
HPE高级副总裁兼高性能计算和关键任务解决方案总经理Peter Ungaro 表示:“我们很荣幸与AMD携手,将HPE的Cray Shasta架构与最新的AMD EPYC CPU和Radeon Instinct GPU相结合,以此领先的技术为劳伦斯利弗莫尔国家实验室的关键HPC和AI工作负载提供支持。从过去一年我们赢得的三个美国E级超算项目以来,包括美国能源部橡树岭国家实验室的Frontier超级计算机,配备AMD处理器和GPU的HPE系统和技术已成为高性能计算和E级超算的独特解决方案。 我们期待与AMD持续合作,以释放更多的创新潜能。”
好文章,需要你的鼓励
这项研究针对现代文档检索系统中的关键缺陷:独立处理文档片段导致丢失上下文信息。研究团队开发了ConTEB基准测试来评估模型利用文档级上下文的能力,并提出了InSeNT方法,结合后期分块和创新的对比学习策略。实验表明,上下文感知嵌入显著提升检索性能,尤其在处理非自包含文本片段时,同时保持计算效率,对分块策略更具鲁棒性,并且在语料库规模扩大时表现更佳。这一研究为更智能的文档检索系统铺平了道路。
这项由布朗大学和Cohere实验室研究者联合进行的研究全面分析了大型语言模型(LLM)安全研究中的语言不平等现象。通过系统回顾近300篇2020-2024年间的安全相关论文,研究发现LLM安全研究严重偏向英语,即使中文这样的高资源语言也仅获得英语十分之一的研究关注,且这一差距正在扩大。研究还揭示非英语语言很少作为独立研究对象,且英语安全研究常忽略语言覆盖文档化。为解决这一问题,研究者提出了三个未来方向:开发文化敏感的评估基准、创建多语言安全训练数据,以及深入理解跨语言安全泛化挑战。
这项研究提出了ChARM,一种创新的角色扮演AI奖励建模框架,通过行为自适应边界和自我进化策略大幅提升AI角色的真实性和一致性。研究团队创建了包含1,108个角色的RoleplayPref数据集,实验表明ChARM比传统模型提高了13%的偏好排名准确率,应用于DPO技术后在多项基准测试中达到了领先水平。这一突破将为娱乐、教育和心理健康支持等领域带来更加自然、个性化的AI互动体验。
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。