Perlmutter将帮助科学家推动暗能量等前沿课题的研究
英伟达公司本周四公布了号称全球最强的AI超级计算机。这是一台名为Perlmutter的庞然大物,专供美国国家能源研究科学计算中心(NERSC)使用。
英伟达公司CEO黄仁勋介绍称,“Perlmutter将AI与高性能算力融合起来,有望推动材料科学、量子物理学、气候预测、生物研究等众多领域实现突破。”
这项耗资1.46亿美元的超级工程将分两个阶段推进,但目前的成果已经具备了一定可用性。
第一阶段主要由HPE工程师们组装基础设施以容纳设备,并部署总计1536个计算节点,每个节点包含4个由NVLink-3连接的英伟达A100 Tensor Core GPU外加1块AMD Milan Epyc处理器。据了解,这台超级计算机共包含6159个英伟达最新A100 GPU与1536块AMD服务器芯片,可在FP16精度下实现四百亿亿次AI计算性能。
第二阶段将于今年晚些时候启动,计划为设备添加更多CPU核心。新增的3072个计算节点将各包含2块AMD Milan处理器,且每节点封装512 GB内存。英伟达全球高性能计算与人工智能产品营销负责人Dion Harris在采访中表示,Perlmutter完成之后有望一举冲进全球超算五百强榜单的前五位置。之所以无法直接登顶,是因为超算五百强榜单要求以FP64精度为基础比较算力水平。
Perlmutter将在劳伦斯伯克利国家实验室部署并发挥作用。事实上,Perlmutter这个名字就来自该实验室兼加州大学伯克利分校物理学家Saul Perlmutter,他对宇宙膨胀速度超过原有预期的证明为他赢得了2011年诺贝尔奖。
这台超级计算机的一大核心诉求,在于构建起迄今为止规模最大的宇宙3D模拟星图。研究人员将把由暗能源光谱仪(安装在基特峰国家天文台直径四米的尼克拉斯·梅耶尔望远镜上,可捕获约3000万个星系发出的光)捕捉到的图像集中起来,供Perlmutter高效处理。
宇宙学家可以使用望远镜图像计算出不同星体之间的距离,由此判断暗能量对于宇宙膨胀的影响。与哈勃常数相关的膨胀率一直是个备受争议的话题,各方科学家对其具体数值始终莫衷一是。
Perlmutter将集中处理暗能量光谱仪捕捉的图像,并帮助研究人员确定望远镜接下来值得关注的新区域。该传感器每晚可收集多达15万个数据点,手动检查各星系光谱显然没有现实可行性,必须借助超级计算机之力实现自动化。劳伦斯伯克利国家实验室的科学家们希望在Perlmutter的帮助下,将数据的处理周期由以往的几周甚至几个月缩短为几天。
NERSC数据架构师Rollin Thomas致力于推进团队对于系统软件的应用,他认为GPU能够显著加速数字计算流程。他强调,“在准备工作中,我们使用GPU实现了20倍加速效果,我个人对此非常满意。”
这台超级计算机还支持OpenMP与英伟达HPC SDK——这是一套编译器与软件库,能够在GPU上对使用C++及Fortran编写的科学计算进行加速。Rapids则是英伟达在该计算机上配套使用的另一套框架,用于支持Python编写的数据科学应用程序。
劳伦斯伯克利国家实验室一位发言人在采访中表示,“Perlmutter系统将在推动美国科学研究方面发挥关键作用,并在包括先进计算、人工智能与数据科学在内的诸多关键技术领域保持领先及核心地位。”
“这套系统还将被广泛应用于气候与环境、清洁能源技术、半导体与微电子学、以及量子信息科学的研究。”
Perlmutter将成为NERSC的旗舰超级计算机,取代2016年安装部署的Cori系统(性能为30千万亿次)。Cori将被逐步拆解并最终彻底淘汰。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。