BullSequana XH3000专为传统数字仿真和加速混合计算而设计。这台超级计算机采用NVIDIA CPU、GPU和网络技术,将高性能计算、AI和量子应用性能提升到新的水平。
深入百亿亿次AI时代的Atos首次展示其新一代高性能计算机。
BullSequana XH3000将Atos获得专利的第四代液冷式高性能计算(HPC)系统设计与多项NVIDIA技术相结合,以提供更高的性能和能效。
这台超级计算机提供Arm和x86两种计算架构供用户选择,并且将推出使用NVIDIA Grace、英特尔、AMD或SiPearl处理器的版本。它还支持带有四个NVIDIA Tensor Core GPU的加速计算节点。
XH3000还灵活采用NVIDIA Quantum-2 InfiniBand和NVIDIA ConnectX-7 InfiniBand等网络选项以及以太网适配器,将这些强大的计算节点扩展到具有10百亿亿次级混合精度AI性能的高性能计算系统。
混合高性能计算+AI+量子系统
Atos打造出的灵活混合计算平台能够运行最高要求的高性能计算仿真、AI工作,甚至量子计算领域的新型工作负载。
Atos首席执行官Rodolphe Belmer在一场揭示该系统的线上活动中表示:“毫无疑问,BullSequana XH3000将通过百亿亿次级网关,推动未来的一些关键科学和产业创新突破。”
Atos的客户遍布70多个国家,在欧洲、印度和南美的超级计算领域排名第一,尤其是在其总部所在地——法国享有盛誉。公司还在法国设有制造和研发基地。
开展广泛的合作
Atos和NVIDIA于11月宣布成立一座AI技术联合实验室——EXAIL,而XH3000优化是该实验室成立后的首批项目之一。
NVIDIA负责HPC/超级计算销售和业务拓展的全球副总裁John Josephakis通过视频向该系统的幕后团队表示祝贺。
John Josephakis表示:“该平台结合了Atos享有盛誉的专业知识、NVIDIA的AI和HPC技术以及我们联合实验室的工作成果,它能够帮助研究人员更快获得重要的洞察,解决超级计算和工业HPC领域的重大挑战。”
EXAIL的工作涵盖了气候研究、医疗健康和基因组学、量子计算、边缘AI/计算机视觉以及网络安全。该实验室的研究人员可以使用各种应用框架(例如医疗健康领域的NVIDIA Clara和安全领域的NVIDIA Morpheus)以及用于量子计算的NVIDIA cuQuantum SDK和运行数百种科学和技术应用的NVIDIA HPC SDK。
建立长期、富有成效的关系
Atos在尤利希超级计算中心(Jülich Supercomputing Center)建造了欧洲首批采用NVIDIA Ampere架构的超级计算机之一——JUWELS Booster。该计算机通过3744个NVIDIA A100 Tensor Core GPU提供2.5百亿亿次级混合精度AI性能。
为了更深入地了解气候变化,Atos和NVIDIA的研究人员将在该系统上运行各种AI模型。该系统目前在全球最快超级计算机排行榜TOP500上排名第8。尤利希中心的研究人员在4月使用该系统进行了先进的量子线路模拟。
Atos在去年主导了BerzeLiUs的部署工作。这台瑞典最大的超级计算机建立在 NVIDIA DGX SuperPOD基础之上。公司还在欧洲、印度和南美提供基于NVIDIA DGX系统的超级计算基础架构。
目前,Atos正在为意大利大学财团CINECA建造一台名为Leonardo的超级计算机。这台计算机将包含14000个NVIDIA A100 GPU并采用NVIDIA Quantum InfiniBand网络平台。Leonardo预计将成为全球最快的AI超级计算机,能够达到10百亿亿次级混合精度AI性能。
随着BullSequana XH3000的发布,Atos和NVIDIA之间的合作必将产生更多的成果。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。