BullSequana XH3000专为传统数字仿真和加速混合计算而设计。这台超级计算机采用NVIDIA CPU、GPU和网络技术,将高性能计算、AI和量子应用性能提升到新的水平。
深入百亿亿次AI时代的Atos首次展示其新一代高性能计算机。
BullSequana XH3000将Atos获得专利的第四代液冷式高性能计算(HPC)系统设计与多项NVIDIA技术相结合,以提供更高的性能和能效。
这台超级计算机提供Arm和x86两种计算架构供用户选择,并且将推出使用NVIDIA Grace、英特尔、AMD或SiPearl处理器的版本。它还支持带有四个NVIDIA Tensor Core GPU的加速计算节点。
XH3000还灵活采用NVIDIA Quantum-2 InfiniBand和NVIDIA ConnectX-7 InfiniBand等网络选项以及以太网适配器,将这些强大的计算节点扩展到具有10百亿亿次级混合精度AI性能的高性能计算系统。
混合高性能计算+AI+量子系统
Atos打造出的灵活混合计算平台能够运行最高要求的高性能计算仿真、AI工作,甚至量子计算领域的新型工作负载。
Atos首席执行官Rodolphe Belmer在一场揭示该系统的线上活动中表示:“毫无疑问,BullSequana XH3000将通过百亿亿次级网关,推动未来的一些关键科学和产业创新突破。”
Atos的客户遍布70多个国家,在欧洲、印度和南美的超级计算领域排名第一,尤其是在其总部所在地——法国享有盛誉。公司还在法国设有制造和研发基地。
开展广泛的合作
Atos和NVIDIA于11月宣布成立一座AI技术联合实验室——EXAIL,而XH3000优化是该实验室成立后的首批项目之一。
NVIDIA负责HPC/超级计算销售和业务拓展的全球副总裁John Josephakis通过视频向该系统的幕后团队表示祝贺。
John Josephakis表示:“该平台结合了Atos享有盛誉的专业知识、NVIDIA的AI和HPC技术以及我们联合实验室的工作成果,它能够帮助研究人员更快获得重要的洞察,解决超级计算和工业HPC领域的重大挑战。”
EXAIL的工作涵盖了气候研究、医疗健康和基因组学、量子计算、边缘AI/计算机视觉以及网络安全。该实验室的研究人员可以使用各种应用框架(例如医疗健康领域的NVIDIA Clara和安全领域的NVIDIA Morpheus)以及用于量子计算的NVIDIA cuQuantum SDK和运行数百种科学和技术应用的NVIDIA HPC SDK。
建立长期、富有成效的关系
Atos在尤利希超级计算中心(Jülich Supercomputing Center)建造了欧洲首批采用NVIDIA Ampere架构的超级计算机之一——JUWELS Booster。该计算机通过3744个NVIDIA A100 Tensor Core GPU提供2.5百亿亿次级混合精度AI性能。
为了更深入地了解气候变化,Atos和NVIDIA的研究人员将在该系统上运行各种AI模型。该系统目前在全球最快超级计算机排行榜TOP500上排名第8。尤利希中心的研究人员在4月使用该系统进行了先进的量子线路模拟。
Atos在去年主导了BerzeLiUs的部署工作。这台瑞典最大的超级计算机建立在 NVIDIA DGX SuperPOD基础之上。公司还在欧洲、印度和南美提供基于NVIDIA DGX系统的超级计算基础架构。
目前,Atos正在为意大利大学财团CINECA建造一台名为Leonardo的超级计算机。这台计算机将包含14000个NVIDIA A100 GPU并采用NVIDIA Quantum InfiniBand网络平台。Leonardo预计将成为全球最快的AI超级计算机,能够达到10百亿亿次级混合精度AI性能。
随着BullSequana XH3000的发布,Atos和NVIDIA之间的合作必将产生更多的成果。
好文章,需要你的鼓励
Anthropic周一发布了旗舰模型Opus 4.5,这是4.5系列的最后一个模型。新版本在编程、工具使用和问题解决等基准测试中表现出色,是首个在SWE-Bench验证测试中得分超过80%的模型。同时推出Claude for Chrome和Claude for Excel产品,分别面向不同用户群体。Opus 4.5还改进了长文本处理的内存管理,支持付费用户的"无限聊天"功能,并针对智能体应用场景进行了优化,将与OpenAI的GPT 5.1和谷歌的Gemini 3展开竞争。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。
总部位于圣地亚哥的AI公司耐能发布新一代KL1140芯片,这是首款能在边缘端运行完整变换器网络的神经处理单元。该芯片可将大语言模型从云数据中心转移到便携式本地设备中,四颗芯片组合可实现类似GPU的性能,支持1200亿参数模型运行,功耗降低三分之一至一半,硬件成本减少十倍。
360 AI Research团队发布的FG-CLIP 2是一个突破性的双语精细视觉语言对齐模型,能够同时处理中英文并进行精细的图像理解。该模型通过两阶段训练策略和多目标联合优化,在29个数据集的8类任务中均达到最先进性能,特别创新了文本内模态对比损失机制。团队还构建了首个中文多模态评测基准,填补了该领域空白,为智能商务、安防监控、医疗影像等应用开辟新可能。