BullSequana XH3000专为传统数字仿真和加速混合计算而设计。这台超级计算机采用NVIDIA CPU、GPU和网络技术,将高性能计算、AI和量子应用性能提升到新的水平。
深入百亿亿次AI时代的Atos首次展示其新一代高性能计算机。
BullSequana XH3000将Atos获得专利的第四代液冷式高性能计算(HPC)系统设计与多项NVIDIA技术相结合,以提供更高的性能和能效。
这台超级计算机提供Arm和x86两种计算架构供用户选择,并且将推出使用NVIDIA Grace、英特尔、AMD或SiPearl处理器的版本。它还支持带有四个NVIDIA Tensor Core GPU的加速计算节点。
XH3000还灵活采用NVIDIA Quantum-2 InfiniBand和NVIDIA ConnectX-7 InfiniBand等网络选项以及以太网适配器,将这些强大的计算节点扩展到具有10百亿亿次级混合精度AI性能的高性能计算系统。
混合高性能计算+AI+量子系统
Atos打造出的灵活混合计算平台能够运行最高要求的高性能计算仿真、AI工作,甚至量子计算领域的新型工作负载。
Atos首席执行官Rodolphe Belmer在一场揭示该系统的线上活动中表示:“毫无疑问,BullSequana XH3000将通过百亿亿次级网关,推动未来的一些关键科学和产业创新突破。”
Atos的客户遍布70多个国家,在欧洲、印度和南美的超级计算领域排名第一,尤其是在其总部所在地——法国享有盛誉。公司还在法国设有制造和研发基地。
开展广泛的合作
Atos和NVIDIA于11月宣布成立一座AI技术联合实验室——EXAIL,而XH3000优化是该实验室成立后的首批项目之一。
NVIDIA负责HPC/超级计算销售和业务拓展的全球副总裁John Josephakis通过视频向该系统的幕后团队表示祝贺。
John Josephakis表示:“该平台结合了Atos享有盛誉的专业知识、NVIDIA的AI和HPC技术以及我们联合实验室的工作成果,它能够帮助研究人员更快获得重要的洞察,解决超级计算和工业HPC领域的重大挑战。”
EXAIL的工作涵盖了气候研究、医疗健康和基因组学、量子计算、边缘AI/计算机视觉以及网络安全。该实验室的研究人员可以使用各种应用框架(例如医疗健康领域的NVIDIA Clara和安全领域的NVIDIA Morpheus)以及用于量子计算的NVIDIA cuQuantum SDK和运行数百种科学和技术应用的NVIDIA HPC SDK。
建立长期、富有成效的关系
Atos在尤利希超级计算中心(Jülich Supercomputing Center)建造了欧洲首批采用NVIDIA Ampere架构的超级计算机之一——JUWELS Booster。该计算机通过3744个NVIDIA A100 Tensor Core GPU提供2.5百亿亿次级混合精度AI性能。
为了更深入地了解气候变化,Atos和NVIDIA的研究人员将在该系统上运行各种AI模型。该系统目前在全球最快超级计算机排行榜TOP500上排名第8。尤利希中心的研究人员在4月使用该系统进行了先进的量子线路模拟。
Atos在去年主导了BerzeLiUs的部署工作。这台瑞典最大的超级计算机建立在 NVIDIA DGX SuperPOD基础之上。公司还在欧洲、印度和南美提供基于NVIDIA DGX系统的超级计算基础架构。
目前,Atos正在为意大利大学财团CINECA建造一台名为Leonardo的超级计算机。这台计算机将包含14000个NVIDIA A100 GPU并采用NVIDIA Quantum InfiniBand网络平台。Leonardo预计将成为全球最快的AI超级计算机,能够达到10百亿亿次级混合精度AI性能。
随着BullSequana XH3000的发布,Atos和NVIDIA之间的合作必将产生更多的成果。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。