DiRAC选择基于NVIDIA HDR InfiniBand 互连的 HGX平台加速其四大超算的科学研究
加利福尼亚州圣克拉拉——ISC——2021年6月28日——NVIDIA于今日宣布,其NVIDIA HGX™高性能计算平台将助力位于爱丁堡大学的 DiRAC 新一代超级计算机 —— Tursa。
Tursa超级计算机专为粒子物理计算进行了优化,是目前四台DiRAC新一代超级计算机中的第三台正式宣布将采用一或多个NVIDIA HGX平台技术进行加速,包括NVIDIA A100 Tensor Core GPU、NVIDIA HDR 200Gb/s InfiniBand网络和NVIDIA Magnum IO软件。最后一台DiRAC新一代超级计算机也将采用 NVIDIA InfiniBand网络。
研究人员能够使用Tursa对亚原子粒子的特性进行超高精度的计算,从而解析来自大型强子对撞机等大规模粒子物理学实验的数据。
NVIDIA网络事业部高级副总裁Gilad Shainer表示:“DiRAC正在帮助研究人员解开宇宙的奥秘。我们正在与DiRAC合作,充分利用NVIDIA GPU、DPU和InfiniBand网络计算加速引擎的顶尖性能加速前沿科学探索中的广泛应用。”
爱丁堡大学理论物理教授Luigi Del Debbio 表示:“Tursa将被用于挑战特殊的的研究领域,为科学建模和模拟开辟新的可能性。NVIDIA加速计算平台通过精确平衡网络带宽和每秒浮点计算次数,满足了我们研究所需要的超高性能的需求,并通过超大规模的服务能力推动新的研究。”
由Atos建造的Tursa超级计算机计划于今年投入运行,其将配备总共448个NVIDIA A100 Tensor Core GPU,并且每个节点带有4个NVIDIA HDR 200Gb/s InfiniBand网卡。加上NVIDIA Magnum IO GPUDirect RDMA技术,它能为使用晶格量子色动力学(LQCD - Lattice Quantum ChromoDynamics)的超大规模科学计算应用提供最高级别的节点间带宽和可扩展性。
DiRAC是英国面向天文学、宇宙学、粒子物理学及核物理学的理论建模和高性能计算(HPC)研究的综合超级计算系统管理机构,由其运营的各超算系统分别部署于剑桥大学、杜伦大学、爱丁堡大学和莱斯特大学。
剑桥大学的CSD3和杜伦大学的COSMA-8
NVIDIA 在2021年GTC大会上宣布,剑桥大学的面向数据驱动型研究的CSD3系统,将在全新的、每秒4千万亿次级浮点计算能力的Dell-EMC系统的加持下性能进一步增强,这套系统配备NVIDIA HGX A100 GPU、NVIDIA BlueField DPU和NVIDIA HDR 200Gb/s InfiniBand网络,将为英国国家科研界的各个领域提供安全的、多租户的、裸金属性能的HPC、AI和数据分析服务。预计CSD3将跻身世界超级计算机500强榜单。DiRAC在剑桥大学的数据密集型服务是CSD3系统的一部分。
NVIDIA 还在2021年GTC大会上宣布了英国杜伦大学的全新COSMA-8超级计算机,将基于戴尔的技术并由NVIDIA HDR 200Gb/s InfiniBand网络提供加速。这台超级计算机将被在英国的世界顶级宇宙学家们用于研究宇宙的起源。
关于位于莱斯特大学的第四个系统的更多细节,预计将在今年晚些时候公布。
好文章,需要你的鼓励
埃森哲投资AI零售平台Profitmind,该平台通过智能代理自动化定价决策、库存管理和规划。研究显示AI驱动了2025年假日购物季20%的消费,约2620亿美元。部署AI代理的企业假日销售同比增长6.2%,而未部署的仅增长3.9%。Profitmind实时监控竞争对手价格和营销策略,并可创建生成式引擎优化产品文案。
上海AI实验室联合团队开发RoboVIP系统,通过视觉身份提示技术解决机器人训练数据稀缺问题。该系统能生成多视角、时间连贯的机器人操作视频,利用夹爪状态信号精确识别交互物体,构建百万级视觉身份数据库。实验显示,RoboVIP显著提升机器人在复杂环境中的操作成功率,为机器人智能化发展提供重要技术突破。
日立公司在CES 2026技术展上宣布了重新定义人工智能未来的"里程碑式"战略,将AI直接应用于关键物理基础设施。该公司与英伟达、谷歌云建立重要合作伙伴关系,并扩展其数字资产管理平台HMAX,旨在将AI引入社会基础设施,变革能源、交通和工业基础设施领域。日立强调其独特地位,能够将AI集成到直接影响社会的系统中,解决可持续发展、安全和效率方面的紧迫挑战。
英伟达研究团队提出GDPO方法,解决AI多目标训练中的"奖励信号坍缩"问题。该方法通过分别评估各技能再综合考量,避免了传统GRPO方法简单相加导致的信息丢失。在工具调用、数学推理、代码编程三大场景测试中,GDPO均显著优于传统方法,准确率提升最高达6.3%,且训练过程更稳定。该技术已开源并支持主流AI框架。