DiRAC选择基于NVIDIA HDR InfiniBand 互连的 HGX平台加速其四大超算的科学研究
加利福尼亚州圣克拉拉——ISC——2021年6月28日——NVIDIA于今日宣布,其NVIDIA HGX™高性能计算平台将助力位于爱丁堡大学的 DiRAC 新一代超级计算机 —— Tursa。
Tursa超级计算机专为粒子物理计算进行了优化,是目前四台DiRAC新一代超级计算机中的第三台正式宣布将采用一或多个NVIDIA HGX平台技术进行加速,包括NVIDIA A100 Tensor Core GPU、NVIDIA HDR 200Gb/s InfiniBand网络和NVIDIA Magnum IO软件。最后一台DiRAC新一代超级计算机也将采用 NVIDIA InfiniBand网络。
研究人员能够使用Tursa对亚原子粒子的特性进行超高精度的计算,从而解析来自大型强子对撞机等大规模粒子物理学实验的数据。
NVIDIA网络事业部高级副总裁Gilad Shainer表示:“DiRAC正在帮助研究人员解开宇宙的奥秘。我们正在与DiRAC合作,充分利用NVIDIA GPU、DPU和InfiniBand网络计算加速引擎的顶尖性能加速前沿科学探索中的广泛应用。”
爱丁堡大学理论物理教授Luigi Del Debbio 表示:“Tursa将被用于挑战特殊的的研究领域,为科学建模和模拟开辟新的可能性。NVIDIA加速计算平台通过精确平衡网络带宽和每秒浮点计算次数,满足了我们研究所需要的超高性能的需求,并通过超大规模的服务能力推动新的研究。”
由Atos建造的Tursa超级计算机计划于今年投入运行,其将配备总共448个NVIDIA A100 Tensor Core GPU,并且每个节点带有4个NVIDIA HDR 200Gb/s InfiniBand网卡。加上NVIDIA Magnum IO GPUDirect RDMA技术,它能为使用晶格量子色动力学(LQCD - Lattice Quantum ChromoDynamics)的超大规模科学计算应用提供最高级别的节点间带宽和可扩展性。
DiRAC是英国面向天文学、宇宙学、粒子物理学及核物理学的理论建模和高性能计算(HPC)研究的综合超级计算系统管理机构,由其运营的各超算系统分别部署于剑桥大学、杜伦大学、爱丁堡大学和莱斯特大学。
剑桥大学的CSD3和杜伦大学的COSMA-8
NVIDIA 在2021年GTC大会上宣布,剑桥大学的面向数据驱动型研究的CSD3系统,将在全新的、每秒4千万亿次级浮点计算能力的Dell-EMC系统的加持下性能进一步增强,这套系统配备NVIDIA HGX A100 GPU、NVIDIA BlueField DPU和NVIDIA HDR 200Gb/s InfiniBand网络,将为英国国家科研界的各个领域提供安全的、多租户的、裸金属性能的HPC、AI和数据分析服务。预计CSD3将跻身世界超级计算机500强榜单。DiRAC在剑桥大学的数据密集型服务是CSD3系统的一部分。
NVIDIA 还在2021年GTC大会上宣布了英国杜伦大学的全新COSMA-8超级计算机,将基于戴尔的技术并由NVIDIA HDR 200Gb/s InfiniBand网络提供加速。这台超级计算机将被在英国的世界顶级宇宙学家们用于研究宇宙的起源。
关于位于莱斯特大学的第四个系统的更多细节,预计将在今年晚些时候公布。
好文章,需要你的鼓励
北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。
普拉大学研究团队开发的BPMN助手系统利用大语言模型技术,通过创新的JSON中间表示方法,实现了自然语言到标准BPMN流程图的自动转换。该系统不仅在生成速度上比传统XML方法快一倍,在流程编辑成功率上也有显著提升,为降低业务流程建模的技术门槛提供了有效解决方案。
谷歌宣布已将约3万个生产软件包移植到Arm架构,计划全面转换以便在自研Axion芯片和x86处理器上运行工作负载。YouTube、Gmail和BigQuery等服务已在x86和Axion Arm CPU上运行。谷歌开发了名为CogniPort的AI工具协助迁移,成功率约30%。公司声称Axion服务器相比x86实例具有65%的性价比优势和60%的能效提升。
北京大学联合团队发布开源统一视频模型UniVid,首次实现AI同时理解和生成视频。该模型采用创新的温度模态对齐技术和金字塔反思机制,在权威测试中超越现有最佳系统,视频生成质量提升2.2%,问答准确率分别提升1.0%和3.3%。这项突破为视频AI应用开辟新前景。