至顶网服务器频道 11月20日 新闻消息: 近日,浪潮中标华中师范大学,将为其设计建造基于"NVLink+Volta"的千万亿次超级计算机,加速物理前沿科学和自动驾驶AI技术研究。
华中师范大学
这套系统将采用18套浪潮AGX-2超算服务器作为计算节点,配置144块Nvidia最新支持NvLink 2.0的Volta架构V100芯片,采用最新的Intel Xeon SP (Skylake)处理器,通过Mellanox EDR Infiniband网络进行高速互联,运行浪潮ClusterEngine及AIStation等集群管理套件,系统双精度浮点性能超过千万亿次每秒(1PetaFlops)。由于采用了NVLink2.0高速互联技术和Tesla? V100 GPU,该系统将可同时很好支持科学工程计算和AI计算。
浪潮AGX-2超算服务器
浪潮AGX-2是全球首款在2U空间内高速互联集成8颗最高性能GPU的服务器,在2U空间内支持部署8块NVLink 2.0接口的NVIDIA Tesla? V100 GPU,GPU间单向互联带宽高达150GB/s,总带宽达300GB/s。同时, AGX-2具备良好的I/O扩展能力,提供8块NVMe/SAS/SATA热插拔硬盘,可支持最多4块100Gbps的EDR InfiniBand接口卡的高速集群互联,不仅支持通常的风冷散热方式,还可支持片上水冷以提供更高的计算能效比。
AGX-2可以极大提升HPC应用计算效率,其单机双精度浮点计算性能突破60万亿次每秒。以凝聚态物理学和材料科学领域广泛使用的VASP软件为例,在AGX2上使用1块P100 GPU加速卡,即可达到使用8台双路主流CPU计算集群的性能,同时,AGX2提供的Nvlink高通信带宽使其在多GPU卡并行效率上有出色表现,4块P100 GPU卡并行即可达到近20台双路主流CPU计算集群的性能。
在AI计算上,AGX-2搭载的Tesla V100 配备了深度学习高度相关的 Tensor 单元,Tensor 性能可以达到 120 TFLOPS,配合NVLink 2.0可极大提升深度学习框架的训练性能。基于国际通用的Imagenet数据集进行深度学习模型训练,浪潮AGX-2上表现出优异性能,配置8片V100时在TensorFlow框架的GoogleNet模型训练速度达到每秒1898张图片,是单卡性能的7倍,是同数量配置P100系统性能的1.87倍。
好文章,需要你的鼓励
香港中文大学与华为诺亚方舟实验室合作开发了PreMoe框架,解决了大型混合专家模型(MoE)在内存受限设备上的部署难题。研究团队发现MoE模型中的专家表现出明显的任务专业化特征,据此提出了概率专家精简(PEP)和任务自适应专家检索(TAER)两大核心技术。实验证明,DeepSeek-R1 671B模型在精简50%专家后仍保持97.2%的MATH500准确率,内存需求降至688GB;而更激进的精简方案(减少87.5%专家)也能保持72.0%的准确率。该方法适用于多种MoE架构,为强大AI系统的广泛部署铺平了道路。
SCIENCEBOARD是一项开创性研究,旨在评估多模态自主智能体在真实科学工作流中的表现。研究团队构建了一个包含169个高质量任务的基准测试,涵盖生物化学、天文学等六个科学领域,并开发了一个真实环境让智能体通过CLI或GUI接口与科学软件交互。实验评估表明,即使是最先进的模型在这些复杂科学任务上的成功率也仅为15%,远低于人类表现,揭示了当前技术的局限性并为未来科学智能体的发展提供了宝贵见解。
帝国理工学院的研究团队开发了AlphaMed,这是首个仅通过极简规则强化学习就能培养医疗推理能力的AI模型,无需依赖传统的思维链示范数据。通过分析数据信息丰富度和难度分布的影响,研究发现高信息量的医疗问答数据是推理能力的关键驱动因素。AlphaMed在六个医疗问答基准上取得了领先成绩,甚至超越了更大的封闭源模型,同时展现出自发的步骤推理能力,为医疗AI发展提供了更加开放、高效的新路径。
Alita是一种新型通用AI代理系统,采用极简设计理念,以"最小预定义,最大自我进化"为原则构建。由普林斯顿大学等多家机构研究团队开发的Alita,只配备一个核心能力和少量通用模块,能自主创建所需工具并重用为模型上下文协议(MCPs)。实验显示,Alita在GAIA基准测试上达到87.27%的通过率,超越包括OpenAI Deep Research在内的复杂系统,证明简约设计可带来卓越性能。