为了在人工智能和高性能计算领域保持领先水平,Nvidia在本周二晚些时候推出了一个新的计算架构,并声称将统一人工智能和高性能计算这两个快速增长的领域。
Nvidia公司首席执行官黄仁勋在台湾台北举行的GPU Technology Conference(GTC)大会上宣布推出了HGX-2云服务器平台(如图所示),针对很多结合了人工智能和高性能计算的新应用。
“我们相信未来需要一个统一的平台用于人工智能和高性能计算,”Nvidia加速计算部产品营销经理Paresh Kharya在周二的新闻发布会上这样表示。
其他人表示认同。“我认为人工智能将使高性能计算发生革命性的变化,”Moor Insights&Strategy高级分析师Karl Freund这样表示。“我估计很多超级计算中心都会部署HGX2,因为它可以为高性能计算和人工智能增加巨大的计算能力。”
更具体地说,这种新的架构可以实现包括科学计算和模拟(如天气预报)在内的各种应用,以及人工智能模型(如深度学习神经网络)的训练和运行,用于诸如图像和语音识别以及自驾汽车导航等任务。Kharya说:“这些模型正在以前所未有的速度更新,”有时甚至是每小时更新一次。
由Nvidia GPU提供动力的HGX架构是一种数据中心设备,用于微软的Project Olympus项目、Facebook的Big Basin系统、Nvidia自己的DGX-1 AI超级计算机、以及公有云计算领导者AWS的服务中。该架构的第一个版本HGX-1是在一年前推出的。
HGX-2包含16个Nvidia高端V100 GPU,为计算机制造商提供了打造系统的基本构建块。Nvidia表示,使用Nvidia NVLink芯片互连系统让这16个GPU看起来就像一个整体,提供2 petaflops的浮点运算性能。
“基本上你可以将HGX用作16个GPU组成的池,就像是一个非常大的计算资源,”Freund解释说。
Nvidia也表示,最近推出的DGX-2 AI超级计算机是第一个使用HGX-2的系统。它将在第三季度销售,售价为399,000美元。黄仁勋在主题演讲中开玩笑说,它有“很大的价值”。
Nvidia已经打造了三类服务器,这些服务器将CPU与GPU混合用于人工智能训练、人工智能推理、模型运行、以及超级计算的优化配置。
Kharya将HGX架构定位为类似于英特尔和微软开发的ATX个人电脑主板配置标准,后者导致许多公司制造兼容系统组件的爆炸式增长。
周二宣布计划推出支持HGX-2的服务器制造商包括联想、QTC、超微、Wiwynn公司。另外,所ODM厂商商鸿海精密工业公司(Foxconn)、英业达(Inventec)、广达电脑(Quanta Computer)和纬创公司(Wistron),全球一些最大的云数据中心都在使用他们的系统。他们称将在今年晚些时候推出HGX-2系统。
与此同时,英特尔正加紧扩大在人工智能计算方面的业务,上周预览了一款新型芯片,预计在2019年晚些时候发布该芯片。英特尔表示,该芯片旨在更快地构建人工智能模型。英特尔人工智能集团负责人Naveen Rao抨击了Nvidia,称关于GPU比英特尔最新至强处理器快得多的说法是一个“神话”。
好文章,需要你的鼓励
香港中文大学与华为诺亚方舟实验室合作开发了PreMoe框架,解决了大型混合专家模型(MoE)在内存受限设备上的部署难题。研究团队发现MoE模型中的专家表现出明显的任务专业化特征,据此提出了概率专家精简(PEP)和任务自适应专家检索(TAER)两大核心技术。实验证明,DeepSeek-R1 671B模型在精简50%专家后仍保持97.2%的MATH500准确率,内存需求降至688GB;而更激进的精简方案(减少87.5%专家)也能保持72.0%的准确率。该方法适用于多种MoE架构,为强大AI系统的广泛部署铺平了道路。
SCIENCEBOARD是一项开创性研究,旨在评估多模态自主智能体在真实科学工作流中的表现。研究团队构建了一个包含169个高质量任务的基准测试,涵盖生物化学、天文学等六个科学领域,并开发了一个真实环境让智能体通过CLI或GUI接口与科学软件交互。实验评估表明,即使是最先进的模型在这些复杂科学任务上的成功率也仅为15%,远低于人类表现,揭示了当前技术的局限性并为未来科学智能体的发展提供了宝贵见解。
帝国理工学院的研究团队开发了AlphaMed,这是首个仅通过极简规则强化学习就能培养医疗推理能力的AI模型,无需依赖传统的思维链示范数据。通过分析数据信息丰富度和难度分布的影响,研究发现高信息量的医疗问答数据是推理能力的关键驱动因素。AlphaMed在六个医疗问答基准上取得了领先成绩,甚至超越了更大的封闭源模型,同时展现出自发的步骤推理能力,为医疗AI发展提供了更加开放、高效的新路径。
Alita是一种新型通用AI代理系统,采用极简设计理念,以"最小预定义,最大自我进化"为原则构建。由普林斯顿大学等多家机构研究团队开发的Alita,只配备一个核心能力和少量通用模块,能自主创建所需工具并重用为模型上下文协议(MCPs)。实验显示,Alita在GAIA基准测试上达到87.27%的通过率,超越包括OpenAI Deep Research在内的复杂系统,证明简约设计可带来卓越性能。