源讯、戴尔科技,技嘉科技、慧与、浪潮、联想和超微成为首批将基于NVIDIA Grace的HGX系统用于HPC和AI的制造商
NVIDIA于今日宣布,多家全球领先的计算机制造商正在采用全新NVIDIA Grace™超级芯片打造新一代服务器,为超大规模时代的AI和HPC工作负载提速。
源讯、戴尔科技,技嘉科技、慧与、浪潮、联想和超微计划部署基于NVIDIA Grace CPU 超级芯片和NVIDIA Grace Hopper™超级芯片的服务器。
所有这些新系统都得益于刚刚发布的NVIDIA HGXTM平台中的Grace和Grace Hopper设计。制造商根据这些设计所提供的蓝图,能够构建出可以提供最高性能,并且内存带宽和能效两倍于当今领先的数据中心CPU的系统。
NVIDIA超大规模和HPC副总裁Ian Buck表示:“超级计算已进入到超大规模AI时代。NVIDIA正与OEM合作伙伴一道助力研究者攻克此前无法解决的巨大挑战。从气候科学、能源研究、太空探索、数字生物学到量子计算等领域,NVIDIA Grace CPU超级芯片和Grace Hopper超级芯片为全球最先进的HPC和AI平台奠定了基础。”
早期采用者引领创新
美国和欧洲的领先超级计算中心都将率先采用这两款超级芯片。
洛斯阿拉莫斯国家实验室(LANL)于今日宣布,其新一代系统Venado将成为美国首个采用NVIDIA Grace CPU技术的系统。Venado是使用HPE Cray EX超级计算机构建而成的异构系统,同时将配备Grace CPU超级芯片节点和Grace Hopper超级芯片节点,满足各类新兴应用需求。该系统建成后的AI性能预计将超过10 exaflops。
LANL模拟和计算副总监Irene Qualters表示:“借助NVIDIA Grade Hopper强大性能的支撑,Venado将帮助LANL研究人员继续履行自身的承诺,即在科学领域取得新突破。NVIDIA的加速计算平台和广阔的生态系统能够解决性能瓶颈,助力LANL开展有望造福整个国家和社会的新研究。”
瑞士国家计算中心的新系统Alps同样由慧与基于HPE Cray EX超级计算机而构建。该系统将使用Grace CPU超级芯片,以支持众多领域的开创性研究。Alps将作为一个通用系统,向瑞士及其他国家的研究者开放。
NVIDIA Grace为计算密集型工作负载提速
NVIDIA Grace CPU超级芯片搭载两个基于Arm®的CPU,它们通过高带宽、低延迟、低功耗的NVIDIA NVLink®-C2C互连技术连接。这项开创性的设计内置多达144个高性能Arm Neoverse核心,并且带有可伸缩矢量扩展和1 TB/s的内存子系统。
Grace CPU超级芯片支持最新的PCIe Gen5协议,可实现与GPU之间最高性能连接,同时还能连接NVIDIA ConnectX®-7智能网卡以及NVIDIA BlueField®-3 DPU以保障HPC及AI工作负载安全。
Grace Hopper超级芯片在一个集成模块中通过NVLink-C2C连接NVIDIA Hopper GPU与NVIDIA Grace CPU,满足HPC和超大规模AI应用需求。
基于NVIDIA Grace的系统将运行NVIDIA AI和NVIDIA HPC软件产品组合,实现全栈式集成计算。
好文章,需要你的鼓励
伊斯法罕大学研究团队通过分析Google Play商店21款AI教育应用的用户评论,发现作业辅导类应用获得超80%正面评价,而语言学习和管理系统类应用表现较差。用户赞赏AI工具的快速响应和个性化指导,但抱怨收费过高、准确性不稳定等问题。研究建议开发者关注自适应个性化,政策制定者建立相关规范,未来发展方向为混合AI-人类模型。
谷歌发布基于Gemini 3的快速低成本模型Flash,并将其设为Gemini应用和AI搜索的默认模型。新模型在多项基准测试中表现优异,在MMMU-Pro多模态推理测试中得分81.2%超越所有竞品。该模型已向全球用户开放,并通过Vertex AI和API向企业及开发者提供服务。定价为每百万输入token 0.5美元,输出token 3美元,速度比2.5 Pro快三倍且更节省token用量。
这项由伊利诺伊大学香槟分校等四所院校联合完成的研究,提出了名为DaSH的层次化数据选择方法。该方法突破了传统数据选择只关注单个样本的局限,通过建模数据的天然层次结构,实现了更智能高效的数据集选择。在两个公开基准测试中,DaSH相比现有方法提升了高达26.2%的准确率,同时大幅减少了所需的探索步数。