源讯、戴尔科技,技嘉科技、慧与、浪潮、联想和超微成为首批将基于NVIDIA Grace的HGX系统用于HPC和AI的制造商
NVIDIA于今日宣布,多家全球领先的计算机制造商正在采用全新NVIDIA Grace™超级芯片打造新一代服务器,为超大规模时代的AI和HPC工作负载提速。
源讯、戴尔科技,技嘉科技、慧与、浪潮、联想和超微计划部署基于NVIDIA Grace CPU 超级芯片和NVIDIA Grace Hopper™超级芯片的服务器。
所有这些新系统都得益于刚刚发布的NVIDIA HGXTM平台中的Grace和Grace Hopper设计。制造商根据这些设计所提供的蓝图,能够构建出可以提供最高性能,并且内存带宽和能效两倍于当今领先的数据中心CPU的系统。
NVIDIA超大规模和HPC副总裁Ian Buck表示:“超级计算已进入到超大规模AI时代。NVIDIA正与OEM合作伙伴一道助力研究者攻克此前无法解决的巨大挑战。从气候科学、能源研究、太空探索、数字生物学到量子计算等领域,NVIDIA Grace CPU超级芯片和Grace Hopper超级芯片为全球最先进的HPC和AI平台奠定了基础。”
早期采用者引领创新
美国和欧洲的领先超级计算中心都将率先采用这两款超级芯片。
洛斯阿拉莫斯国家实验室(LANL)于今日宣布,其新一代系统Venado将成为美国首个采用NVIDIA Grace CPU技术的系统。Venado是使用HPE Cray EX超级计算机构建而成的异构系统,同时将配备Grace CPU超级芯片节点和Grace Hopper超级芯片节点,满足各类新兴应用需求。该系统建成后的AI性能预计将超过10 exaflops。
LANL模拟和计算副总监Irene Qualters表示:“借助NVIDIA Grade Hopper强大性能的支撑,Venado将帮助LANL研究人员继续履行自身的承诺,即在科学领域取得新突破。NVIDIA的加速计算平台和广阔的生态系统能够解决性能瓶颈,助力LANL开展有望造福整个国家和社会的新研究。”
瑞士国家计算中心的新系统Alps同样由慧与基于HPE Cray EX超级计算机而构建。该系统将使用Grace CPU超级芯片,以支持众多领域的开创性研究。Alps将作为一个通用系统,向瑞士及其他国家的研究者开放。
NVIDIA Grace为计算密集型工作负载提速
NVIDIA Grace CPU超级芯片搭载两个基于Arm®的CPU,它们通过高带宽、低延迟、低功耗的NVIDIA NVLink®-C2C互连技术连接。这项开创性的设计内置多达144个高性能Arm Neoverse核心,并且带有可伸缩矢量扩展和1 TB/s的内存子系统。
Grace CPU超级芯片支持最新的PCIe Gen5协议,可实现与GPU之间最高性能连接,同时还能连接NVIDIA ConnectX®-7智能网卡以及NVIDIA BlueField®-3 DPU以保障HPC及AI工作负载安全。
Grace Hopper超级芯片在一个集成模块中通过NVLink-C2C连接NVIDIA Hopper GPU与NVIDIA Grace CPU,满足HPC和超大规模AI应用需求。
基于NVIDIA Grace的系统将运行NVIDIA AI和NVIDIA HPC软件产品组合,实现全栈式集成计算。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。