HPE与Nvidia扩大AI合作伙伴关系

HPE和英伟达深化合作,推出新服务器刀片、GPU支持、私有AI解决方案增强功能和面向企业客户的服务。新品包括支持超过1万亿AI参数的Nvidia Vera Rubin NVL72机架系统、GX240液冷计算刀片等。HPE私有云AI套装新增气隙配置、RTX Pro 6000 Blackwell GPU支持和最新Nvidia AI-Q蓝图。

HPE和Nvidia已经加强了合作伙伴关系,新增了服务器刀片、GPU支持、对HPE一体化私有AI套件的增强,以及针对AI工作负载不断增长的企业客户的服务。

在Nvidia的GTC活动上,相当一部分与HPE相关的新闻都针对AI工作负载的高端领域,并面向服务提供商和新云运营商。例如,HPE宣布了其Nvidia Vera Rubin NVL72机架级系统,据称该系统能够支持超过1万亿个AI参数。此外,两家公司还宣布了用于HPE Cray超级计算机GX5000的新型GX240液冷计算刀片。

针对企业客户,HPE增强了其私有云AI套件,该套件将Nvidia GPU、网络和软件与HPE的AI内存、计算和GreenLake云支持相集成。此外,HPE已将其网络扩展机架从当前的64个GPU扩展到最多128个GPU,使客户能够运行更大、要求更高的AI工作负载。

HPE私有云AI提供了预配置的硬件和软件堆栈,配备最新的Nvidia AI Enterprise软件和蓝图。它现在包括用于智能体的更新Nvidia AI-Q蓝图和刚刚发布的用于数字孪生的Nvidia Omniverse蓝图。最新的Nvidia AI-Q蓝图使开发人员能够构建他们拥有、检查和控制的可定制智能体。

HPE私有云AI的其他新功能包括:

适用于隔离或主权部署的空气隔离配置

HPE ProLiant计算DL380a Gen12服务器和基于DL380a的HPE私有云AI系统正在获得Fortanix机密AI认证,这是一个使用Nvidia机密计算的联合产品,能够为AI模型的安全本地部署和敏感数据处理提供支持,而不会泄露。

最新的HPE ProLiant服务器和HPE AI工厂现在支持最新的Nvidia Nemotron开放模型,以简化安全、本地和主权基础设施的部署。

作为套件一部分,现在提供对Nvidia RTX Pro 6000 Blackwell服务器GPU的支持。Nvidia的RTX Pro 6000 Blackwell服务器版GPU现在将在HPE AI工厂配置中标准化,RTX Pro 4500 Blackwell服务器版GPU将在其他针对边缘部署、小型语言模型等的ProLiant服务器型号中提供。

在高端市场,HPE推出了首批Nvidia Vera CPU系统之一,即Nvidia Vera Rubin NVL72机架级系统。这一旗舰AI系统专为超过1万亿参数的前沿级模型而设计。它配备36个Nvidia Vera CPU、72个Nvidia Rubin GPU、第六代NVLink扩展网络支持,以及ConnectX-9 SuperNIC和BlueField-4 DPU,并集成了HPE的液冷技术。

此外,该公司还宣布了用于其GX5000平台的HPE Cray超级计算GX240液冷计算刀片。GX240从每个刀片16个Nvidia Vera CPU开始,可扩展到每个机架40个刀片,支持每个机架最多640个Nvidia Vera CPU和56320个ARM核心。

此外,HPE表示,专为大规模系统连接优化的新网络连接—Nvidia Quantum-X800 InfiniBand—现在可与HPE Cray超级计算GX5000一起使用。Quantum-X800 InfiniBand交换机提供144个端口,每个端口800 Gb/s的连接速度,并具有电源效率功能。

该供应商还推出了HPE计算XD700,这是一款基于Nvidia HGX Rubin NVL8构建的AI服务器。该系统旨在提供更高的每机架GPU密度,减少空间、功耗和冷却成本,同时提高AI训练和推理吞吐量。根据HPE的说明,每个XD700服务器机架支持多达128个Rubin GPU,与上一代相比,GPU密度翻倍。

在GTC开幕主题演讲中,Nvidia首席执行官Jensen Huang说:"Vera的到来正值AI的转折点。随着智能变得具有智能体特征—能够推理和行动—编排这些工作的系统的重要性得到了提升。CPU不再仅仅是支持模型,而是在驱动它。凭借突破性的性能和能效,Vera释放了思考更快、扩展更远的AI系统。"

Q&A

Q1:HPE私有云AI套件的主要特色是什么?

A:HPE私有云AI是一个预配置的硬件和软件堆栈,集成了Nvidia GPU、网络和软件与HPE的AI内存、计算和GreenLake云支持。它配备最新的Nvidia AI Enterprise软件和蓝图,包括用于智能体的AI-Q蓝图和用于数字孪生的Omniverse蓝图,能够扩展到最多128个GPU。

Q2:Nvidia Vera Rubin NVL72系统有什么特别之处?

A:Nvidia Vera Rubin NVL72是HPE推出的机架级AI系统,专为超过1万亿参数的前沿级模型设计。它配备36个Nvidia Vera CPU、72个Nvidia Rubin GPU、第六代NVLink扩展网络支持,以及ConnectX-9 SuperNIC和BlueField-4 DPU,并集成液冷技术。

Q3:HPE计算XD700服务器有什么优势?

A:HPE计算XD700是基于Nvidia HGX Rubin NVL8构建的AI服务器,设计目标是提供更高的每机架GPU密度,减少空间、功耗和冷却成本,同时提高AI训练和推理吞吐量。每个XD700服务器机架支持多达128个Rubin GPU,与上一代相比GPU密度翻倍。

来源:Networkworld

0赞

好文章,需要你的鼓励

2026

03/18

17:26

分享

点赞

邮件订阅