HPE和Nvidia已经加强了合作伙伴关系,新增了服务器刀片、GPU支持、对HPE一体化私有AI套件的增强,以及针对AI工作负载不断增长的企业客户的服务。
在Nvidia的GTC活动上,相当一部分与HPE相关的新闻都针对AI工作负载的高端领域,并面向服务提供商和新云运营商。例如,HPE宣布了其Nvidia Vera Rubin NVL72机架级系统,据称该系统能够支持超过1万亿个AI参数。此外,两家公司还宣布了用于HPE Cray超级计算机GX5000的新型GX240液冷计算刀片。
针对企业客户,HPE增强了其私有云AI套件,该套件将Nvidia GPU、网络和软件与HPE的AI内存、计算和GreenLake云支持相集成。此外,HPE已将其网络扩展机架从当前的64个GPU扩展到最多128个GPU,使客户能够运行更大、要求更高的AI工作负载。
HPE私有云AI提供了预配置的硬件和软件堆栈,配备最新的Nvidia AI Enterprise软件和蓝图。它现在包括用于智能体的更新Nvidia AI-Q蓝图和刚刚发布的用于数字孪生的Nvidia Omniverse蓝图。最新的Nvidia AI-Q蓝图使开发人员能够构建他们拥有、检查和控制的可定制智能体。
HPE私有云AI的其他新功能包括:
适用于隔离或主权部署的空气隔离配置
HPE ProLiant计算DL380a Gen12服务器和基于DL380a的HPE私有云AI系统正在获得Fortanix机密AI认证,这是一个使用Nvidia机密计算的联合产品,能够为AI模型的安全本地部署和敏感数据处理提供支持,而不会泄露。
最新的HPE ProLiant服务器和HPE AI工厂现在支持最新的Nvidia Nemotron开放模型,以简化安全、本地和主权基础设施的部署。
作为套件一部分,现在提供对Nvidia RTX Pro 6000 Blackwell服务器GPU的支持。Nvidia的RTX Pro 6000 Blackwell服务器版GPU现在将在HPE AI工厂配置中标准化,RTX Pro 4500 Blackwell服务器版GPU将在其他针对边缘部署、小型语言模型等的ProLiant服务器型号中提供。
在高端市场,HPE推出了首批Nvidia Vera CPU系统之一,即Nvidia Vera Rubin NVL72机架级系统。这一旗舰AI系统专为超过1万亿参数的前沿级模型而设计。它配备36个Nvidia Vera CPU、72个Nvidia Rubin GPU、第六代NVLink扩展网络支持,以及ConnectX-9 SuperNIC和BlueField-4 DPU,并集成了HPE的液冷技术。
此外,该公司还宣布了用于其GX5000平台的HPE Cray超级计算GX240液冷计算刀片。GX240从每个刀片16个Nvidia Vera CPU开始,可扩展到每个机架40个刀片,支持每个机架最多640个Nvidia Vera CPU和56320个ARM核心。
此外,HPE表示,专为大规模系统连接优化的新网络连接—Nvidia Quantum-X800 InfiniBand—现在可与HPE Cray超级计算GX5000一起使用。Quantum-X800 InfiniBand交换机提供144个端口,每个端口800 Gb/s的连接速度,并具有电源效率功能。
该供应商还推出了HPE计算XD700,这是一款基于Nvidia HGX Rubin NVL8构建的AI服务器。该系统旨在提供更高的每机架GPU密度,减少空间、功耗和冷却成本,同时提高AI训练和推理吞吐量。根据HPE的说明,每个XD700服务器机架支持多达128个Rubin GPU,与上一代相比,GPU密度翻倍。
在GTC开幕主题演讲中,Nvidia首席执行官Jensen Huang说:"Vera的到来正值AI的转折点。随着智能变得具有智能体特征—能够推理和行动—编排这些工作的系统的重要性得到了提升。CPU不再仅仅是支持模型,而是在驱动它。凭借突破性的性能和能效,Vera释放了思考更快、扩展更远的AI系统。"
Q&A
Q1:HPE私有云AI套件的主要特色是什么?
A:HPE私有云AI是一个预配置的硬件和软件堆栈,集成了Nvidia GPU、网络和软件与HPE的AI内存、计算和GreenLake云支持。它配备最新的Nvidia AI Enterprise软件和蓝图,包括用于智能体的AI-Q蓝图和用于数字孪生的Omniverse蓝图,能够扩展到最多128个GPU。
Q2:Nvidia Vera Rubin NVL72系统有什么特别之处?
A:Nvidia Vera Rubin NVL72是HPE推出的机架级AI系统,专为超过1万亿参数的前沿级模型设计。它配备36个Nvidia Vera CPU、72个Nvidia Rubin GPU、第六代NVLink扩展网络支持,以及ConnectX-9 SuperNIC和BlueField-4 DPU,并集成液冷技术。
Q3:HPE计算XD700服务器有什么优势?
A:HPE计算XD700是基于Nvidia HGX Rubin NVL8构建的AI服务器,设计目标是提供更高的每机架GPU密度,减少空间、功耗和冷却成本,同时提高AI训练和推理吞吐量。每个XD700服务器机架支持多达128个Rubin GPU,与上一代相比GPU密度翻倍。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。