HPE和Nvidia已经加强了合作伙伴关系,新增了服务器刀片、GPU支持、对HPE一体化私有AI套件的增强,以及针对AI工作负载不断增长的企业客户的服务。
在Nvidia的GTC活动上,相当一部分与HPE相关的新闻都针对AI工作负载的高端领域,并面向服务提供商和新云运营商。例如,HPE宣布了其Nvidia Vera Rubin NVL72机架级系统,据称该系统能够支持超过1万亿个AI参数。此外,两家公司还宣布了用于HPE Cray超级计算机GX5000的新型GX240液冷计算刀片。
针对企业客户,HPE增强了其私有云AI套件,该套件将Nvidia GPU、网络和软件与HPE的AI内存、计算和GreenLake云支持相集成。此外,HPE已将其网络扩展机架从当前的64个GPU扩展到最多128个GPU,使客户能够运行更大、要求更高的AI工作负载。
HPE私有云AI提供了预配置的硬件和软件堆栈,配备最新的Nvidia AI Enterprise软件和蓝图。它现在包括用于智能体的更新Nvidia AI-Q蓝图和刚刚发布的用于数字孪生的Nvidia Omniverse蓝图。最新的Nvidia AI-Q蓝图使开发人员能够构建他们拥有、检查和控制的可定制智能体。
HPE私有云AI的其他新功能包括:
适用于隔离或主权部署的空气隔离配置
HPE ProLiant计算DL380a Gen12服务器和基于DL380a的HPE私有云AI系统正在获得Fortanix机密AI认证,这是一个使用Nvidia机密计算的联合产品,能够为AI模型的安全本地部署和敏感数据处理提供支持,而不会泄露。
最新的HPE ProLiant服务器和HPE AI工厂现在支持最新的Nvidia Nemotron开放模型,以简化安全、本地和主权基础设施的部署。
作为套件一部分,现在提供对Nvidia RTX Pro 6000 Blackwell服务器GPU的支持。Nvidia的RTX Pro 6000 Blackwell服务器版GPU现在将在HPE AI工厂配置中标准化,RTX Pro 4500 Blackwell服务器版GPU将在其他针对边缘部署、小型语言模型等的ProLiant服务器型号中提供。
在高端市场,HPE推出了首批Nvidia Vera CPU系统之一,即Nvidia Vera Rubin NVL72机架级系统。这一旗舰AI系统专为超过1万亿参数的前沿级模型而设计。它配备36个Nvidia Vera CPU、72个Nvidia Rubin GPU、第六代NVLink扩展网络支持,以及ConnectX-9 SuperNIC和BlueField-4 DPU,并集成了HPE的液冷技术。
此外,该公司还宣布了用于其GX5000平台的HPE Cray超级计算GX240液冷计算刀片。GX240从每个刀片16个Nvidia Vera CPU开始,可扩展到每个机架40个刀片,支持每个机架最多640个Nvidia Vera CPU和56320个ARM核心。
此外,HPE表示,专为大规模系统连接优化的新网络连接—Nvidia Quantum-X800 InfiniBand—现在可与HPE Cray超级计算GX5000一起使用。Quantum-X800 InfiniBand交换机提供144个端口,每个端口800 Gb/s的连接速度,并具有电源效率功能。
该供应商还推出了HPE计算XD700,这是一款基于Nvidia HGX Rubin NVL8构建的AI服务器。该系统旨在提供更高的每机架GPU密度,减少空间、功耗和冷却成本,同时提高AI训练和推理吞吐量。根据HPE的说明,每个XD700服务器机架支持多达128个Rubin GPU,与上一代相比,GPU密度翻倍。
在GTC开幕主题演讲中,Nvidia首席执行官Jensen Huang说:"Vera的到来正值AI的转折点。随着智能变得具有智能体特征—能够推理和行动—编排这些工作的系统的重要性得到了提升。CPU不再仅仅是支持模型,而是在驱动它。凭借突破性的性能和能效,Vera释放了思考更快、扩展更远的AI系统。"
Q&A
Q1:HPE私有云AI套件的主要特色是什么?
A:HPE私有云AI是一个预配置的硬件和软件堆栈,集成了Nvidia GPU、网络和软件与HPE的AI内存、计算和GreenLake云支持。它配备最新的Nvidia AI Enterprise软件和蓝图,包括用于智能体的AI-Q蓝图和用于数字孪生的Omniverse蓝图,能够扩展到最多128个GPU。
Q2:Nvidia Vera Rubin NVL72系统有什么特别之处?
A:Nvidia Vera Rubin NVL72是HPE推出的机架级AI系统,专为超过1万亿参数的前沿级模型设计。它配备36个Nvidia Vera CPU、72个Nvidia Rubin GPU、第六代NVLink扩展网络支持,以及ConnectX-9 SuperNIC和BlueField-4 DPU,并集成液冷技术。
Q3:HPE计算XD700服务器有什么优势?
A:HPE计算XD700是基于Nvidia HGX Rubin NVL8构建的AI服务器,设计目标是提供更高的每机架GPU密度,减少空间、功耗和冷却成本,同时提高AI训练和推理吞吐量。每个XD700服务器机架支持多达128个Rubin GPU,与上一代相比GPU密度翻倍。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。