HPE成为加入Nvidia阵营的最近一家系统制造商,于近日宣布推出一系列针对AI优化的联合开发系统,以及针对生成式AI的联合销售和营销集成。

近日在美国拉斯维加斯举行的HPE Discover大会上,HPE表示,这些打包系统可以将AI工程师、数据科学家和运营团队的生产力提高高达90%。
HPE Private Cloud AI具有Nvidia AI计算、网络和软件,以及HPE通过GreenLake云提供的AI专用存储和计算产品的深度集成。GreenLake是一系列云和即服务选项,旨在提供类似云的功能,不管IT基础设施如何,都采用按需付费的定价方式。
该产品由用于IT运营的全新OpsRamp AI Copilot提供支持,有四种配置以支持各种AI工作负载。
HPE Private Cloud AI支持使用专有数据进行推理、微调和检索自动生成工作负载,将数据隐私、安全性、透明度、治理控制与ITOps以及AIOps功能相结合。
AIOps使用机器学习和数据分析来自动化和改进IT运营任务。ITOps包含了一系列活动,可确保组织的IT基础设施顺利运行。
基于Nvidia AI Enterprise而构建
AI和数据软件堆栈的基础是Nvidia AI Enterprise软件平台和推理微服务。Nvidia AI Enterprise旨在快速开发和部署Copilot以及其他生成式AI应用。NIM是一组用于优化AI模型推理的微服务。
HPE AI Essentials软件则是一组精选的AI和数据基础工具,具有统一的控制平面,可适用于各种用途。HPE表示,该工具中包含了企业支持和AI服务,例如数据和模型合规性,具有可扩展功能,可确保AI管道合规、可解释和可重现。
HPE首席技术官Fidelma Russo表示:“它已经准备好启动了,你只需将其插入,连接到云,三次点击后即可启动并运行起来。”
HPE将该软件包称为AI模型训练和云中RAG的本地替代方案。“我们的目标市场是那些希望转向AI,并且意识到在云中运行这些模型会压垮预算的企业,”HPE高级副总裁、高性能计算和AI业务总经理Neil MacDonald这样表示。
Russo称,在本地部署AI推理,“在保持数据私密的同时,对于推理工作负载而言,成本效益是原来的四到五倍。”
基础设施堆栈中包括了Nvidia Spectrum-X以太网网络、HPE GreenLake文件存储和HPE ProLiant服务器,支持Nvidia L40S、Nvidia H100 NVL Tensor Core GPU以及Nvidia GH200 NVL2机架级平台。
四种配置
该产品基于ProLiant处理器提供了四种配置,从小型到超大型不等,每种配置都是模块化且可扩展的。
HPE表示,未来将支持Nvidia GB200 NVL72/NVL2以及新的Nvidia Blackwell、Rubin和Vera架构。
Greenlake为混合环境中的端点、工作负载和数据提供了管理服务和可观察性服务。OpsRamp为整个Nvidia加速计算堆栈提供了可观察性,包括NIM和AI软件、Nvidia Tensor Core GPU、AI集群、Nvidia Quantum InfiniBand和Spectrum Ethernet交换机。
新的OpsRamp运营型Copilot利用Nvidia的计算平台,通过对话助手分析大型数据集以获得洞察。OpsRamp还将集成CrowdStrike的应用接口,以提供跨基础设施和应用的端点安全的统一服务地图视图。
HPE和Nvidia将与服务提供商Deloitte、HCL Technologies、Infosys、Tata Consultancy Service以及Wipro共同销售这个服务器包。
瞄准AI能源成本
另外,HPE和工程巨头Danfoss A/S宣布合作提供一种现成的热回收模块,作为打包产品的一个组成部分,为那些开发AI模型以减少IT设备散发热量的组织提供帮助。
该产品结合了HPE可扩展的Modular Data Center,采用小型的、高密度容器的形式,几乎可以部署在任何地方,同时采用直接液体冷却等技术,将总体能耗降低了20%。Danfoss将提供热再利用模块,从数据中心捕获多余的热量,将其引导到现场和邻近的建筑物和行业,还将提供无油压缩机,将数据中心的冷却效率提高多达30%。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。