HPE成为加入Nvidia阵营的最近一家系统制造商,于近日宣布推出一系列针对AI优化的联合开发系统,以及针对生成式AI的联合销售和营销集成。

近日在美国拉斯维加斯举行的HPE Discover大会上,HPE表示,这些打包系统可以将AI工程师、数据科学家和运营团队的生产力提高高达90%。
HPE Private Cloud AI具有Nvidia AI计算、网络和软件,以及HPE通过GreenLake云提供的AI专用存储和计算产品的深度集成。GreenLake是一系列云和即服务选项,旨在提供类似云的功能,不管IT基础设施如何,都采用按需付费的定价方式。
该产品由用于IT运营的全新OpsRamp AI Copilot提供支持,有四种配置以支持各种AI工作负载。
HPE Private Cloud AI支持使用专有数据进行推理、微调和检索自动生成工作负载,将数据隐私、安全性、透明度、治理控制与ITOps以及AIOps功能相结合。
AIOps使用机器学习和数据分析来自动化和改进IT运营任务。ITOps包含了一系列活动,可确保组织的IT基础设施顺利运行。
基于Nvidia AI Enterprise而构建
AI和数据软件堆栈的基础是Nvidia AI Enterprise软件平台和推理微服务。Nvidia AI Enterprise旨在快速开发和部署Copilot以及其他生成式AI应用。NIM是一组用于优化AI模型推理的微服务。
HPE AI Essentials软件则是一组精选的AI和数据基础工具,具有统一的控制平面,可适用于各种用途。HPE表示,该工具中包含了企业支持和AI服务,例如数据和模型合规性,具有可扩展功能,可确保AI管道合规、可解释和可重现。
HPE首席技术官Fidelma Russo表示:“它已经准备好启动了,你只需将其插入,连接到云,三次点击后即可启动并运行起来。”
HPE将该软件包称为AI模型训练和云中RAG的本地替代方案。“我们的目标市场是那些希望转向AI,并且意识到在云中运行这些模型会压垮预算的企业,”HPE高级副总裁、高性能计算和AI业务总经理Neil MacDonald这样表示。
Russo称,在本地部署AI推理,“在保持数据私密的同时,对于推理工作负载而言,成本效益是原来的四到五倍。”
基础设施堆栈中包括了Nvidia Spectrum-X以太网网络、HPE GreenLake文件存储和HPE ProLiant服务器,支持Nvidia L40S、Nvidia H100 NVL Tensor Core GPU以及Nvidia GH200 NVL2机架级平台。
四种配置
该产品基于ProLiant处理器提供了四种配置,从小型到超大型不等,每种配置都是模块化且可扩展的。
HPE表示,未来将支持Nvidia GB200 NVL72/NVL2以及新的Nvidia Blackwell、Rubin和Vera架构。
Greenlake为混合环境中的端点、工作负载和数据提供了管理服务和可观察性服务。OpsRamp为整个Nvidia加速计算堆栈提供了可观察性,包括NIM和AI软件、Nvidia Tensor Core GPU、AI集群、Nvidia Quantum InfiniBand和Spectrum Ethernet交换机。
新的OpsRamp运营型Copilot利用Nvidia的计算平台,通过对话助手分析大型数据集以获得洞察。OpsRamp还将集成CrowdStrike的应用接口,以提供跨基础设施和应用的端点安全的统一服务地图视图。
HPE和Nvidia将与服务提供商Deloitte、HCL Technologies、Infosys、Tata Consultancy Service以及Wipro共同销售这个服务器包。
瞄准AI能源成本
另外,HPE和工程巨头Danfoss A/S宣布合作提供一种现成的热回收模块,作为打包产品的一个组成部分,为那些开发AI模型以减少IT设备散发热量的组织提供帮助。
该产品结合了HPE可扩展的Modular Data Center,采用小型的、高密度容器的形式,几乎可以部署在任何地方,同时采用直接液体冷却等技术,将总体能耗降低了20%。Danfoss将提供热再利用模块,从数据中心捕获多余的热量,将其引导到现场和邻近的建筑物和行业,还将提供无油压缩机,将数据中心的冷却效率提高多达30%。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。