HPE成为加入Nvidia阵营的最近一家系统制造商,于近日宣布推出一系列针对AI优化的联合开发系统,以及针对生成式AI的联合销售和营销集成。
近日在美国拉斯维加斯举行的HPE Discover大会上,HPE表示,这些打包系统可以将AI工程师、数据科学家和运营团队的生产力提高高达90%。
HPE Private Cloud AI具有Nvidia AI计算、网络和软件,以及HPE通过GreenLake云提供的AI专用存储和计算产品的深度集成。GreenLake是一系列云和即服务选项,旨在提供类似云的功能,不管IT基础设施如何,都采用按需付费的定价方式。
该产品由用于IT运营的全新OpsRamp AI Copilot提供支持,有四种配置以支持各种AI工作负载。
HPE Private Cloud AI支持使用专有数据进行推理、微调和检索自动生成工作负载,将数据隐私、安全性、透明度、治理控制与ITOps以及AIOps功能相结合。
AIOps使用机器学习和数据分析来自动化和改进IT运营任务。ITOps包含了一系列活动,可确保组织的IT基础设施顺利运行。
基于Nvidia AI Enterprise而构建
AI和数据软件堆栈的基础是Nvidia AI Enterprise软件平台和推理微服务。Nvidia AI Enterprise旨在快速开发和部署Copilot以及其他生成式AI应用。NIM是一组用于优化AI模型推理的微服务。
HPE AI Essentials软件则是一组精选的AI和数据基础工具,具有统一的控制平面,可适用于各种用途。HPE表示,该工具中包含了企业支持和AI服务,例如数据和模型合规性,具有可扩展功能,可确保AI管道合规、可解释和可重现。
HPE首席技术官Fidelma Russo表示:“它已经准备好启动了,你只需将其插入,连接到云,三次点击后即可启动并运行起来。”
HPE将该软件包称为AI模型训练和云中RAG的本地替代方案。“我们的目标市场是那些希望转向AI,并且意识到在云中运行这些模型会压垮预算的企业,”HPE高级副总裁、高性能计算和AI业务总经理Neil MacDonald这样表示。
Russo称,在本地部署AI推理,“在保持数据私密的同时,对于推理工作负载而言,成本效益是原来的四到五倍。”
基础设施堆栈中包括了Nvidia Spectrum-X以太网网络、HPE GreenLake文件存储和HPE ProLiant服务器,支持Nvidia L40S、Nvidia H100 NVL Tensor Core GPU以及Nvidia GH200 NVL2机架级平台。
四种配置
该产品基于ProLiant处理器提供了四种配置,从小型到超大型不等,每种配置都是模块化且可扩展的。
HPE表示,未来将支持Nvidia GB200 NVL72/NVL2以及新的Nvidia Blackwell、Rubin和Vera架构。
Greenlake为混合环境中的端点、工作负载和数据提供了管理服务和可观察性服务。OpsRamp为整个Nvidia加速计算堆栈提供了可观察性,包括NIM和AI软件、Nvidia Tensor Core GPU、AI集群、Nvidia Quantum InfiniBand和Spectrum Ethernet交换机。
新的OpsRamp运营型Copilot利用Nvidia的计算平台,通过对话助手分析大型数据集以获得洞察。OpsRamp还将集成CrowdStrike的应用接口,以提供跨基础设施和应用的端点安全的统一服务地图视图。
HPE和Nvidia将与服务提供商Deloitte、HCL Technologies、Infosys、Tata Consultancy Service以及Wipro共同销售这个服务器包。
瞄准AI能源成本
另外,HPE和工程巨头Danfoss A/S宣布合作提供一种现成的热回收模块,作为打包产品的一个组成部分,为那些开发AI模型以减少IT设备散发热量的组织提供帮助。
该产品结合了HPE可扩展的Modular Data Center,采用小型的、高密度容器的形式,几乎可以部署在任何地方,同时采用直接液体冷却等技术,将总体能耗降低了20%。Danfoss将提供热再利用模块,从数据中心捕获多余的热量,将其引导到现场和邻近的建筑物和行业,还将提供无油压缩机,将数据中心的冷却效率提高多达30%。
好文章,需要你的鼓励
代理型AI正在颠覆在线会议平台,从被动观察者转变为主动参与者。Zoom、Microsoft等公司纷纷推出AI助手,不仅提供语音转录,还能回答问题、安排后续会议。Otter AI更是推出了能通过语音命令参与对话的AI会议代理。这些创新将大大提升会议效率,为企业带来实际价值。未来,AI将从工具演变为真正的协作伙伴,深度理解业务场景将成为关键竞争力。
谷歌与计算机历史博物馆联合发布了AlexNet的源代码,这是一个在2012年彻底改变人工智能领域的卷积神经网络。AlexNet证明了"深度学习"能够实现传统人工智能技术无法达成的目标,标志着人工智能领域的重大突破。此举不仅为AI爱好者和研究人员提供了一个窥探计算机历史关键时刻的机会,也为未来的历史学家提供了理解这项改变世界技术的宝贵资料。
Midjourney 与纽约大学合作,发布了一项提升大语言模型创造性写作能力的研究。他们提出了两种新技术:多样化直接偏好优化(DDPO)和多样化比值偏好优化(DORPO),旨在扩大模型输出的多样性,同时保持连贯性和可读性。这项研究不仅展示了 Midjourney 在文本领域的野心,也为企业 AI 团队、产品开发者和内容创作者提供了改进 AI 生成文本的新方法。
英伟达推出了一款名为G-Assist的实验性AI助手,可在本地GPU上运行,无需云端支持。这款AI助手旨在帮助玩家优化PC性能并提升游戏体验。G-Assist能够回答基本问题、调整系统设置、超频GPU等。虽然目前功能有限且存在一些性能问题,但它代表了本地AI应用的一个重要尝试,展示了未来GPU同时运行游戏和AI模型的潜力。