HPE正在调整自己的AI产品组合,近日宣布推出了一套新的混合云产品,用于机器学习开发、数据分析、AI优化的文件存储以及推理服务的调优。
HPE表示,这些服务将通过一个平台提供,该平台结合了开源软件和基础设施,专为AI模型训练的数据需求而设计。
HPE计算部门总经理Neil MacDonald表示:“企业可以接受和探索的速度,以及他们对如何对部分业务运营进行转型的实验,是至关重要的。我们正在提供一种开箱即用的推理解决方案,使客户能够采用预先训练好的模型并将其部署到环境中以转型他们的企业运营,并且能够比以前更快速地完成这一任务。”
超级计算的优势
HPE表示将利用GreenLake平台提供以AI为中心的功能组合,包括数据优先管道、生命周期管理软件、高性能互连、以及对第三方扩展的开放生态系统的支持。HPE表示,通过2019年收购Cray Research所获得的超级计算专业知识,将让HPE在这个市场中占据优势。
HPE公司人工智能首席产品官Evan Sparks表示:“你的DNA中需要具备超级计算能力,并且能够扩展到大规模计算中,HPE已经在许多其他领域解决了这些问题。
HPE在本周举行的Discover Barcelona大会上宣布与Nvidia扩大合作,提供由Nvidia构建的生成式AI专用计算平台,该平台将针对那些使用私有数据集和自定义软件工具的AI模型的训练和调整进行优化。
该平台基于HPE ProLiant DL380a硬件,预配置了Nvidia L40S GPU、BlueField-3数据处理单元和Spectrum-X以太网网络,其规模可调优一个配置16台服务器、64个GPU以及具有700亿个参数的Llama-2模型。它将配备增强型HPE Machine Learning Development Environment,具有用于原型设计和测试的生成式AI工作室功能,以及具有GPU感知功能的HPE Ezmeral软件。
此外还包括了Nvidia的企业运输局软件堆栈,用于安全且可管理的AI开发和部署,以及用于模型定制和部署的Nvidia NeMo云原生框架。
新型应用
Nvidia公司企业计算副总裁Manuvir Das表示:“生成式AI催生了一种新型的企业应用,这种应用使用AI嵌入模型将数据仓库中的数据转换为嵌入,这是信息含义的一种表示。然后,你使用矢量数据库来存储这些嵌入,以便可以与数据进行对话,找到库中最能代表答案的所有信息,并将其转化为提示内容以提供给大型语言模型。”
以AI为中心的基础设施将包括用于文件存储的GreenLake,这是一个针对模型训练和调整进行微调的全闪存非结构化数据平台。该平台的性能密度是现有GreenLake文件存储的2倍,吞吐量和与Nvidia Quantum-2 InfiniBand网络平台的连接性是现有GreenLake文件存储的4倍。
HPE Machine Learning Development Environment现在也已经作为一项管理服务用语模型训练了。HPE表示,该服务降低了模型开发的操作复杂性和人员需求,并具有用于原型设计和测试的生成式AI专有工作室功能。
用于软件容器的HPE Ezmeral平台得到了增强,现在支持针对GPU优化的混合数据湖仓,并支持NFS文件系统以及AWS S3兼容的对象存储。此外,Machine Learning Development Environment集成了分析软件,能够提供增强的模型训练和调整功能。
HPE Ezmeral软件总经理Mohan Rajagopalan表示:“我们正在努力打造单一的管理平台体验,以最大限度地利用和管理你的数据,无论这些数据位于何处。”
这款增强的产品针对跨工作负载的Nvidia GPU分配进行了优化,并提供了对第三方集成的访问,包括用于数据记录的开源Whylogs以及用于GPU加速查询的Voltron Data框架。
HPE还表示,HPE的服务部门将提供广泛的咨询、培训和部署服务,并由位于西班牙、美国、保加利亚、印度和突尼斯的人工智能和数据中心提供支持。从明年第一季度客户可以开始订购这些生成式AI产品和服务。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。