HPE揭开了备受期待的生成式AI超级计算机平台的神秘面纱,该平台旨在帮助企业在自己的数据中心内创建、微调和运行强大的大型语言模型。
此次发布之际,HPE及其竞争对手Supermicro都宣布对其用于运行生成AI工作负载的产品组合进行重大更新,其中包括一些功能强大的新服务器,配备了Nvidia最先进的Blackwell GPU,这些服务器在近日举行的GTC 2024大会上进行了发布。
HPE一直与Nvidia密切合作,利用Nvidia在高性能计算方面的专业知识,构建了一套生成式AI超级计算机,为开发人员提供构建高级模型所需的所有软件和服务,以及强大的计算能力。
HPE表示,去年11月推出的生成式AI超级计算平台现已可供订购,将为那些需要在自己本地服务器上运行AI项目的企业提供了一套理想的解决方案。该系统被称为开发和训练大型语言模型的全栈解决方案,由Nvidia GH200 Grace Hopper超级芯片提供支持,并具有生成式AI入门所需的一切,包括液冷系统、加速计算、网络、存储和AI服务。
HPE表示,这个超级计算机平台主要面向大型企业、研究机构和政府机构,可直接购买或通过HPE GreenLake按使用付费模式购买。它针对微调和推理工作负载进行了预先配置,提供了强大的计算、存储、软件、网络功能以及咨询服务,帮助企业开始使用生成式AI。
该系统的底层提供了由HPE ProLiant DL380a Gen11服务器和Nvidia H100 GPU组合提供支持的高性能AI计算集群,还集成了Nvidia Spectrum-X以太网网络技术及其BlueField-3数据处理单元,用于优化AI工作负载。HPE也将自己的机器学习和分析软件添加到其中,而Nvidia AI Enterprise 5.0平台则附带了Nvidia新发布的NIM微服务,有助于简化AI开发工作。
HPE表示将支持各种大型语言模型,包括专有的大型语言模型和开源版本。HPE表示,该系统非常适合AI模型的轻量级微调、检索增强生成和横向扩展推理,并声称,这个16节点的系统微调基于Llama 2的700亿参数模型只需要六分钟。
该产品还旨在解决AI技能上存在的差距,HPE Service为企业提供了设计、部署和管理本地平台以及实施AI项目所需的专业知识。
HPE总裁兼首席执行官Antonio Neri表示,很多企业需要一种“混合设计型”解决方案以支撑整个AI生命周期。他解释说:“从在本地、托管设施或公有云中训练和调整模型,到边缘推理,AI是一种混合云工作负载。”
AI软件堆栈
在对生成式AI超级计算平台进行最后润色的同时,HPE还与Nvidia合作开发了利用该平台所需的各种软件系统,其中包括从今天起作为技术预览版对外提供的HPE Machine Learning Inference Software,该软件将帮助客户在他们的基础设施上快速且安全地部署AI模型,同时集成了Nvidia新的NIM微服务,提供对预构建软件容器中托管的优化基础模型的访问路径。
此外HPE表示,已经开发了RAG的参考架构,该技术使大型语言模型能够利用专有的数据集来增强知识。HPE还发布了HPE Machine Learning Data Management Software、Machine Learning Development Environment Software和Machine Learning Inference Software以支持生成式AI开发工作。
最后HPE还透露了一些即将推出的新服务器,这些服务器将基于Nvidia新发布的Blackwell GPU架构,包括Nvidia GB200 Grace Blackwell Superchip、HDX B200和HGXB100 GPU。
Supermicro推出首款基于Blackwell GPU的服务器
尽管HPE将在未来几周内公布基于Grace的服务器的更多细节,但Supermicro似乎已经领先一步了。Supermicro在此次GTC 2024大会上推出了一系列新服务器,新系统采用GB200 Grace Blackwell Superchip,以及基于Blackwell的B200和B100 Tensor Core GPU。此外Supermicro公司表示,现有基于Nvidia HGX H100和H200的系统正在为新GPU“做好准备”,这意味着客户只需要购买芯片就可以对现有的数据中心投资进行增强。
Supermicro表示,Supermicro将成为第一家在今年晚些时候推出Nvidia HGX B200 8-GPU和HGX B100 8-GPU系统的服务器公司。新系统将配备8个Nvidia新型Blackwell GPU,通过第五代NBLink互连技术进行连接,可提供每秒1.8 TB的带宽。而且Supermicro承诺,与基于Nvidia旧Hopper架构的系统相比,新系统的大型语言模型训练性能将提高3倍。
Nvidia GPU产品管理副总裁Kaustubh Sanghani表示:“Supermicro持续向市场推出一系列令人惊叹的加速计算平台服务器,这些服务器针对AI训练和推理进行了调优,可以满足当今市场的任何需求。”
为了满足本地大型语言模型工作负载的需求,Supermicro构建了一系列新型MGX服务器,这些服务器将采用GB200 Grace Blackwell Superchip,该芯片比标准GPU芯片更为强大。新款Superchip配备了2个Blackwell GPU,加上多个CPU,将为AI推理负载提供显着提升,Supermicro声称与上一代Superchip相比性能提升了30倍。
对于最先进的大型语言模型工作负载,Supermicro详细介绍了一款基于Nvidia GB200 NVL72的、即将推出的机架级服务器,将在单个机架中连接36个Nvidia Grace CPU和72个Blackwell GPU,此配置中的每个GPU都将采用最新的Nvidia NVLink技术,GPU到GPU的通信速度高达每秒1.8太比特。
好文章,需要你的鼓励
UniR(Universal Reasoner)是一种创新的推理增强方法,可为冻结的大语言模型提供即插即用的推理能力。由韩国科学技术院研究团队开发,该方法将推理能力分解为独立的轻量级模块,无需改变主模型结构。UniR的核心优势在于高效训练(仅更新小型推理模块)、出色的模型间迁移能力(小模型可指导大模型)以及模块组合能力(多个专用模块可通过logits相加组合使用)。在数学推理和翻译测试中,UniR显著超越现有微调方法,展示了轻量级模块如何有效增强大语言模型的推理能力。
Nebius团队开发了SWE-rebench,一个自动化管道用于从GitHub收集软件工程任务并进行去污染评估。该系统解决了两大挑战:高质量训练数据稀缺和评估基准容易被污染。通过四阶段处理(初步收集、自动安装配置、执行验证和质量评估),SWE-rebench构建了包含超过21,000个Python交互式任务的数据集,并提供持续更新的评估基准。研究发现部分语言模型在传统基准上的表现可能被污染效应夸大,而DeepSeek模型在开源模型中表现最为稳健。
这项研究提出了JQL(发音为"Jackal"),一种通过多语言方法提升大型语言模型预训练数据质量的创新系统。研究团队从拉马尔研究所等机构通过四阶段方法解决了多语言数据筛选的难题:先由人类评估内容教育价值创建基准数据,然后评估大型语言模型作为"评判者"的能力,接着将这些能力提炼到轻量级评估器中,最后应用于大规模数据筛选。实验表明,JQL在35种语言上显著优于现有方法,甚至能泛化到未见过的语言如阿拉伯语和中文,为多语言AI发展提供了高效可靠的数据筛选方案。
浙江大学和西湖大学研究团队开发的Styl3R实现了艺术风格化3D重建的重大突破,能在不到一秒内从少量未标定照片和任意风格图像创建具有多视角一致性的3D艺术场景。通过创新的双分支网络架构将结构建模与外观着色分离,系统不仅保持了原始场景结构,还准确捕捉了参考风格特征。与现有方法相比,Styl3R在处理速度和视觉质量上均显著领先,为创意内容制作开辟了全新可能。