但目前价格尚未公布,希望数字友好。
HPE与英伟达表示正为客户提供构建模块,可用于组装同布里斯托大学Isambard-AI超级计算机同架构的迷你版本,用以训练生成式AI和深度学习项目。
两家公司正联手销售一款基于HPE Cray EX2500架构及英伟达Grace Hopper超级芯片的模块化机器,其上运行的则是两家公司共同提供的软件工具栈。
该系统将于本周在科罗拉多州召开的SC23高性能计算(HPC)大会上公开演示,设计目标是通过预配置和预测试的完整技术栈,让组织更轻松地启动并运行AI训练。当然,一切要等价格公布之后才有定论。
根据HPE的介绍,该系统是首款采用四GH200超级芯片节点配置的系统,就是说每个节点将包含4块英伟达高端芯片。每块超级芯片都拥有72核Arm架构Grace CPU与Hopper GPU,并配备480 GB的LPDDR5x内存与144 GB HBM3e高带宽内存。
这些节点采用HPE的Slingshot互连技术,这项技术属于以太网的超集,添加了高性能计算(HPC)所必需的诸多功能。
虽然硬件成本相当可观,但HPE表示这套特殊的解决方案允许客户先从小规模起步,随后根据需求灵活扩展。
HPE高性能计算、人工智能与实验室执行副总裁Juston Hotard在采访中表示,“已经有一部分客户发布了搭载Grace Hopper超级芯片的产品,但我们的EX2500仍然独一无二,因为它可作为统一的单位进行部署,全部冷却、供电和计算板件均部署在同一模块之内。”
他解释道,这意味着该系统“不仅为客户提供了非常简单的入门选项,同时还具备广阔的扩展空间。”
作为方案中的软件技术栈,HPE带来了自己的机器学习开发环境(Machine Learning Development Environment)。这是一套用于训练生成式AI模型的平台,主要基于HPE在2021年收购自Defined AI的技术。
方案中还包含英伟达的AI Enterprise套件,这是一系列AI工具和框架的集合,包括TensorFlow、PyTorch、英伟达RAPIDS与TensorRT软件库,以及Triton推理服务器等。客户还可以获得HPE的Cray编程环境,这是一套用于代码开发、移植和调试的工具组合。
Hotard表示,AI训练是目前计算密度最大的工作负载之一,因此对计算架构的要求也比较特殊。
“我们都知道,云架构是围绕单一服务器资源的最大化利用设计而成的。因此在面对工作负载时,这类方案倾向于将任务拆分成一个个较小的部分。”
“但AI工作负载,特别是训练和大规模微调类负载,则有着截然不同的特性。在某些情况下,这些工作负载需要将整座数据中心视为单一计算机来运行。AI工作负载需要运行在几百甚至数千个节点之上,并要求所有计算、互连和存储资源都要像在超级计算机内那样高度一致地规模化运行。”
当然,这套新系统的服务对象仅限那些掌握充足财务预算的组织,不过HPE目前拒绝透露关于成本的具体信息。Hotard表示价格将在不久之后对外公布。
英伟达科学项目经理Jack Wells宣称,基准测试结果显示,在使用Llama 2处理大语言模型(LLM)推理工作负载时,基于GH200的单一节点比双至强CPU服务器快100倍。
他声称,“生成式AI正在重构科学计算思路,并带动起极为巨大的市场需求。”他同时强调,HPE与英伟达的这款产品已经吸引到多家客户。
其中包括苏黎世联邦理工学院的超级计算机、波兰Cyfronet、洛斯阿拉莫斯国家实验室,以及布里斯托大学的Isambard-AI系统(计划部署5448块英伟达GH200超级芯片)。
HPE表示,该服务将从12月登陆30多个国家的市场。除了来自公共部门和研究机构的AI创新中心客户之外,该项目预计还将吸引到不少企业巨头的关注。
好文章,需要你的鼓励
后来广为人知的“云上奥运”这一说法,正是从这一刻起走上历史舞台。云计算这一概念,也随之被越来越多的人所熟知。乘云科技CEO郝凯对此深有感受,因为在2017年春节过后不久,他的公司开始成为阿里云的合作伙伴,加入了滚滚而来的云计算大潮中。同一年,郝凯带领团队也第一次参加了阿里云的“双11”活动,实现了800万元的销售业绩。
随着各行各业数字化变革的不断深入,人类社会正加速迈向智能化。作为智能世界和数字经济的坚实底座,数据中心也迎来了蓬勃发展。面