跨时代的算力平台,浪潮信息G7算力平台全新上市 原创

在笔者看来,算力时代已经到来,而浪潮信息G7的亮点也非常明显,比如全面支持多元算力、场景化的产品家族,以及智能化的管理,服务器操作系统KOS的全面兼容和支持,All in液冷。

作为数字经济时代的关键生产力要素,算力需求持续攀升的同时,也面临技术多元化发展、应用场景差异化、算力能耗持续攀升等挑战。

作为算力基础设施的重要组成部分,服务器产品的重要性不言而喻。继前代M6产品之后,浪潮信息近日发布全新一代G7算力平台。

浪潮信息服务器产品规划总监陈彦灵告诉记者,G7算力平台是面向智算变革创新研发的新一代算力服务器,采用开放多元的架构设计,支持最广泛的通用处理器和加速芯片。

跨时代的算力平台,浪潮信息G7算力平台全新上市

G7算力平台目前已拥有46款新品,采用最先进的计算、存储和互联技术,打造通用计算、AI计算、高端计算、应用优化、整机柜、一体机等产品,实现全算力业务场景覆盖,提供了从器件、整机到数据中心的全尺度智能化管理。

同时,G7算力平台搭载了浪潮信息KOS操作系统,实现了服务器的软硬件协同系统优化。G7服务器全系支持液冷,通过液冷组件的标准化设计支持单芯片千瓦级解热,一经上市即创造了多项性能纪录

在笔者看来,算力时代已经到来,而浪潮信息G7的亮点也非常明显,比如全面支持多元算力、场景化的产品家族,以及智能化的管理,服务器操作系统KOS的全面兼容和支持,All in液冷。 

跨时代的算力平台,浪潮信息G7算力平台全新上市

8种通用处理器和51种加速芯片

当前,算力的计算范式在发生着重要的变化,单一计算芯片无法满足复杂计算范式所要求的高效率,从而催生了多款加速算力芯片。同时,云原生的业务诉求催生了对于处理器核心的不同要求,促进了算力的多元化发展。

随着计算多元化,芯片产品也更加多元化,CPU、GPU、DPU、TPU等XPU不断涌现,这进一步增加了计算的复杂化。在x86、ARM等异构算力架构下,不同厂商的产品功能之间的不兼容,带来算力的复杂化。

面对这种情况,浪潮信息G7基于统一架构,支持x86、ARM等国际国内8种通用处理器和51种加速芯片。

一台通用算力平台服务器研发过程大约涉及三十多个开发流程,使用了150多种加工工艺,将近一万个电子元器件,需要对将近300个关键过程进行质量控制。

支持多元芯片看上去很简单,但是其实非常复杂,比如不同芯片的功耗是不同,这样就需要对电源系统进行改造。G7平台从电路级设计,包括部件设计、固件设计以及系统级都进行了大量的创新工作,支撑整个多元算力平台。

陈彦灵表示,G7平台的打造与此前的产品研发有很大的区别,单产品的特征值比较好掌控,比如散热、供电等。但是为了支持多元算力的需求,我们需要构建顶层的架构设计。“实际上我们整个内部的研发体系做了比较大的变化。此前产品立项、研发等按照需求做就可以了,现在我们进行平台设计,需要提前明白支持哪些算力架构,达到怎么样的目标。”

多样化产品覆盖全业务场景

如今客户的业务场景纷繁复杂,只有提供针对性的产品才能满足其需求。

面对客户业务多样化场景需求,G7算力平台从部署环境和应用环境的具体需求出发,在密度、能耗等物理设计以及计算、存储和I/O配比等逻辑设计上,进行极致化的产品定义和产品实现。浪潮信息G7算力平台针对应用负载的差异化、场景多样化,推出计算密度优化、存储密度优化、IO扩展优化、整机柜部署优化四类产品,为客户提供最佳算力应用平台。

例如,面向算力要求高的客户,提供了计算密度优化的i24G7产品,2U空间4台双路节点,每U可支持384颗高性能处理器核心;面向全闪存应用场景,提供业界唯一1U 32NVMe的NF5180G7产品,1U空间可支持512TB极致闪存空间。面对大数据存算混布的场景,业界唯一的NF5266G7可以在2U空间部署28块3.5寸大容量硬盘,发挥存算匹配的极限性能。

面向边缘微中心、私有云、数据库关键业务等不同场景,浪潮信息联合SAP、VMware等合作伙伴,推出四款面向业务应用优化的G7一体机方案产品,涵盖SRDC一体机、HANA一体机、超融合服务器、大数据一体机等,让用户可以在统一的G7算力平台之上,针对每一项应用进行最佳的算力适配。

开放,纳管第三方产品

开放是产业创新的基础,开源已经成为首选。开放组织发展迅速,全球已经形成OCP、Open19、ODCC、OCTC等开放计算组织、OpenStack等开源组织。

众所周知,浪潮信息在开放计算方面投入了大量的力量。G7产品不仅在硬件的管理模块内存模块网络模块等方面采用了开放标准设计固件方面哦融入开放软件协议OpenBMCRedfishCXL在管理方面也设计了可以统一管理第三方设备的产品。

通过搭载浪潮信息物理基础设施管理平台(ISPIM),浪潮信息G7服务器提供部件级、节点级、机柜级、数据中心级全尺度管理能力,实现对服务器、存储、交换机等全栈产品的管理,纳管型号超过500种。

全球500强的银行客户使用ISPIM纳管了某地近10万不同品牌、不同种类的设备,新部署3500台设备的周期从原来预计的几十天缩短至7天,效率提升450%。

“浪潮信息在开放组织中推动标准的制定,比如加速器的管理接口、柜计算、液冷等,确保统一标准,这样可以系统化的高效数据中心管理。”陈彦灵说。

匠心黑科技,全尺度智能化管理

数据中心规模持续、快速地增长,对IT环境的复杂性对运维带来极大挑战,任何的错误都可能导致数据中心系统故障,甚至业务中断,对用户造成巨大影响。

在数据中心智能诊断方面,浪潮信息总结出500+个故障模型和数万条专家经验,并内置于ISPIM产品中,故障诊断准确率超95%,远超行业50%的平均水平,保障数据中心服务器稳定运行。

与此同时,全新G7服务器搭载了NVH(noise vibration harshness)科学降噪、听音诊断服务器黑科技技术,为用户提供极致的性能、可靠性和能效支撑。

其中,NVH技术能够做到以10纳米精度保证磁盘读写性能。浪潮信息工程师首先优化噪声振动的源头风扇,通过3D仿真改进叶片形态,保证风扇散热风量提升15%,同时减弱湍流效应,抑制扇叶内气流分离而产生硬盘敏感的噪声。机箱内,设计40多种歌院式的消音架构,有效消除机箱内特定的高频噪声,读写性能提升26%。此外,还将硬盘伺服系统写进硬盘,让硬盘磁头的噪声共振摆动控制在10纳米以内,保证硬盘读写性能稳定在95%以上。

在服务器系统中,良好的散热是保障系统以高性能稳定可靠运行的基础,散热风扇虽然仅有1%的可能发生故障,但其一旦发生故障,将影响系统性能和可靠性,且风扇故障的维修时间长,对数据中心业务运行影响很大。

浪潮信息工程师在为数据中心科学降噪的同时,也在利用机箱内噪声的特征信息,建立了基于声学探测的业界首个服务器风扇听音预警系统。该系统融合了长达200个小时的服务器故障音训练集,可对声纹信息抽取40维MFCC特征,基于多级深度学习神经网络,能够精准辨别噪音背后潜在的服务器风扇故障。

有了这套系统,服务器可通过内部的麦克风阵列、音频处理芯片,采集系统的多维噪音,并进行声学信号处理,然后基于主板BMC芯片中的风扇故障智能诊断模型进行分析、诊断,仅需10秒钟“听音”,就可准确预警故障状态,精准度达95%,提前从根源上彻底解决服务器风险问题,保证数据中心运行安全。

All in液冷,绿色节能

在全球绿色化转型的大趋势下,数据中心节能降碳迫在眉睫。浪潮信息在2022年正式提出了“All in 液冷”的战略。

此次发布的G7算力平台采用模块化冷板组件设计,全线支持液冷散热。G7液冷服务器通过自适应流速液冷冷板技术,支持单芯片千瓦级的业界最高解热,创造出6U空间最大12千瓦的业界散热密度新高度。

在系统方案层面,浪潮信息具有风液式,液液式等完善的端到端解决方案,能够为用户全方位打造液冷数据中心交钥匙工程,并且完成了业界首次液冷整机柜批量交付,实现PUE<1.1。

在技术创新方面,浪潮信息首创了能够彻底杜绝漏液隐患的液环式真空CDU,这是一种液冷系统二次侧均为负压的动力单元,由于管路内均为负压,因此彻底避免了漏液问题发生。

同时,在液冷标准化与专利建设方面,浪潮信息积极参与并且联合产业上下游共同牵头制定行业标准与技术规范,推动液冷行业发展。截至目前,浪潮信息拥有300多项液冷技术领域核心专利,已参与制定与发布10余项冷板式液冷、浸没式液冷相关设计技术标准,并牵头制定《模块化数据中心通用规范》国家标准,牵头立项国内首批冷板式液冷核心部件团体标准。

陈彦灵表示,液冷是一个系统工程,未来液冷的最好交付方式是整机柜交付,部署效率高,液冷整机柜是浪潮信息未来发展的主要方向。

KOS实现软硬协同优化

作为智算时代的算力引擎,服务器不仅要支持多种计算架构,还要承载多种软件与应用,如何对算力资源进行管理和适配优化,用户需要一体化的解决方案。凭借卓越的系统设计能力,G7算力平台搭载了浪潮信息基于龙蜥操作系统(Anolis OS)开发的衍生商业版KOS,实现软硬件深度融合,可以最大程度发挥算力价值。

在算力多元异构,OS技术加速迭代背景下,搭载KOS的G7算力平台,实现以应用为导向的算力高效调度与弹性供给。通过KOS的“系统-部件-芯片-软件”跨层次协同优化的资源调度机制,G7算力平台能够深度感知应用的算力需求特征、负载特征,以及算力设备的能耗特征,实现业务与算力的最佳匹配和弹性伸缩,优化了对虚拟化、云原生、人工智能等场景支持。

结语

G7算力平台代表了浪潮信息对服务器产品的新思考,这是一个新的起点。随着全社会对于算力的需求倍速增长,G7必将发挥重要作用。

来源:至顶网计算频道

0赞

好文章,需要你的鼓励

2023

05/12

13:00

分享

点赞

邮件订阅