冷COOL!浪潮液冷超算来了

美国当地时间11月15日,在盐湖城举行的全球超算大会SC16上,中国服务器领导厂商浪潮集团在大会上展示了服务器与数据中心液冷方案,在服务器部署密度提高一倍的同时,还可将数据中心的PUE控制在1.2以内,尤其适合超大规模数据中心以及超级计算机用户。

美国当地时间11月15日,在盐湖城举行的全球超算大会SC16上,中国服务器领导厂商浪潮集团在大会上展示了服务器与数据中心液冷方案,在服务器部署密度提高一倍的同时,还可将数据中心的PUE控制在1.2以内,尤其适合超大规模数据中心以及超级计算机用户。

 冷COOL!浪潮液冷超算来了

全球超算大会SC16浪潮展台

超大数据中心及超算系统撬动液冷市场

对于云服务商来说,数据中心向集中化、规模化发展,因此对TCO的控制拥有极高的要求。而E级超算的技术方案正在探讨中,高性能计算领域服务器的密度和性能都达到了新高,对于散热效率也有着更高的要求。浪潮集团高性能计算总经理刘军表示,这两类用户在部署密度、规模等方面的挑战都远高于一般数据中心。液冷散热无论是效率还是能效水平都远远优于空调风冷方式,具有毋庸置疑的优势。因此云服务商及高性能计算客户为液冷技术提供了足够的应用空间,同时在降低整体成本和提高能效方面得到很大收益,部署量不断增长。

浪潮整体液冷方案:从节点、机柜到数据中心

浪潮推出的液冷方案包含节点、机柜和数据中心三个部分,可针对不同业务阶段的客户实现差异化的方案推荐,并支持目前浪潮所有的服务器产品,如机架式服务器、刀片服务器等。

 冷COOL!浪潮液冷超算来了

两级相变液冷方案示意

浪潮节点液冷方案有两种,第一种是两级相变液冷方案,利用微热管相变导热技术,将热量从服务器内导出,并与二级相变散热管路进行热量交换,可以提供极高的散热能力。第二种是直接水冷方案,服务器内部主要器件的热量通过水循环导出至机房集中换热器,管线压力小,采用快拆自封闭接头,方便节点运维。

机柜级层面的液冷方案为冷热交换的水排,节点“coolnode模块”导出的热水与数据中心外部输送来的冷水在此进行热量交换。在没有外部冷水输送的场景下,浪潮也提供了风扇墙方案,用风扇将节点导出的热水降温。

在数据中心层面,所有机柜的热水会回到数据中心统一的冷却塔中,冷却塔可以实现自然冷却。

刘军表示,采用浪潮整体液冷方案以后,数据中心设备密度至少可以提升一倍,能源费用至少降低70%,TCO优势十分明显。

目前,浪潮已经与某电信运营商在传统数据中心建立了“IDC节能实验平台”,部署了上千台服务器,包括台式、刀片、机架、塔式和整机柜等,采用了浪潮液冷机柜和新型供电方案,该平台在外部温度38℃,相对湿度95%的极端环境下,服务器CPU核心仍然保持在工作温度的同时,PUE值仍可控制在1.2以下。

收益:部署密度和能效的革命性提升

水的体积比热容是空气的4000倍左右,液冷技术的散热效率远非风冷技术可比。据浪潮测试数据,coolnode模块内即使水温达45℃也可以保证满负载的CPU保持工作在不超过65℃,浪潮液冷技术打破了散热对设备部署密度的限制。

 冷COOL!浪潮液冷超算来了

采用直接循环液冷方案的浪潮i4008服务器

浪潮在SC16现场展示了采用直接循环液冷方案的i4008服务器,该产品是一款4U8节点的超高密度计算服务器,每节点配置2颗英特尔Xeon E5处理器,内存和硬盘全部满配。在整机如此高功耗的情况下,传统数据中心风冷散热是很难应对的,但是液冷方案下却可以实现。同样,浪潮液冷方案可全面支持高功耗处理器,极大提升了服务器部署密度和性能,满足了HPC对计算性能永无止境的需求。

来源:ZD至顶网服务器频道

0赞

好文章,需要你的鼓励

2016

11/15

14:01

分享

点赞

邮件订阅
白皮书