科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道X86服务器颠覆传统,运营成本降低40% 浪潮微模块数据中心入驻中国移动

颠覆传统,运营成本降低40% 浪潮微模块数据中心入驻中国移动

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

中国移动某省分公司领导评价到,“此次采购采用了微模块数据中心,和传统数据中心相比运营成本降低40%左右,节约内容主要体现在电力的消耗上和机房的空间利用率上”。

来源:ZDNetserver频道 2015年4月30日

关键字: 浪潮 模块化数据中心

  • 评论
  • 分享微博
  • 分享邮件

ZDNet至顶网服务器频道 04月30日 新闻消息:

【导语】中国移动某省分公司领导评价到,“此次采购采用了微模块数据中心,和传统数据中心相比运营成本降低40%左右,节约内容主要体现在电力的消耗上和机房的空间利用率上”。

传统的数据中心往往都是采用地板下送风的制冷方式,这种制冷方式由于受到空调送风距离、地板开口率和冷热空气互相侵袭的影响,PUE往往都在2.5以上。PUE越高消耗的电能越多,导致数据中心的运营成本越高,严重的影响的IDC机房的利润空间。

中国移动某省分公司采用浪潮微模块数据中心,不再采用传统的架高地板制冷模式,而是采用了行级空调近距离送风以及冷通道密封技术,将PUE由传统数据中心的2.5以上降低到1.6以下,减少了制冷的耗能和成本。

新数据中心建设能耗——PUE不能超过1.6

依托于自身可靠的基础设施、丰富的网络带宽资源和专业的技术力量,该省移动大力推进IDC建设,并且卓有成效。然而,随着越来越多的客户入驻该省移动IDC机房,传统数据中心在空间、效率、能耗上的瓶颈问题日益凸显,最突出的问题就是电力消耗越来越大。

由于早期建设的时候没有很好地考虑用电问题,该分公司传统数据中心的PUE(消耗的所有能源与IT负载使用的能源比)非常高,大约在2.5左右,这意味着数据中心所使用的能源约有一半消耗在 IT 负载上,另一半消耗在包括电源设备、冷却设备和照明设施在内的网络关键物理基础设施上。按照原来200 千瓦的数据中心来算,每年的电力消耗约350万元,而其中175万竟全部浪费在核心负载之外。

为了提高IDC机房的电力有效利用率、提高IDC机房的利润,该分公司要求新建设的数据中心的PUE要在1.6以下。

浪潮微模块数据中心的出现,以其快速部署、弹性扩展、绿色节能的特性正跃入用户眼球。和传统的数据中心的架构不同,微模块数据中心制冷、供电及管理系统都实现区域化、模块化,互不干扰,可以独立运行,无共用部分,将PUE由传统数据中心的2.5以上降低到1.6以下。

颠覆传统,运营成本降低40% 浪潮微模块数据中心入驻中国移动(浪潮微模块数据中心外部布局图)

微模块整体架构

为了降低PUE并节约整体拥有成本TCO,浪潮给该公司推荐使用16个IT机柜的标准微模块,该模块在21.6㎡(3.6m*6m)的场地内集成IT系统、配电系统、制冷系统、监控系统和冷通道结构系统,这些系统在结构上标准化设计,搭建简便,用户从下单之日起2个月之内就完成了模块部署,体现了微模块易复制、部署速度快的优势。

颠覆传统,运营成本降低40% 浪潮微模块数据中心入驻中国移动(浪潮微模块数据中心内部布局图)

16台标准42U服务器机柜分两排面对面放置,微模块内部的电源模块、行间空调数量等可以根据IT机柜功率灵活配置数量,满足不同功率密度的需求,目前微模块内可支持的最大机柜功率达20KW,实现了空间的灵活利用。

微模块内每排机柜的边上位置放置一个配电柜,模块内的IT机柜供电、监控供电和照明供电都从这个配电柜引出,节约了从主配电室到每个IT机柜的供电线缆,避免了资源的浪费,加之采用了近热源水平送风、顶置空调等创新技术,让能效比显著提升。

该分公司传统数据中心采用的集中式精密空调并没有很好的把冷风送到每个角落,造成了局部的热点,另外,由于冷热风道没有隔离,造成冷热风的串扰,使得集中式精密空调把风量加大,出风口温度低于正常温度,会造成部分的浪费。这一点在浪潮微模块数据中心中也得以改进,改变原有的统一送风策略,采用4台列间水冷空调,在近热源直接送风,这样气流通路较短,而且制冷更为精准,解决了局部热点的问题。将列间的冷通道封闭隔离,冷热气流互不干扰,避免的气流串扰而导致的热岛效应,避免了风量和冷量损耗,制冷效率提升12%以上。

浪潮微模块数据中心冷通道结构系统中,活动天窗分别放置在空调的顶部以及配电柜和机柜的顶部,当发生火灾的时候天窗全部打开,同时消防气体进入模块内部进行气体灭火。照明系统采用红外感应照明控制系统,当有人进入微模块的时候,LED灯会自动打开。

单机柜高密度——充分利用立体空间

如果IDC机房在相同的空间内能够放置更多的IT设备,那么此机房就能够创造更多的价值,浪潮微模块数据中心采用了封闭冷通道和列间空调技术,在降低了PUE的同时也能够提高了单机柜的功率,传统机房每个机柜的功率密度一般就在3KW,能够放置的IT负载非常的有限,而浪潮微模块数据中心每个模块的功率密度能够达到20KW,如果按照此功率密度设计,那么微模块的一台机柜相当于传统机房的7台机柜,即使微模块按照主推的10KW来设计,那么也会相当于3台传统的IT机柜,因此,在相同面积的机房内单机柜的功率密度越高,相应的价值也越高。

“行级空调、模块化UPS、高集成供配电系统、密闭通道的联合应用使数据中心的PUE降至1.6以下;通过房间级制冷与行级制冷,封闭与开放通道多种方式柔性组合,以最优TCO实现高效运行。总体算下来,比传统数据中心运营成本降低40%左右,仅仅电费这一项的支出上一年能节省上百万,符合国家建设节约型社会的号召”,该省移动公司领导说。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章