科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道数据中心的绿色征程

数据中心的绿色征程

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

数据中心非常耗电——美国环保局(Environmental Protection Agency)在去年8月2日提交给国会的一份数据中心报告中,得出了这样一个似乎有些小题大做的结论。
  • 评论
  • 分享微博
  • 分享邮件

在本页阅读全文(共2页)

    存储管理

  许多企业甚至厂商都认为,管理存储系统的能耗是不现实或者没有意义的事。这无疑是种误解。尤其是在数据密集型行业中,存储系统与服务器消耗的能量和空间不相上下。此外,现在企业的存储容量一般每年都以50%的速度在递增。因此,存储系统的节能具有非常重要的意义。

  与服务器相同,存储效率的提高也需要依靠管理和整合。不幸的是,许多企业还不知存储管理为何物。据太阳微系统公司(Sun Microsystems)估计,只有30%的企业存储系统得到了有效的利用——这是一个非常令人警醒的数字,考虑到它的来源是一家存储系统厂商,这就更值得我们重视了。要想把剩余的70%利用起来,唯一的办法就是切实进行存储资源管理。

  节能高招

  保持服务器和存储系统的环境清洁可以减轻整改和新建数据中心的压力,这对企业来说是个好消息。不过,即便你能尽可能地利用现有的数据中心,那些一直以来被公认为最佳的办法也会遇到挑战。随着机架上的1U服务器和刀片系统越堆越多,在活地板上使用穿孔瓷砖的办法便不能为机架上的系统提供足够的流动冷空气了。在上世纪建成的一些设施中,有些活地板冷却系统可消耗7千瓦/机架。虽然在今天大部分数据中心的机架用不了那么多能量,不过,在某些情况下,它们的能耗却可能远远超出这一数字。比方说,一个载满刀片服务器的机架会消耗30千瓦,甚至更多——这就只有特殊的局部性冷却系统才能承受如此大的负荷。

  过去人们提出的解决办法是分散负荷,将刀片服务器和其他高能设备与低能耗的存储和网络系统共同安置在一起,或是干脆让部分机架空着。当然,即使是从现在来看,这对那些有能力做到这一点的企业而言,仍不失为一个好办法。不过,要实现这一方法现在是越来越难了。因为分散负荷之后,每机架的平均能耗将会上升到许多数据中心无法承受的地步。因此,我们还是得把那些高能耗的系统放在一起,然后在室内空调的基础上,再配置架式或排式的冷却系统,以加强冷却效果。

  架式的冷却系统可以从很多厂商那里采购得到。国际商业机器公司(IBM)和惠普当然是其中杰出的代表,不过它们采用的方法却有所不同。IBM的eServer Rear Door Heat eXchanger更换了标准IBM机架的后门,利用整栋大楼供应的冷却水来散热,可祛除机架系统产生的55%的热量。

  这种方法的优点在于简便和低价,只需4,400美元即可。该系统于两年前推出,可在热量进入数据中心之前便将其散除。通过降低机架设备的热足迹,IBM的系统可将高水线从每机架7千瓦提升至大约15千瓦左右,就这一价位的产品来说,这已经很不错了。IBM产品的唯一不足之处在于,它要求水压必须达到60PSI。不是每座大楼的供水系统都能支持这一压力水平,如果机架的数量过多,那就更加困难了。

  惠普的解决方案更加全面,但占据的空间面积也更大,价格当然也就更高。这套在去年推出的Modular Cooling System也利用了现成的供应水系统,但同时还添加了自封闭式的风扇和水泵。这样一个装备齐全的系统可以散除多达30千瓦的热量,并且对室内的冷却系统不会造成任何影响。散热如此充分的产品,可以帮助你极大地延长数据中心的使用寿命。虽然它的市场售价高达3万美元,但它让你不必再新建数据中心,因此绝对物有所值。

  当然,如果你只是想找一个能尽可能散热的方法,那可以选用Liebert公司的产品。该公司的XDH系统可安装于机架之上,据称最高散热能力也可达到30千瓦。

  Liebert公司的XDH以及高能转换公司(Advanced Power Conversion,下称APC)的Infrastruxure都是排式散热系统,它们在各机架设备之间设有半个机架宽的热交换器。这些热交换器将热量从机架的背部或较热的过道中吸取出来,再利用空调风将其吹出。由于这些系统极大地限制了热废气与冷空气混合的能力,因此它们比专门的机房空调还要有效得多。(APC的设备甚至让你可以为较热的过道加上顶棚和门,以防止冷热空气的混合。)更重要的是,机房空调本身就将占用整个系统60%的耗电,而APC的产品仅占用40%的耗电。

  以上的所有系统都可以延长数据中心的使用寿命,然而,这其中却有一个关键的限制性因素——大楼顶上冷却塔的容量,即现成供水系统制造冷却水的能力。考虑到这一因素,你在使用这些架式或排式冷却系统时,就必须关闭一些机房空调。幸运的是,大部分时候你这样做是完全不妨事的。

  现在很多机房空调都开得过头了,以至于大热天你在数据中心里还得穿上一件毛衣或是披风。惠普负责数据中心基础设施升级的副总裁保罗·伯瑞兹(Paul Perez)表示,只要有合理的安排,数据中心的室内温度保持在25摄氏度也不为过。而目前,许多数据中心的室内温度都在21摄氏度以下。

  专业支持

  虽然我们都知道机房空调开得过头了,但是要解决这个问题却不容易,因为多数机房空调都很原始:要么开,要么关,不能调节大小。目前只有10%的机房空调具有变速马达,但即便是有,要确定改变机房空调的制冷强度对整体系统的影响,也不是件容易的事。最近,一些厂商终于开发出了能够以平面和立体的方式绘制数据中心气流和温度梯度的硬件仪器和软件,但仍然没有谁可以测定每台机房空调的“影响力范围”。去年7月,惠普推出了热量范围制图(Thermal Zone Mapping)产品,它结合了软件和硬件仪器来对当前环境进行测量,并可估测调节机房空调对环境的影响。

  与该产品同时发布的,还有动态智能冷却(Dynamic Smart Cooling,下称DSC)设备。DSC是由惠普、Liebert公司及STULZ公司联合开发的产品。后两家厂商在北美的冷却设备市场上占有很大的份额。通过这次合作,惠普的软件便能对其他两家厂商最新机房空调的性能进行管理。对建于5年以前的一些数据中心而言,机房空调只需添加一个与惠普系统对接的控制板即可,前提是它们必须具备变速马达。但更老式的机房空调就无法与该产品兼容了。惠普表示,DSC可以为企业节省45%的冷却成本。

  要实现这一规模的成本节约,光靠配置控制系统还不够。企业最好考虑一下更换机房空调和电脑机架。

  一旦你决定了进行大换血,那就应该找专业人士来帮忙。没有哪家公司的IT部门有时间和能力去配置一个要求效率最大化的数据中心。即使你懂得什么叫做层流(laminar airflow)和乱流(turbulent airflow),你也没有必要的软件和工具去测量数据中心里的空气状态。当然,在进行具体的安装工作时,你还需要足够的水管工、电工和IT专家,以保证在预定的时间内完工。

  DSC最了不起的意义是,它可以为我们的数据中心设计带来前瞻性的思想。今后也许我们能拥有这样一个虚拟数据中心,在那里服务器会根据业务的需要自动开启和关机。DSC可以感知这种动态数据中心不断变化的冷却需求,并随时做出相应的调整。不过,就目前而言,这还是憧憬而已——没有数据中心能动态到这种程度——但考虑到大概每十年数据中心的设计就会有一次重大的改革,这样的憧憬无疑为我们提供了方向。

  不管新设计的始作俑者是谁,硬件仪器和模组化技术都是两个主要的要求。硬件仪器可以提供了解数据中心能耗的必要信息,而模组化则让你能够利用这些信息展开工作。模组化还能让系统以最高效率运行,而这在目前的数据中心里几乎是不可能的。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章