科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航



ZDNet>服务器频道>ZD评测>数据中心的绿色征程

数据中心的绿色征程

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

数据中心非常耗电——美国环保局(Environmental Protection Agency)在去年8月2日提交给国会的一份数据中心报告中,得出了这样一个似乎有些小题大做的结论。

来源: 2008年03月10日

关键字:IDC 四核 VMware 低能耗 服务器 数据中心 整合 服务器整合

    ZDNetChina服务器站 3月10日集群分析  数据中心非常耗电——美国环保局(Environmental Protection Agency)在去年8月2日提交给国会的一份数据中心报告中,得出了这样一个似乎有些小题大做的结论。你也许会觉得数据中心耗电是天经地义的事,不过,在看过美国环保局给出的一些惊人数字之后,恐怕你就不会这么认为了。美国的数据中心在2006年总耗电量为610亿千瓦时,相当于全美用电总量的1.5%,或是580万户普通家庭用电量的总和,其成本高达45亿美元,而其中10%的电能是由联邦政府消耗的。

  报告中更加重要的内容,是美国环保局关于未来耗电的预测。如果不采取任何措施,那么数据中心的耗电量到2011年就会翻上一番;而如果实施了环保局提出的一些政策,那到2011年数据中心的总耗电量将会下降到2001年的水平——这一上一下的差距有900亿千瓦时之巨。

  虽然美国环保局提出的建议大都只是泛泛而谈(如整合服务器等等),很少拿出具体的措施,但难能可贵的是,他们提出要对现有的设备运行进行改良,而不仅仅是采用低能耗的技术。在我们的个人生活中,当遇到类似的问题时,我们往往倾向于从技术上去寻找解决办法。比如说,想减肥的人,总是幻想通过吃药抽脂等外部手段来达到目的,而很少考虑从自身的饮食和运动入手。为数据中心的能耗瘦身也是一样的道理:采用低能耗的新技术固然不错,但如果你能从现有的技术入手,重新考虑如何提高它们的效率,那你将会有更大的收获。

  不过,美国环保局并没有建议国会采取任何行动。虽然美国现在出台了一个总统令,要求联邦政府机关部门每年必须减少百分之几的耗电量,但环保局并不建议采取财政或税务措施来鼓励私有行业也这样做。环保局推荐的办法是,对减少能耗的企业进行表彰,并给它们的产品颁发“能源之星”的证书,就好像小学时你做了好事老师给你戴朵大红花一样。不管怎么说,联邦政府能够意识到这个问题,就算是跨出了正确的一步。目前,美国环保局正忙着为服务器及其相关产品制作能源之星证书呢。无论对哪家厂商来说,联邦政府都是个大客户,因此他们当然会竭尽所能地去满足能耗标准,以争取把那一张荣誉证书弄到手。

  节能的现实意义

  历史早就告诉我们,美国的大公司从不做不赚钱的事,因此,如果政府不出台一些激励措施,那绿色技术恐怕就得按商业的规则办事了。它必须能为企业创造价值,至少也得帮企业在营销宣传时撑撑门面,要是还能美化一下企业的总体拥有成本,那就更好了。其实,对于大多数绿色技术而言,创造一些经济价值并非难事,但若是要考量它到底能为一个数据中心带来多大的效益,那就是另外一回事了。

  首当其冲的问题是电费。大部分数据中心只在多用型的大楼里占据一间半室,想要将数据中心的用电和其他用电分开,就必须改造房间的格局,并配置一些传感器,或是安装一个独立的电表。根据《信息周刊》对472名商业技术专家的调查,几乎所有的人都认为,这种节能方法对于企业的IT部门而言完全是吃力不讨好,而实际上也只有22%的IT部门会肩负起管理用电的任务。因此,虽然采用低能耗的措施能够降低系统的总体拥有成本,但多数IT部门却并不认为这会带来多少经济效益。

  由此看来,省电的首要工作之一,是要引起管理层的重视,让管理层认可并表彰IT部门所做的节能工作。一旦管理层点了头,IT部门就会认识到总体拥有成本的意义了,做起节能工作来也就有了干劲。

  不过,即便你无法让管理层看到节能的好处,那也有多种理由说服IT部门搞一搞绿色运动。比方说,绿色技术可以解决IT部门其他的一些头痛问题。在惠普公司(Hewlett-Packard,下称惠普)最近召开的一次大会上,出现了两个相互冲突的数据。一方面,惠普表示,在今后的几年内,半数以上的现有数据中心将被废弃,而与此同时,惠普又认为3/4左右的数据中心将会占据过多的室内面积。这一明显的矛盾,意味着室内面积不应当成为评估数据中心能力的衡量标准。随着IT系统密度(即每机架单位空间内的能耗)的增加,能量和冷却能力的消耗速度有时远远超过空间,至少就数据中心目前的配置来看是这样。

  我们的调查结果也证实了这一观点,半数左右的人表示他们在今后的两年内将整改或新建数据中心。不过,在他们着手整改之际,他们会发现自己有关数据中心设计的每个设想都有瑕疵。现在,我们就来关注一下数据中心整改的问题。首先,你得清楚,永远也没有最环保的数据中心,你只能通过调整、调整再调整来优化能源的利用。当然,像谷歌公司(Google,下称谷歌)或亚马逊网站(Amazon.com)这样财大气粗的巨头可以在水坝或地热口边修建豪华的设施,而对于我们一般人而言,要追求环保,就只能因地制宜,最大限度地开发数据中心的潜能了。

  服务器整合

  服务器整合是数据中心优化的首要步骤。它不仅有助于节约能源和空间,更是维护关键系统的重要手段。

  一台大存储容量的双插槽四核服务器,可以取代30台或者更多的小容量单核系统。这样一来,仅服务器断电所节省的用电就将达到12至15千瓦,这样算下来的话,在加州的用户每年可节约1.5万美元的电费,而纽约的用户更是可以节省1.8万美元以上。一台这种型号的服务器目前市场价大概是1万美元,VMware公司的虚拟软件也在这个价位左右(如果你选择XenSource的虚拟软件,那还能省不少钱),两者加起来差不多2万美元,这笔钱你一年就能省下来。

  当然,与管理30台服务器相比,管理一台服务器所节省的IT资源就更可观了。要知道,管理30台虚拟服务器可不是一件轻松的事,这足以让许多企业对补丁配置等服务器管理任务实行自动化。国际数据公司(IDC)发现,随着多核及虚拟技术的普遍,服务器消费的增长势头有所减缓,甚至可能出现停滞现象,而管理服务器的费用和用电成本却都以飞快的速度在上升。由于管理费非常庞大,因此,在这上面进行瘦身无疑会对IT部门的整体开支产生明显的影响。对于很多企业而言,实行一个计划周详的服务器整合方案以及补丁管理自动化等措施所需的成本,不需一年就能赚回来。

    存储管理

  许多企业甚至厂商都认为,管理存储系统的能耗是不现实或者没有意义的事。这无疑是种误解。尤其是在数据密集型行业中,存储系统与服务器消耗的能量和空间不相上下。此外,现在企业的存储容量一般每年都以50%的速度在递增。因此,存储系统的节能具有非常重要的意义。

  与服务器相同,存储效率的提高也需要依靠管理和整合。不幸的是,许多企业还不知存储管理为何物。据太阳微系统公司(Sun Microsystems)估计,只有30%的企业存储系统得到了有效的利用——这是一个非常令人警醒的数字,考虑到它的来源是一家存储系统厂商,这就更值得我们重视了。要想把剩余的70%利用起来,唯一的办法就是切实进行存储资源管理。

  节能高招

  保持服务器和存储系统的环境清洁可以减轻整改和新建数据中心的压力,这对企业来说是个好消息。不过,即便你能尽可能地利用现有的数据中心,那些一直以来被公认为最佳的办法也会遇到挑战。随着机架上的1U服务器和刀片系统越堆越多,在活地板上使用穿孔瓷砖的办法便不能为机架上的系统提供足够的流动冷空气了。在上世纪建成的一些设施中,有些活地板冷却系统可消耗7千瓦/机架。虽然在今天大部分数据中心的机架用不了那么多能量,不过,在某些情况下,它们的能耗却可能远远超出这一数字。比方说,一个载满刀片服务器的机架会消耗30千瓦,甚至更多——这就只有特殊的局部性冷却系统才能承受如此大的负荷。

  过去人们提出的解决办法是分散负荷,将刀片服务器和其他高能设备与低能耗的存储和网络系统共同安置在一起,或是干脆让部分机架空着。当然,即使是从现在来看,这对那些有能力做到这一点的企业而言,仍不失为一个好办法。不过,要实现这一方法现在是越来越难了。因为分散负荷之后,每机架的平均能耗将会上升到许多数据中心无法承受的地步。因此,我们还是得把那些高能耗的系统放在一起,然后在室内空调的基础上,再配置架式或排式的冷却系统,以加强冷却效果。

  架式的冷却系统可以从很多厂商那里采购得到。国际商业机器公司(IBM)和惠普当然是其中杰出的代表,不过它们采用的方法却有所不同。IBM的eServer Rear Door Heat eXchanger更换了标准IBM机架的后门,利用整栋大楼供应的冷却水来散热,可祛除机架系统产生的55%的热量。

  这种方法的优点在于简便和低价,只需4,400美元即可。该系统于两年前推出,可在热量进入数据中心之前便将其散除。通过降低机架设备的热足迹,IBM的系统可将高水线从每机架7千瓦提升至大约15千瓦左右,就这一价位的产品来说,这已经很不错了。IBM产品的唯一不足之处在于,它要求水压必须达到60PSI。不是每座大楼的供水系统都能支持这一压力水平,如果机架的数量过多,那就更加困难了。

  惠普的解决方案更加全面,但占据的空间面积也更大,价格当然也就更高。这套在去年推出的Modular Cooling System也利用了现成的供应水系统,但同时还添加了自封闭式的风扇和水泵。这样一个装备齐全的系统可以散除多达30千瓦的热量,并且对室内的冷却系统不会造成任何影响。散热如此充分的产品,可以帮助你极大地延长数据中心的使用寿命。虽然它的市场售价高达3万美元,但它让你不必再新建数据中心,因此绝对物有所值。

  当然,如果你只是想找一个能尽可能散热的方法,那可以选用Liebert公司的产品。该公司的XDH系统可安装于机架之上,据称最高散热能力也可达到30千瓦。

  Liebert公司的XDH以及高能转换公司(Advanced Power Conversion,下称APC)的Infrastruxure都是排式散热系统,它们在各机架设备之间设有半个机架宽的热交换器。这些热交换器将热量从机架的背部或较热的过道中吸取出来,再利用空调风将其吹出。由于这些系统极大地限制了热废气与冷空气混合的能力,因此它们比专门的机房空调还要有效得多。(APC的设备甚至让你可以为较热的过道加上顶棚和门,以防止冷热空气的混合。)更重要的是,机房空调本身就将占用整个系统60%的耗电,而APC的产品仅占用40%的耗电。

  以上的所有系统都可以延长数据中心的使用寿命,然而,这其中却有一个关键的限制性因素——大楼顶上冷却塔的容量,即现成供水系统制造冷却水的能力。考虑到这一因素,你在使用这些架式或排式冷却系统时,就必须关闭一些机房空调。幸运的是,大部分时候你这样做是完全不妨事的。

  现在很多机房空调都开得过头了,以至于大热天你在数据中心里还得穿上一件毛衣或是披风。惠普负责数据中心基础设施升级的副总裁保罗·伯瑞兹(Paul Perez)表示,只要有合理的安排,数据中心的室内温度保持在25摄氏度也不为过。而目前,许多数据中心的室内温度都在21摄氏度以下。

  专业支持

  虽然我们都知道机房空调开得过头了,但是要解决这个问题却不容易,因为多数机房空调都很原始:要么开,要么关,不能调节大小。目前只有10%的机房空调具有变速马达,但即便是有,要确定改变机房空调的制冷强度对整体系统的影响,也不是件容易的事。最近,一些厂商终于开发出了能够以平面和立体的方式绘制数据中心气流和温度梯度的硬件仪器和软件,但仍然没有谁可以测定每台机房空调的“影响力范围”。去年7月,惠普推出了热量范围制图(Thermal Zone Mapping)产品,它结合了软件和硬件仪器来对当前环境进行测量,并可估测调节机房空调对环境的影响。

  与该产品同时发布的,还有动态智能冷却(Dynamic Smart Cooling,下称DSC)设备。DSC是由惠普、Liebert公司及STULZ公司联合开发的产品。后两家厂商在北美的冷却设备市场上占有很大的份额。通过这次合作,惠普的软件便能对其他两家厂商最新机房空调的性能进行管理。对建于5年以前的一些数据中心而言,机房空调只需添加一个与惠普系统对接的控制板即可,前提是它们必须具备变速马达。但更老式的机房空调就无法与该产品兼容了。惠普表示,DSC可以为企业节省45%的冷却成本。

  要实现这一规模的成本节约,光靠配置控制系统还不够。企业最好考虑一下更换机房空调和电脑机架。

  一旦你决定了进行大换血,那就应该找专业人士来帮忙。没有哪家公司的IT部门有时间和能力去配置一个要求效率最大化的数据中心。即使你懂得什么叫做层流(laminar airflow)和乱流(turbulent airflow),你也没有必要的软件和工具去测量数据中心里的空气状态。当然,在进行具体的安装工作时,你还需要足够的水管工、电工和IT专家,以保证在预定的时间内完工。

  DSC最了不起的意义是,它可以为我们的数据中心设计带来前瞻性的思想。今后也许我们能拥有这样一个虚拟数据中心,在那里服务器会根据业务的需要自动开启和关机。DSC可以感知这种动态数据中心不断变化的冷却需求,并随时做出相应的调整。不过,就目前而言,这还是憧憬而已——没有数据中心能动态到这种程度——但考虑到大概每十年数据中心的设计就会有一次重大的改革,这样的憧憬无疑为我们提供了方向。

  不管新设计的始作俑者是谁,硬件仪器和模组化技术都是两个主要的要求。硬件仪器可以提供了解数据中心能耗的必要信息,而模组化则让你能够利用这些信息展开工作。模组化还能让系统以最高效率运行,而这在目前的数据中心里几乎是不可能的。

综合评分:8.03 分
云能力:8.4 分
营业额:37.7亿美元[2011]
云服务:VMware云基础架构套件

查看更多 >>

邮件订阅

如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅ZDNet技术邮件将是您的最佳途径之一。