科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道Gartner分享数据中心秘密

Gartner分享数据中心秘密

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

在市场调研机构Gartner发布了一系列数据中心节电和冷却最佳策略之后,数据中心能耗问题再次进入人们的视野。

来源:ZDNet编译【原创】 2008年11月20日

关键字: 冷热通道 冷却 Gartner 数据中心

  • 评论
  • 分享微博
  • 分享邮件

在市场调研机构Gartner发布了一系列数据中心节电和冷却最佳策略之后,数据中心能耗问题再次进入人们的视野。

Garter谨慎地表示,如果企业遵循他们罗列的所有最佳策略,那么将可能节省数百万千瓦时的电力。Gartner还表示,在一座传统数据中心内部,35%~50%的电力被用于设备冷却,而绿色数据中心只需要15%。

Gartner研究副总裁Paul McGuckin发表声明称:“事实上所有数据中心由于使用了低效率冷却设计和系统而导致大量电力能源的浪费。甚至在一座小型数据中心内,每年浪费掉的电力也超过了100万千瓦时,而这是可以通过采用一些最佳策略来避免的。”

传统数据中心在冷却方面的浪费主要是由于冷空气与排放的热空气之间不受限制的混合。

McGuckin表示:“这种冷热空气的混合增加了冷却系统的负担,要为冷却系统提供更多的能源。”

Gartner所提出的11个削减能耗的最佳策略是:

·堵住升降地板上的漏洞。SunGard Availability Services在上个月也提出了这一点。显然,地板上的漏洞可能会让冷空气漏出与热空气混合。据Gartner称,这个看似技术含量很低的技巧实际上能够节省下10%用于冷却系统的能源。

·安装隔板。数据中心内都是机架设备,未被利用的机架空间需要使用隔板遮盖起来,这样就可以更好地管理空气流,例如防止一台设备排放的热空气混合到这台设备冷空气的吸入口。Gartner表示,如果有效利用这种隔板的话,空气温度可以降低22华氏度之多。

·调整CRAC设备。这里的CRAC设备是指老式的计算机房空调设备。显然这些设备彼此独立运转,对空气进行冷去和去湿。Gartner建议说,如果这些设备能够与新技术配合使用的话,那么冷却系统的效率将大幅提高。

·清理地板下空间。这通常适用于老式数据中心,不少老式数据中心还使用地下空间来布置电缆线,而这可能大大阻碍空气的流动。Gartner建议用户将地板下的空间清空。

·采用冷热通道。这是Gartner最推崇的数据中心最佳策略。Gartner表示,传统数据中心采用了“机房式”方法来布置机架设备,然而所有的进风口都是朝着同一方向的。这种安装方法有一个问题,那就是热空气从一排机架排出,与相邻机架吸入的冷空气混合,因此不同程度上提高了冷热空气的温度。最近十几年出现了一种新的设备排列方法,更好地控制了气流。

·安装感应器。似乎是显而易见的,但如果数据中心某个区域存在温度问题的话怎么办?Gartner表示,在感应器技术上的一点点投资就可以获得丰厚的回报——清楚地了解数据中心运作情况,还可以提供对升级冷却系统之后的结果分析。

·采用冷热通道封装。当一座数据中心采用了冷热通道,那么进一步通过封装来加强冷空气供应与热空气供应的独立性就是一种可行的做法。Gartner认为,对于大多数用户来说,冷热通道的有效封装是一项能够带来最显著成效的数据中心最佳策略。

·提高数据中心温度。大多数数据中心的温度过低。实际上,只提高几度并不会对设备带来影响。

·安装变速扇以及变速泵。传统计算机房空调设备都以不变速度运转的,但实际上应该采用变速风扇。风扇速度降低10%,风扇消耗的电力就会相应地降低27%。风扇速度降低20%,风扇消耗的电力就会降低49%。

·自由冷却方法。尽可能利用本地的气候,例如在冬季,室外的冷空气可以被用来冷却数据中心。

·利用模块化冷却方法来设计新的数据中心。越来越多的例子证明,使用模块化冷却方法可以提高冷却策略的效率。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章