科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道高性能计算数据中心制冷选择 风冷液冷谁更佳?

数据中心制冷选择 风冷液冷谁更佳?

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

IBM的施密特表示,对于新建的数据中心而言,最大的资金投入不是建筑本身,而是保证公司电力供应的设备成本以及相应的制冷成本。IBM的施密特说,那些采用机房整体制冷的数据中心,尤其是那些为了应对高热密度不得不采用更大的柜式空调的数据中心,采用液体制冷可以节省一笔不小的电费施。

作者:网界网 来源:网界网 2010年12月21日

关键字: 数据中心 IBM 惠普

  • 评论
  • 分享微博
  • 分享邮件

在本页阅读全文(共4页)

求购千瓦

不过,指望客户不仅知道他们需要租用什么样的设备,还要了解安装了这些设备的机柜大约需要用多少电,似乎不太现实。

“对于某些客户来说,这是非常现实的,”从事服务器托管服务的Terremark公司的高级副总裁斯图尔特说。事实上,Terremark采用这种方法也是响应客户的需求。 “客户中有不少人找到我们说,它们最多需要多少电,让我们为他们安排空间,”他说。如果客户不知道什么是它的机柜要用多少电,Terremark会单独给这个公司配一根总电缆,通过这个电缆为客户的机柜供电。

IBM的施密特认为,功率密度还有可能进一步增加,但数据中心的制冷方案需要改变。

ILM的数据中心完成于2005年,设计供电能力为每平方英尺200瓦,从机房来说这个电力供应和制冷能力已经足够了,现在的问题是没有方法能有效地解决高密度机柜内部的制冷。

ILM公司采用了冷/热通道的设计,同时管理人员对通往冷通道的格栅板的数量和位置进行了调整,从而对流经机柜内的气流进行了优化。即便如此,为了避免机柜内的局部热点,空调系统还得保证整个13500平方英尺的机房不超过18.5摄氏度。克拉克知道这有些浪费,今天的IT设备设计运行温度高达27摄氏度以上,所以他正在关注一种称为冷通道密封的技术。

已经有一些数据中心在试验对一些高热密度地方的冷热通道进行密封,通道两端设有大门,为防止热空气和冷空气通过机柜顶端到天花板之间的空隙进行混合,这个位置也用隔板封上。除了这些办法之外,有的数据中心还让冷空气可以直接进入机柜底部,在机柜内与IT设备进行热交换,然后逐步上升,最后通过机柜顶部的出口进入回风道,通过天花板顶部的管道返回,从而创造出一个闭环的制冷系统,彻底避免冷、热气流的混合。

“冷/热通道的方法其实还是传统的方法,而不是最优的。”埃森哲数据中心技术经理和运营经理Rocky Bonecutter说:“最新的趋势是铺设围栏,对冷热气流进行分流。”

据惠普的Gross估计,如果数据中心利用这种技术,普通的机房空调系统可以最高满足每个机柜25千瓦左右的制冷需求。“当然,这需要仔细地对冷热气流分进行隔离、防止串流,还要对气流路线进行优化。这些工作必须固定下来,成为一种例行工作。”他说。

虽然按照现在的标准来重新设计数据中心,能降低能耗和解决制冷的难题,然而,单个机柜的功率却是越来越大,最新安装刀片服务器的机柜每个功率已经超过25千瓦。在过去的5年里,IT一直在不断对机柜、高架地板等进行重新设计以及对气流进行优化,最显而易见的成果是提高了电能的利用率。但是,如果机柜内的热密度继续上升,建设密封的围栏将确保机房制冷的最后一招了。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章