科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道高性能计算数据中心制冷选择 风冷液冷谁更佳?

数据中心制冷选择 风冷液冷谁更佳?

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

IBM的施密特表示,对于新建的数据中心而言,最大的资金投入不是建筑本身,而是保证公司电力供应的设备成本以及相应的制冷成本。IBM的施密特说,那些采用机房整体制冷的数据中心,尤其是那些为了应对高热密度不得不采用更大的柜式空调的数据中心,采用液体制冷可以节省一笔不小的电费施。

作者:网界网 来源:网界网 2010年12月21日

关键字: 数据中心 IBM 惠普

  • 评论
  • 分享微博
  • 分享邮件

在本页阅读全文(共4页)

ILM公司(Industrial Light & Magic)最近用目前最热门的IBM BladeCenter服务器上替换其旧服务器。ILM公司的这一举措将把数据中心单个机柜的电能消耗平均减少140千瓦,节省幅度达到84%。不过,新机柜中的热密度反而更好高了:现在每个机柜用电28千瓦,而之前为24千瓦。这些电能最终都要转换成热能,而这些热能会透过机柜散发到数据中心,最后由数据中心的空调系统带走。

新机柜配有84台刀片服务器,每个刀片服务器有2个四核处理器和32GB的内存。这些服务器功能非常强大,与3年前采购的BladeCenter相比,一台服务器的处理能力相当于过去的7台BladeCenter。这家公司主要进行电脑特技设计,这些机柜组成渲染农场用以对图像进行处理。一个新的42U机柜产生的热量相当9个家用烤箱以最高温度工作。为了制冷,ILM数据中心的空调系统几乎是满负荷工作。

惠普副总裁兼关键基础设施服务部门总经理Peter Gross介绍说,近年来新建的大多数数据中心其设计制冷能力大都为每平方英尺100-200瓦,每个机柜的制冷能力为4千瓦。而一个数据中心的设计制冷能力达到200瓦时才能支持平均5千瓦的机柜热密度。如果对气流流向进行精心设计和专门优化,机房的空气调节系统有可能保证用电量达25千瓦的机柜。而现在ILM公司的数据中心每个机柜用电达到28千瓦,这已经是现有的机房空调系统最高极限了,从事数据中心能效研究的IBM 研究员兼首席工程师Roger Schmidt说,“ILM是在挑战30千瓦的极限,这将注定是一个相当艰苦的工作。”

这是可持续发展?

现在的问题是接下来会发生什么?“未来用电量还要增加怎么办?完全可能因为制冷问题无法解决,导致我们不能在往数据中心中添加任何设备。今天,这个问题已经开始显现出来了。”Schmidt说。

Schmidt认为超过30千瓦的高功率密度计算以后将不得不依赖于水冷。不过其他专家表示,数据中心的相关设备制造商也有可能通过通力合作降低服务器的部署成本,使得服务器不用都挤在机柜中,而是分开摆放,这样机柜中的热密度就不至于越来越高。

ILM信息技术总监凯文-克拉克对采用新的刀片服务器后获得的计算能力的提升和节电效果很满意,他说这也符合当今节能环保的大趋势。根据IDC的研究,服务器的平均价格自2004年以来已经下降了18%,而CPU成本下降了70%,达到715美元。但克拉克无法知道,这种计算密度成倍增长持续下去的话,自己的机房到底还能维持多久。“就现有的机房设备而言,如果计算密度加倍的话,从制冷的角度来说,就是难以满足需求的。”他说。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章