科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道高性能计算数据中心制冷选择 风冷液冷谁更佳?

数据中心制冷选择 风冷液冷谁更佳?

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

IBM的施密特表示,对于新建的数据中心而言,最大的资金投入不是建筑本身,而是保证公司电力供应的设备成本以及相应的制冷成本。IBM的施密特说,那些采用机房整体制冷的数据中心,尤其是那些为了应对高热密度不得不采用更大的柜式空调的数据中心,采用液体制冷可以节省一笔不小的电费施。

作者:网界网 来源:网界网 2010年12月21日

关键字: 数据中心 IBM 惠普

  • 评论
  • 分享微博
  • 分享邮件

在本页阅读全文(共4页)

从风冷换成液冷?

为了解决高热密度机柜中的热点问题,一些数据中心已经开始转向到液体冷却了。最常用的液体冷却技术称为紧耦合制冷,需要用管道将冷冻液(通常为水或乙二醇)输送到高架地板之上或者直接把冷冻液输送到机柜内部,然后通过风和冷冻液之间的热交换达到给机柜内部降温的目的。库玛估计,Gartner 20%的企业在使用某种类型的液体制冷,至少在一些高密度的机柜里已经用到了液体制冷。

IBM的施密特说,那些采用机房整体制冷的数据中心,尤其是那些为了应对高热密度不得不采用更大的柜式空调的数据中心,采用液体制冷可以节省一笔不小的电费施。

但微软的Belady认为液体制冷仅限于一个相对较窄的领域:高性能计算。“如果你想把制冷的液体送到芯片,成本马上就会上升。”他争辩说,“迟早有人会问这样一个问题:这种方法成本那么高,为什么我还要用呢?”

Belady认为遏制用电密度不断上涨势头的最好方法是改变数据中心的收费方式。微软如今已经改变了它的成本分摊办法,不再是仅仅根据用户的占地面积和机柜的利用率来收费,而是开始把用户的用电量考虑进来。而采用这种收费办法之后,局面马上得到了改观,每个机柜的用电量开始下降。“如果成本按照用电量来考核的话,机柜内的热密度自然会下降。”他说。

自从微软开始按照用电量收费,其用户的关注重点从在尽可能小的空间中获得最强大的处理能力转变为用最小的电力消耗获得最大的处理能力。这并不是说收费策略的这种改变就一定不会导致出现高热密度,最终还要取决于所提出的解决方案总体能源效率。 “但是,如果你是按照占用空间的多少收费,100%是引向高热密度的。” Belady说。

今天,很多IT设备供应商的产品是按最高热密度设计的,用户往往也愿意为了节省机房地面空间而购买更贵的适应高热密度环境的服务器等设备。因为很多机房的收费是按照占用的机房空间来计算的。殊不知,更高的用电量会带来电力分配设备和制冷用电量相应增加,由此导致电能最终利用率会下降。实际上,营运成本中80%是随着用电量的增加而会增加的,比如机电基础设施必须为机柜输送所需的电力规模,同时为这些机柜内的设备制冷。

Belady以前曾是惠普公司的一名非常杰出的工程师,从事服务器的设计工作。他说,IT设备的设计就应该考虑到让设备能在较高的温度下可靠工作。比如用电设备要被设计为最高在27摄氏度以上的温度下工作。这个设计温度从2004年开始一直在不断上升设计师。这一年ASHRAE(美国社会、制冷及空调工程师协会)规定设计温度为72华氏度(22.2摄氏度)。

不过,Belady认为数据中心设备在27度以上的温度运行,可能带来更大的用电效率。“一旦机房允许在较高的温度下运行,机会之门就被打开了。比如,你可以利用室外的空气来为机房降温,这样你就无需安装这么多的冷却设备,不过,机柜的热密度不能太高。”他说,有些处于气温比较低的地方的数据中心已经在尝试在冬天关闭冷却机组,而直接使用室外的冷空气来免费给机房降温。

如果IT设备可以在35摄氏度下正常工作,很多数据中心几乎可以全年不用空气冷却器。Belady接着说:“而如果IT设备在50摄氏度下也可以正常工作,那世界上所有的数据中心都不再需要空调了,这将完全数据中心的运营方式。不幸的是,至少现在看来是不太可能的。”

Belady希望IT设备能更结实一些,但他也认为,服务器实际上比大多数数据中心的管理者所设想的要结实一些。他认为整个行业需要重新思考如何运营和管理分布式计算系统。

Belady说,理想的策略是要开发出一种系统,这个系统中每个机柜是针对某个特定的功率密度和工作负载进行专门优化的,这可以确保每个机柜始终性能最佳、最节能。这样,不管是供电还是制冷资源都将得到最有效的利用,既没有过度利用也不浪费。“如果你的基础设施没有得到充分使用,从可持续性的角度而言,与多度利用相比这是一个更大的问题。”他说。

未来会怎么样?

Belady认为,未来数据中心可能向两个方向演进。高性能计算将采用液体制冷,而其他的企业数据中心和基于互联网数据中心(如微软的数据中心)仍然会继续沿用风冷的制冷方式。不过,这些数据中心可能会迁往低价更便宜、电力成本更低的地方,这样才能继续扩大规模。

戴尔企业产品部CTO Paul Prince认为,大多数数据中心不会很快遇到高功率密度的问题。每个机架的平均功率密度仍然在机房空调系统可以承受的范围内。他说,冷热通道的系统和设计围栏进行冷热气流隔离等方法人为地在机房中开辟出了“一个冷却区”,在一定程度上解决数据中心局部热点问题。“数据中心的功率密度和热密度肯定将继续上升。但是,这种变化一定是渐进的。”

在ILM公司,克拉克注意到采用液体作为制冷剂的紧耦合制冷方式是一个大趋势,不过,他和大多数同行一样,对在数据中心用液体作为冷媒还有些不放心。但他认为,高性能的基础设施必须采用这些新的办法。

“虽然暂时有些难以接受,但是既然是个大趋势,我们会尽快改变我们的观念,只要这些技术能真正帮助我们解决问题。”克拉克说。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章