科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航



ZDNet>服务器频道>ZD评测>数据中心变身“未来水世界”

数据中心变身“未来水世界”

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

随着提高制冷效率的压力不断增大,水冷方法再次复苏。配置使用那些针对解决本地散热点的紧凑模块化系统,IT经理可以增加更多的计算能力,但是不增加任何热量。

来源:ZDNet编译 2008年08月21日

关键字:APC 散热 服务器 水冷 数据中心

纽约Syska Hennessey Group数据中心冷却专家Vali Sorrell表示:“过去数据中心每平方英尺50瓦算是密度很高了,但是现在达到了每平方英尺200瓦到300瓦,甚至还有人提到密度更高的架构。这就给为这些设备进行冷却的基础架构很大的压力。”

虽然散热点只占到了设备总量的一半,但是如果不加控制的话,这些散热点就会成为数据中心扩展时一个限制因素。

企业级数据中心管理服务提供商CDW Berbee公司数据中心经理Wayne Rasmussen表示:“五年前,每天晚上我都夜不能寐,担心空间的限制可能会阻碍我的业务和数据中心增长。但是现在我的担忧从占地空间转移到了热量密度上。”

随着提高制冷效率的压力不断增大,水冷方法再次复苏。配置使用那些针对解决本地散热点的紧凑模块化系统,IT经理可以增加更多的计算能力,但是不增加任何热量。

重返水世界

《未来水世界》这部美国大片席卷了电影票房,现在它再次席卷了数据中心。水冷有两个好处——它将冷却剂直接引入热源,它每个单元的热量转换能力是空气冷却方法的3500倍之多。

纽约高科技咨询公司Shen Milsom & Wilke总经理Robert McFarlane表示:“因为有大量的热负载,所以我们不得不更有效地排掉热量,这也就意味着将制冷更接近热量产生的地方。也就是说,在热量产生的地方采用一些可以排除热量的东西——水或者制冷剂。”

今年4月,IBM宣布他们最新推出的System p5 575系统采用了水冷技术,System p5 575的机柜中内置了14个服务器水冷装置,通过芯片顶部的一个小型铜板上放置的管道来抽水制冷。这让IBM可以在一个机架内部署448个处理器内核,其性能是上一代产品的5倍,而电力消耗却是之前的60%。

IBM还有其他两款水冷产品Data Center Stored Cooling Solution和Rear Door Heat eXchaner。Data Center Stored Cooling Solution可以在非高峰时段对水进行冷却,而这些时段的温度和能源价格也都相对较低。它将冷却水保存起来直到高峰时段进行使用。Rear Door Heat eXchaner是一款与服务器机架后端相连接的4英寸设备,可以提供高达50000 BTU的制冷能力。

其他厂商也尝试将水冷技术集成到他们的产品中。爱默生网络能源公司的Liebert XD采用了液体冷却剂来对服务器机架进行冷却;Knurr AG的CoolTherm在机架面板的底部安装了一部水冷热量交换器;Egenera的CoolFrame技术将Liebert XD系统与Egenera的BladeFrame EX设计结合到一起。ISR的SprayCool M-Series产品甚至细致到了处理器层级,它是在服务器内配置了多个可以将冷却剂直接喷洒到CPU上的模块。除此之外,NEC和日立公司也推出了采用液体冷却技术的硬盘驱动器产品,完全封装的驱动器可以将噪音将至最低。

模块化

另外一个策略就是加强模块的使用、完全封装服务器系统、经常结合水冷策略,例如Sun的Modular Datacenter S20、Rackable System的ICE Cube以及Verari的Forest等集装箱式系统。此外,微软前段时间还宣布将在芝加哥地区建造一座投资5亿美元的数据中心,该数据中心内包括150到200左右个集装箱式数据中心,可以容纳1000到2000台服务器。

另外采用American Power Conversion Corporation (APC)或者Liebert的封装系统也可以在现有系统中应用类似的方法。去年,斯坦福大学工程学院的高性能计算中心就安装了一台1800核、14 Teraflop的超级计算机。

高性能计算中心经理Steve Jones表示:“大学数据中心只能为我们提供大约每机架5千瓦的功率以及这些设备足够的冷却能力。我们要求的密度远远高于这个数字,大约是每机架20千瓦,所以他们不能满足我们的需求。”

他们没有将时间和金钱花在建造新的数据中心上,而是接手了一个计算能力过低的实验室,在其中采用了APC的InfraStruXure系统。该大学的设备小组向机房内通入了水冷管道,APC、戴尔以及Clustercorp的技术人员安装了机架和服务器。从设备运送到达到集群启动工作总共花了大约11天的时间。

CDW Berbee在对他们面积为12000平方英尺的数据中心进行扩展时也采用了类似的策略。为了消除散热点,他们安装了8个20千瓦的Liebert XDH垂直排列冷却器和160千瓦的Liebert XDC冷却剂冷却剂。

Rasmussen表示:“现在我们所有的系统都以统一协调的状态运行,基本上我们将其保持在72华氏度。”

McFarlane表示,虽然现在有很多可以配合安装的完善水冷机柜,但是他们大多是用于解决某些特殊难题的。

他说:“我曾经处理过一些规模较小的数据中心——大约20到30个机柜——在这样数据中心是可以全部使用液冷机柜的。但如果是一个有成本上千个机柜的大型数据中心的话,可能其他一些解决方案会比完全采用液冷机柜更好一些。”

打开窗户

虽然现在封装的服务器环境不断增多,但是开放式系统也吸引住人们的眼球。例如ESTECH International的Millennium Series Chiller Optimizer采用室外空气节约装置来减少对冷却器和空调设备的需求。这种系统可以对内部和外部环境条件进行监控,决定采用多少室外空气来达到优化冷却效率的目的。

Sorrell表示:“如果系统设计良好、回收气体温度较高的话,那么在热通道内采用室外空气要比采用回收气体更加有效。你可以选择利用室外空气进行气体交换或者启动冷却装置。如果室外温度大幅下降的时候,关闭冷却装置可以节省不少成本。”

虽然室外空气的清洁程度可以被用于数据中心,但是这些空气仍然需要经过过滤。另外采用室外空气优化策略还可以在主冷却设备发生故障的时候起到备援的作用。

Sorrell表示:“如果因为某种原因冷却装置失效的话,你几乎可以在任何时候任何地方采用室外空气进行冷却。即使室外空气达到90华氏度(大约32摄氏度),数据中心设备也可以在这个温度下正常工作大约1到2个小时。”

邮件订阅

如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅ZDNet技术邮件将是您的最佳途径之一。