科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道数据中心变身“未来水世界”

数据中心变身“未来水世界”

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

随着提高制冷效率的压力不断增大,水冷方法再次复苏。配置使用那些针对解决本地散热点的紧凑模块化系统,IT经理可以增加更多的计算能力,但是不增加任何热量。

来源:ZDNet编译 2008年8月21日

关键字: APC 散热 服务器 水冷 数据中心

  • 评论
  • 分享微博
  • 分享邮件

在本页阅读全文(共2页)

纽约Syska Hennessey Group数据中心冷却专家Vali Sorrell表示:“过去数据中心每平方英尺50瓦算是密度很高了,但是现在达到了每平方英尺200瓦到300瓦,甚至还有人提到密度更高的架构。这就给为这些设备进行冷却的基础架构很大的压力。”

虽然散热点只占到了设备总量的一半,但是如果不加控制的话,这些散热点就会成为数据中心扩展时一个限制因素。

企业级数据中心管理服务提供商CDW Berbee公司数据中心经理Wayne Rasmussen表示:“五年前,每天晚上我都夜不能寐,担心空间的限制可能会阻碍我的业务和数据中心增长。但是现在我的担忧从占地空间转移到了热量密度上。”

随着提高制冷效率的压力不断增大,水冷方法再次复苏。配置使用那些针对解决本地散热点的紧凑模块化系统,IT经理可以增加更多的计算能力,但是不增加任何热量。

重返水世界

《未来水世界》这部美国大片席卷了电影票房,现在它再次席卷了数据中心。水冷有两个好处——它将冷却剂直接引入热源,它每个单元的热量转换能力是空气冷却方法的3500倍之多。

纽约高科技咨询公司Shen Milsom & Wilke总经理Robert McFarlane表示:“因为有大量的热负载,所以我们不得不更有效地排掉热量,这也就意味着将制冷更接近热量产生的地方。也就是说,在热量产生的地方采用一些可以排除热量的东西——水或者制冷剂。”

今年4月,IBM宣布他们最新推出的System p5 575系统采用了水冷技术,System p5 575的机柜中内置了14个服务器水冷装置,通过芯片顶部的一个小型铜板上放置的管道来抽水制冷。这让IBM可以在一个机架内部署448个处理器内核,其性能是上一代产品的5倍,而电力消耗却是之前的60%。

IBM还有其他两款水冷产品Data Center Stored Cooling Solution和Rear Door Heat eXchaner。Data Center Stored Cooling Solution可以在非高峰时段对水进行冷却,而这些时段的温度和能源价格也都相对较低。它将冷却水保存起来直到高峰时段进行使用。Rear Door Heat eXchaner是一款与服务器机架后端相连接的4英寸设备,可以提供高达50000 BTU的制冷能力。

其他厂商也尝试将水冷技术集成到他们的产品中。爱默生网络能源公司的Liebert XD采用了液体冷却剂来对服务器机架进行冷却;Knurr AG的CoolTherm在机架面板的底部安装了一部水冷热量交换器;Egenera的CoolFrame技术将Liebert XD系统与Egenera的BladeFrame EX设计结合到一起。ISR的SprayCool M-Series产品甚至细致到了处理器层级,它是在服务器内配置了多个可以将冷却剂直接喷洒到CPU上的模块。除此之外,NEC和日立公司也推出了采用液体冷却技术的硬盘驱动器产品,完全封装的驱动器可以将噪音将至最低。

模块化

另外一个策略就是加强模块的使用、完全封装服务器系统、经常结合水冷策略,例如Sun的Modular Datacenter S20、Rackable System的ICE Cube以及Verari的Forest等集装箱式系统。此外,微软前段时间还宣布将在芝加哥地区建造一座投资5亿美元的数据中心,该数据中心内包括150到200左右个集装箱式数据中心,可以容纳1000到2000台服务器。

另外采用American Power Conversion Corporation (APC)或者Liebert的封装系统也可以在现有系统中应用类似的方法。去年,斯坦福大学工程学院的高性能计算中心就安装了一台1800核、14 Teraflop的超级计算机。

高性能计算中心经理Steve Jones表示:“大学数据中心只能为我们提供大约每机架5千瓦的功率以及这些设备足够的冷却能力。我们要求的密度远远高于这个数字,大约是每机架20千瓦,所以他们不能满足我们的需求。”

他们没有将时间和金钱花在建造新的数据中心上,而是接手了一个计算能力过低的实验室,在其中采用了APC的InfraStruXure系统。该大学的设备小组向机房内通入了水冷管道,APC、戴尔以及Clustercorp的技术人员安装了机架和服务器。从设备运送到达到集群启动工作总共花了大约11天的时间。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章