扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
在本页阅读全文(共2页)
纽约Syska Hennessey Group数据中心冷却专家Vali Sorrell表示:“过去数据中心每平方英尺50瓦算是密度很高了,但是现在达到了每平方英尺200瓦到300瓦,甚至还有人提到密度更高的架构。这就给为这些设备进行冷却的基础架构很大的压力。”
虽然散热点只占到了设备总量的一半,但是如果不加控制的话,这些散热点就会成为数据中心扩展时一个限制因素。
企业级数据中心管理服务提供商CDW Berbee公司数据中心经理Wayne Rasmussen表示:“五年前,每天晚上我都夜不能寐,担心空间的限制可能会阻碍我的业务和数据中心增长。但是现在我的担忧从占地空间转移到了热量密度上。”
随着提高制冷效率的压力不断增大,水冷方法再次复苏。配置使用那些针对解决本地散热点的紧凑模块化系统,IT经理可以增加更多的计算能力,但是不增加任何热量。
重返水世界
《未来水世界》这部美国大片席卷了电影票房,现在它再次席卷了数据中心。水冷有两个好处——它将冷却剂直接引入热源,它每个单元的热量转换能力是空气冷却方法的3500倍之多。
纽约高科技咨询公司Shen Milsom & Wilke总经理Robert McFarlane表示:“因为有大量的热负载,所以我们不得不更有效地排掉热量,这也就意味着将制冷更接近热量产生的地方。也就是说,在热量产生的地方采用一些可以排除热量的东西——水或者制冷剂。”
今年4月,IBM宣布他们最新推出的System p5 575系统采用了水冷技术,System p5 575的机柜中内置了14个服务器水冷装置,通过芯片顶部的一个小型铜板上放置的管道来抽水制冷。这让IBM可以在一个机架内部署448个处理器内核,其性能是上一代产品的5倍,而电力消耗却是之前的60%。
IBM还有其他两款水冷产品Data Center Stored Cooling Solution和Rear Door Heat eXchaner。Data Center Stored Cooling Solution可以在非高峰时段对水进行冷却,而这些时段的温度和能源价格也都相对较低。它将冷却水保存起来直到高峰时段进行使用。Rear Door Heat eXchaner是一款与服务器机架后端相连接的4英寸设备,可以提供高达50000 BTU的制冷能力。
其他厂商也尝试将水冷技术集成到他们的产品中。爱默生网络能源公司的Liebert XD采用了液体冷却剂来对服务器机架进行冷却;Knurr AG的CoolTherm在机架面板的底部安装了一部水冷热量交换器;Egenera的CoolFrame技术将Liebert XD系统与Egenera的BladeFrame EX设计结合到一起。ISR的SprayCool M-Series产品甚至细致到了处理器层级,它是在服务器内配置了多个可以将冷却剂直接喷洒到CPU上的模块。除此之外,NEC和日立公司也推出了采用液体冷却技术的硬盘驱动器产品,完全封装的驱动器可以将噪音将至最低。
模块化
另外一个策略就是加强模块的使用、完全封装服务器系统、经常结合水冷策略,例如Sun的Modular Datacenter S20、Rackable System的ICE Cube以及Verari的Forest等集装箱式系统。此外,微软前段时间还宣布将在芝加哥地区建造一座投资5亿美元的数据中心,该数据中心内包括150到200左右个集装箱式数据中心,可以容纳1000到2000台服务器。
另外采用American Power Conversion Corporation (APC)或者Liebert的封装系统也可以在现有系统中应用类似的方法。去年,斯坦福大学工程学院的高性能计算中心就安装了一台1800核、14 Teraflop的超级计算机。
高性能计算中心经理Steve Jones表示:“大学数据中心只能为我们提供大约每机架5千瓦的功率以及这些设备足够的冷却能力。我们要求的密度远远高于这个数字,大约是每机架20千瓦,所以他们不能满足我们的需求。”
他们没有将时间和金钱花在建造新的数据中心上,而是接手了一个计算能力过低的实验室,在其中采用了APC的InfraStruXure系统。该大学的设备小组向机房内通入了水冷管道,APC、戴尔以及Clustercorp的技术人员安装了机架和服务器。从设备运送到达到集群启动工作总共花了大约11天的时间。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者