扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
在数据中心机房里,机器密度和散热效率之间的矛盾正越来越突出。随着你在一个机柜里达到的计算能力越来越高,面临的散热挑战也越来越严峻。
“过去,我们认为每平方英尺50瓦就已经是很高的密度了;但现在,我们眼睛都不眨一下,就把它提高到了200-300瓦。而且还有人说这个密度还可以再高。”Vali Sorrell,美国纽约一家工程设计咨询公司Syska Hennessey 集团的高级工程师如是说。他也是数据中心散热方面的专家。“为了让散热水平也能跟上去,我们需要足够多的气流和风量,而这给数据中心的基础设施带来了越来越大的压力。”
然而,这种局部的热点(hot spot)还只是问题的一部分。关键是,如果不加控制,热量会限制数据中心未来的扩展。
CDW Berbee是美国一家在多个城市拥有企业级数据中心的托管服务商。该公司数据中心经理Wayne Rasmussen说,“5年前,我有一段时间总担心机房空间会限制我的业务和数据中心的发展。但随着服务器机箱尺寸的缩小,我现在顾虑的不再是空间限制问题,而是热量密度的问题。”
随着业界对提高机房散热效率的要求越来越迫切,液体制冷的方式重新进入了人们的视野。有了这种专门解决局部热点问题的紧凑型模块化散热系统,IT管理人员可以增加更多的计算能力,而不用担心产生过热现象。
数据中心的未来水世界
水冷或液冷有两大好处:一是它把冷却剂直接导向热源,而不是象风冷那样间接制冷;二是和风冷相比,每单位体积所传输的热量即散热效率高达3500倍。
Shen Milsom &Wilke是一家总部位于纽约的国际高科技咨询公司。其负责人Robert McFarlane说,“由于机房里产生的热量很大,我们必须高效地把热量散出去,这也意味着我要让散热模块尽可能地接近产生热量的地方。这就需要有一种东西到那里去把热量带走,可以是水,或者是某种制冷剂。”
回到今年4月份,IBM发布了其最新的System p5 575 ,就是直接通过安装在处理器上面的水冷铜板来把热量带走的。这让IBM可以把448颗处理器装入一个机柜中,使该系统性能达到了早期机型的5倍,同时把电耗减少了60%。
IBM公司还有另外两种水冷产品。针对大规模的数据中心,DCSCS(Data Center Stored Cooling Solution,数据中心贮备型散热方案)可以在温度和电费都较低的非高峰运行时期,把水冷却并贮备起来,然后在高峰时间用来冷却机房。针对机柜层面,Rear Door Heat eXchaner 是一种4英寸深的单元模块,可以安装在服务器机柜后边,它可以提供多达5万BTU(英国热量单位)的散热效率。
其他一些公司也采取了类似方式,把液冷模块集成到各自的产品中去。比如,Emerson Network Power的Liebert XD 系统使用一种液态制冷剂来为服务器机柜散热;Knurr AG的CoolTherm 把一种水冷热交换器安装在了机柜的底板上面;Egenera的 CoolFrame 技术则是把Liebert XD和 Egenera的BladeFrame EX 设计结合到了一起。具体到处理器的散热上,ISR的SprayCool M系列更酷,它在服务器内部安装一些模块,可以直接向CPU喷出一种冷却雾。最后,NEC和日立则提供了液冷的硬盘,可以让这些硬盘完全密封起来降低噪音。
向模块化方向发展
近年来的另一个发展方向是模块化、完成密封的服务器系统开始流行,这些系统经常都整合了液冷单元。比如“集装箱”式计算系统,如SUN公司的Modular Datacenter S20 (即原来的Blackbox),以及Rackable System的ICE Cube和 Verari的 Forest 。微软近期则宣布正在美国芝加哥地区投资5亿美元,建设一个可以容纳150-200个“集装箱”(称为C-blocks)的大型数据中心,每个这样的“集装箱”包含1000-2000台服务器。
另外,通过使用APC或Liebert的一些产品,类似上述方法也可以在现有的建筑屋中实现。比如,去年斯坦福大学工程学院高性能计算中心要安装一台拥有1800颗CPU核,计算能力达到每秒14万亿次的超级计算机。
计算中心主任Steve Jones说,“学校的数据中心只能给我们提供大约每机柜5KW的电力和相应的散热设备,但我们需要实现更高的计算密度,大约是每机柜20KW,因此学校的机房没法满足我们的需求。”
Jones没有浪费时间和金钱去新建什么数据中心,而是接管了一个没怎么得到充分利用的计算机实验室,然后使用 APC的InfraStruXure 系统,该系统在机柜中集成了供电和散热单元。然后由学校后勤部门负责把水管和电线铺好,由APC、戴尔和Clustercorp工程师组成的项目小组负责安装机柜和服务器。从设备到达现场,直到集群投入使用,总个过程只花了11天。
CDW Berbee在扩展其1.2万平方英尺的数据中心时,也采取了类似的办法。为了消除机房中的热点,CDW Berbee安装了8个20KW的Liebert XDH 散热器和一个160KW的Liebert XDC 冷却装置。
Rasmussen说,“我现在所有的系统都运行很正常。在大多数情况下,我们都把机房温度控制在22摄氏度。”
McFarlane说,“我处理过一些小型的数据中心,大约有20-30个柜子,对这种规模的数据中心来说,完全用液态机柜是很有意义的。但对于拥有成百上千个机柜的大规模数据中心来,我们今天还需要比这更好的解决方案。”
试试打开窗户
虽然人们习惯于把服务器封闭在一个房间里,但相反的做法也开始出现。比如,ESTECH International的Millennium Series Chiller Optimizer使用室外空气来减少机房对制冷剂或空调的依赖。这些节热器会监控室外和室内的环境变化,并决定可以用多大比例的室外空气来帮助机房达到最优的散热效率。
Sorrell说,“如果从机房回收来的空气非常热,这样相比下,直接使用室外的空气也许更有效。你可以选择在使用室外空气时让制冷站保持运行,或者当室外空气温度低很多时,可以把制冷站关闭,节省更多费用。”
他谈到,室外空气质量通常也足以用在数据中心,何况它还要经过一层过滤。同时使用室外空气也提供了一种备份的散热方案。在北半球高纬度地区,如果你的制冷站出了问题,你任何时候都可以使用室外空气。即使室外气温达到了32摄氏度,数据中心设备至少在1-2个小时内不会瘫痪。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者