扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
在本页阅读全文(共3页)
英特尔的实验
上面这些假设在某个时期是经过验证的,但是随着经济情况或者系统设计的变化,我们也需要重新测试这些技术理念。最近,英特尔公司决定对一个基本的技术理念进行测试,也就是,你的数据中心需要冷空气才能正常运转。当然,这听上似乎是一个无需证明的假设。
为了测试这个理念,英特尔研究了一种能够优化数据中心能源和冷却的空气节流阀。在10个月的时间里,这个测试数据中心通过100%的空气交换来进行冷却,但是温度、湿度和空气质量都处于极限范围内,而且更重要的是,在这个期间没有发现明显的硬件故障率的增长。
一个小小的细节起到了帮助左右。另外被设定在低湿度环境中的数据中心,每个数据中心有488台用于生产的刀片服务器。控制数据中心采用传统的冷空气冷却(空调设备),而测试数据中心采用室外空气,操作范围被设定在使用65华氏度到90华氏度之间的室外空气。如果吸入空气温度超过90华氏度就将启动空调设备来将温度控制在90华氏度以下。如果吸入空气温度低于65华氏度,排放的热废气就会被回收利用来将温度保持在65华氏度以上。这里还采用干了标准的过滤器,但是不对湿度作任何控制。测试结果显示,节能型数据中心的故障率是4.46%,控制数据中心的故障率是2.45%。需要注意的是,系统被保持在建议的98华氏度以下,而这一温度即不是测试温度,也不是服务器的温度极限。从数据中可以看到,测试数据中心内服务器的平均温度在70~80华氏度之间,而控制数据中心内服务器的平均温度被设定在68华氏度。
这个测试的结果表明,数据中心能源节省了大约67%,一座10千瓦的数据中心潜在节约成本为287万美元。这样看来,这个假设的确值得我们进行测试,而且未来你还将更多地听到这个理念。
绿色超级计算机500强
那些超级计算机TOP500的追随者往往会询问这些上榜系统的能耗情况。的确,许多人希望看到基于功率的性能参数,这样系统的价格性能比中就可以增加对基础架构成本的考虑。
所幸的是,现在我们有了专门根据MFLOPS/Watt标准来评出的Green500榜单。
热量越少,故障越少
注意在上面英特尔的实验中,平均温度并不比控制数据中心温度高出多少。我们知道有这样一条准则:温度每提高10摄氏度,故障率就会翻一番(英特尔的实验结果似乎也支持这条准则)。当集群规模越来越大的时候,故障率就变得尤为重要。显然对于小型集群来说,5%的故障率是可以接受的,但是大型集群却不然,因为这可能导致大量服务器需要被替换掉。因此,保持设备的冷却,设备生命周期就更长。因此,除了节省开支和降低价格性能比以外,你的系统还要能够工作更长时间。
在过去的几年内,高性能计算变得越来越高效,但是却不“绿色”。未来,随着陈旧系统被淘汰,更新更绿的硬件和软件被采用,这种情况将有所改观。而且,当你计算价格性能比的时候,更绿色意味着我们需要的是:更快、更好、更经济。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。