扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
在本页阅读全文(共3页)
保持高效,确保散热
运作效率 新的技术带来了新的运作流程,同时也可能带来一系列的问题。例如,快速配置虚拟服务器的特点是否能够避免操作系统标准化建设流程的改变?刀片服务器的效率如何,管理界面又如何和现有的企业管理工具结合在一起?在使用刀片服务器机架的存储和网络交换机是否能够改善现在线缆密布的情况,还是它会增加操作的复杂程度?总的来说,更少的硬件、更少的线缆、更低的平台独立性会带来运作效率的提高。
能耗和制冷 刀片服务器消耗的能量比它们单个1U处理器更多。尽管大型机需要消耗大量能源,但是它们体积庞大,这样每平方英尺所需要的能源并不高。现在,根据规模和企业要求,数据中心通常需要75-150瓦/平方英尺的电能,而大型机设备平均只需要30-40瓦/平方英尺的电能。
刀片服务器不仅仅比大型机消耗更多的能源,它们还产生了更多的热,多核处理器加剧了这一问题。精密的导热装置将热从处理器核中导出来,这样做提高了数据中心的温度。CPU无论在忙时或闲时都很热。
面向主机的大型机数据中心对制冷的需求却小得多。因为,和所占的面积相比它们排出的热量相对小得多。而且,很多20世纪80年代或者90年代早期使用的面向主机式大型机都采用水冷的方式,进一步降低了数据中心的制冷需求。五年前的制冷水平(更不用说15到20年前的制冷水平)无法满足目前的制冷需求。
同时,空气流通不畅也会使这个问题恶化。更狭小的安装空间(12英寸甚至更低)导致了从天花板上走线的方式。低矮或拥挤的活地板结构阻碍了空气的流通。低矮的天花板让热空气不能够从IT设备升到更高的地方。很多设备缺乏足够的冷热对流的通道,或者没有合适的地方安装制冷设备。
拥有多台刀片服务器的数据中心需要强大的制冷设备。IT设备和制冷必须是分层的,这样才能够从热量产生的源头将热量带走。
虽然从安全的角度来说,水和电并不是一对很好的搭档,但是水冷仍然卷土重来。因为它是在机架内而不是机架外进行冷却,所以比风冷的效率更高。HP就宣布推出了水冷服务器设备。
同时,IT制造商也开始研发"绿色"技术,比如用于厨房设备的Energy Star技术。这将把人们的关注焦点从处理能力转移到能源使用效率和散热设计上,在未来五年中减少能源消耗和所产生的热。
AMD已经发动了一场绿色战役:更低的功耗、更少的热量、更低的制冷要求。在美国加利福尼亚州,许多能源公司赋予都采用了虚拟化技术,成功解决了服务器占地和能源消耗等问题。
安装空间 刀片服务器并不一定会给你腾出更多的空间;事实上,你可能会发现所剩的空间更少了。首先,你需要安装附加的能源分配装置和备份设备,还需要安放散热装置,在刀片服务器机架之间保持相当的间隔,以便它们进行散热,避免某一区域内过热。
有些数据中心采用了垂直结构。如果你也采用了这种方式,注意不要过度地堆加服务器,因为这样会导致制冷困难,特别是当这些服务器几乎挨在一起的时候。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者