提高数据中心能效的方法有很多,例如浸没式冷却等等,但这些方法的实施成本高而且复杂。

要降低数据中心能源成本,一个更简单有效的方法是提高气流的效率。空气在数据中心内的设备上的流动越容易,传统的HVAC(英文Heating, ventilation, and air conditioning(暖通空调)的缩写)系统就越能够有效地保持设备的冷却。
考虑到这一点,下面我们来看看数据中心空气流五个实用的优化步骤。
我们从可能的最明显改善气流的方法着手:封堵泄漏。泄漏会改变冷空气的流动方向,冷空气流动方向就会与所希望的方向不同。例如,如果本来想给一个服务器机柜降温,机柜外部的孔或缝隙就可能会降低基于空气的冷却系统的效率。
有可能无法堵住所有缝隙或孔洞:有些缝隙或孔洞是不可避免的,因为有一些要求导致了这些缝隙或孔洞的存在,例如电缆必须接入某个设备。但在可能的范围内,务必找到并堵好泄漏点以提高气流效率。
另外一个简单但关键的改善气流的方法:确保冷却系统的目标是那些希望被冷却的设备。不要用冷空气去填充整个数据中心,也不要只是让冷空气大致吹向服务器和其他产热设备那个方向,而是要将冷空气源尽可能直接对准希望被冷却的设备。
这一策略的实施可能需要更多的管道工程,而且还可能要安装额外的HVAC设备才能将冷空气输送到更远的目标地点。但前期的成本如果能转化为更好的能源效率就非常值了。
即使你的数据中心内已经有效地将冷空气送到了目标设备,更大容量的风扇或鼓风机可以增加清凉空气的移动,进而提高气流的效率。
当然,运行更大容量的风扇需要更多的电力。但是,旋转风扇所需的电力要比冷却空气所需的电力小得多。即是说,如果更强大的风扇可以在数据中心内更有效地分送冷空气,那就能够实现更高的整体能源效率。
这里需要注意的是,如果冷空气已经被有效地得到分送了,或者如果吹的是室温空气而不是清凉空气(在这种情况下,风扇的电力成本可能会超过更有效地分送空气所节省的效率),那么更大容量的风扇就没有什么帮助了。另外,不要认为提高风扇速度是解决气流效率低下情况的廉价办法,解决气流效率低的根本原因肯定是一个比购买更大风扇更好的办法。认识到这一点同样重要。但是,更大容量的风扇再加上与其他优化冷空气使用的措施相结合时,更高的风扇速度就可以提供一个推动力,帮助确保空气在数据中心内以最有效的方式流动。
服务器机柜的后面通常是产生热量最多的地方。如果一个服务器机柜的后面对着另一个机柜的前面就很难以有效的方式冷却这些服务器。如果服务器机柜以后面对前面的方式放置的话,最终冷空气吹到服务器之间的过道上时,过道的一边比另一边更热(因为过道的一边是机柜的后面),就会导致整体气流效率的降低。
所谓的热通道/冷通道配置是一个更佳的方法。热通道/冷通道配置方法指的是,数据中心运营商一排一排地放置服务器机柜,一排机柜的前面对着另一排机柜的前面,同样,机柜的后面对着机柜的后面。
机柜这么放置时,大量的冷空气就可以对准两边都有服务器机柜后面的过道,这样使用冷空气可以达到最大效果。而那些机柜前面对前面的过道可以分送少一些的冷空气,因为需要散的热量较少一些。
为了在数据中心实现最大可能的气流效率,务必确保空气不要流向不应该去的地方。
这意味着,首先要在服务器机柜的上方安装屏障,确保所有的空气流过服务器,而不是流向服务器上方的空隙。数据中心的任何其他部分也应该封闭起来,例如储物空间或暂存空间,这些地方放置的不是IT设备,因此宝贵的空气不要浪费在这些地方。
换句话说,目标应该是在需要冷却的设备周围建一个盒子,空气流只限于流向这个盒子。
几乎所有的数据中心都至少部分地依靠空气流动防止IT设备过热。但有些数据中心在这方面比别的数据中心更有效。为了最大限度地利用气流,务必要确保根除那些可能导致空气流向不需要的地方而出现低效率,同时要采取措施将空气引向最能发挥作用的地方。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。