提高数据中心能效的方法有很多,例如浸没式冷却等等,但这些方法的实施成本高而且复杂。
要降低数据中心能源成本,一个更简单有效的方法是提高气流的效率。空气在数据中心内的设备上的流动越容易,传统的HVAC(英文Heating, ventilation, and air conditioning(暖通空调)的缩写)系统就越能够有效地保持设备的冷却。
考虑到这一点,下面我们来看看数据中心空气流五个实用的优化步骤。
我们从可能的最明显改善气流的方法着手:封堵泄漏。泄漏会改变冷空气的流动方向,冷空气流动方向就会与所希望的方向不同。例如,如果本来想给一个服务器机柜降温,机柜外部的孔或缝隙就可能会降低基于空气的冷却系统的效率。
有可能无法堵住所有缝隙或孔洞:有些缝隙或孔洞是不可避免的,因为有一些要求导致了这些缝隙或孔洞的存在,例如电缆必须接入某个设备。但在可能的范围内,务必找到并堵好泄漏点以提高气流效率。
另外一个简单但关键的改善气流的方法:确保冷却系统的目标是那些希望被冷却的设备。不要用冷空气去填充整个数据中心,也不要只是让冷空气大致吹向服务器和其他产热设备那个方向,而是要将冷空气源尽可能直接对准希望被冷却的设备。
这一策略的实施可能需要更多的管道工程,而且还可能要安装额外的HVAC设备才能将冷空气输送到更远的目标地点。但前期的成本如果能转化为更好的能源效率就非常值了。
即使你的数据中心内已经有效地将冷空气送到了目标设备,更大容量的风扇或鼓风机可以增加清凉空气的移动,进而提高气流的效率。
当然,运行更大容量的风扇需要更多的电力。但是,旋转风扇所需的电力要比冷却空气所需的电力小得多。即是说,如果更强大的风扇可以在数据中心内更有效地分送冷空气,那就能够实现更高的整体能源效率。
这里需要注意的是,如果冷空气已经被有效地得到分送了,或者如果吹的是室温空气而不是清凉空气(在这种情况下,风扇的电力成本可能会超过更有效地分送空气所节省的效率),那么更大容量的风扇就没有什么帮助了。另外,不要认为提高风扇速度是解决气流效率低下情况的廉价办法,解决气流效率低的根本原因肯定是一个比购买更大风扇更好的办法。认识到这一点同样重要。但是,更大容量的风扇再加上与其他优化冷空气使用的措施相结合时,更高的风扇速度就可以提供一个推动力,帮助确保空气在数据中心内以最有效的方式流动。
服务器机柜的后面通常是产生热量最多的地方。如果一个服务器机柜的后面对着另一个机柜的前面就很难以有效的方式冷却这些服务器。如果服务器机柜以后面对前面的方式放置的话,最终冷空气吹到服务器之间的过道上时,过道的一边比另一边更热(因为过道的一边是机柜的后面),就会导致整体气流效率的降低。
所谓的热通道/冷通道配置是一个更佳的方法。热通道/冷通道配置方法指的是,数据中心运营商一排一排地放置服务器机柜,一排机柜的前面对着另一排机柜的前面,同样,机柜的后面对着机柜的后面。
机柜这么放置时,大量的冷空气就可以对准两边都有服务器机柜后面的过道,这样使用冷空气可以达到最大效果。而那些机柜前面对前面的过道可以分送少一些的冷空气,因为需要散的热量较少一些。
为了在数据中心实现最大可能的气流效率,务必确保空气不要流向不应该去的地方。
这意味着,首先要在服务器机柜的上方安装屏障,确保所有的空气流过服务器,而不是流向服务器上方的空隙。数据中心的任何其他部分也应该封闭起来,例如储物空间或暂存空间,这些地方放置的不是IT设备,因此宝贵的空气不要浪费在这些地方。
换句话说,目标应该是在需要冷却的设备周围建一个盒子,空气流只限于流向这个盒子。
几乎所有的数据中心都至少部分地依靠空气流动防止IT设备过热。但有些数据中心在这方面比别的数据中心更有效。为了最大限度地利用气流,务必要确保根除那些可能导致空气流向不需要的地方而出现低效率,同时要采取措施将空气引向最能发挥作用的地方。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。