传统上,数据中心冷却过程需要两个关键要素:大量水资源和大量能源。干式冷却器提供了一种潜在的替代方案。
通过使用更少电力和几乎零水资源浪费来冷却IT设备,数据中心干式冷却器有助于解决行业面临的一些最紧迫的可持续发展挑战。
然而,数据中心中的干式冷却器也存在一些缺点,并非适用于每个设施。以下是关于其工作原理、优缺点,以及干式冷却在未来对数据中心影响程度的指南。
**什么是数据中心干式冷却?**
数据中心干式冷却是一种利用环境空气降低设施温度的散热技术。
干式冷却器的工作原理是将流体从热量聚集区域(如数据中心服务器机房)循环输送到暴露于外部空气的设备中。只要外部空气温度低于流体温度,就能降低流体温度。冷却后的流体随后被泵送回热量收集点,整个过程重复进行。
干式冷却器的关键元素是专门的热交换机制,加热流体通过翅片管或板式结构。这些热交换器最大化了暴露于环境空气的表面积,实现了无水消耗的高效传热。
**干式冷却与冷却塔的对比**
干式冷却不同于数据中心更常见的冷却方法——冷却塔。冷却塔通过吸入水,使其流经热量集中区域,然后蒸发部分水分来降低温度。
干式冷却系统与冷却塔之间有两个关键区别:
水资源使用 - 流经干式冷却系统的流体可能是水或水基溶液。但由于系统采用闭环运行,不会浪费水资源。相比之下,冷却塔持续消耗大量水资源,导致水使用效率(WUE)结果不佳。
能源使用 - 冷却塔有时(但并非总是)配备冷水机组,依赖能源密集型机械制冷过程来冷却水。干式冷却器能耗更低,因为其功率需求仅限于在系统中泵送水。
因此,干式冷却的主要优势是比传统数据中心冷却更节水和(在某些情况下)更节能。
**数据中心干式冷却的缺点**
如果干式冷却更高效,为什么不是所有数据中心都使用它?答案——与许多其他环保友好的数据中心技术一样——归结为成本和有效性。
从成本角度来看,干式冷却系统的建设成本通常比冷却塔更高。它们需要更精细的设计和更昂贵的组件,如专门的热交换器。从长远来看,干式冷却可能通过降低水和能源成本来节省资金,但前期费用可能让数据中心运营商望而却步。能源部估计,总体而言,干式冷却的安装成本可能是湿式冷却的三到四倍。
干式冷却的另一个主要缺点是在室外温度高或外部空气潮湿的地区效果不佳。如果环境空气温度高于服务器机房内部温度,就无法冷却系统。潮湿空气对干式冷却器的影响小于对冷却塔的影响(潮湿时冷却塔效率降低,因为潮湿空气不利于液体蒸发),但在潮湿条件下传热效果仍然不佳。
因此,正如目前由于环境条件波动等因素而难以仅使用清洁能源为数据中心供电一样,在许多气候条件下,完全使用干式冷却是不现实的。该方法仅在室外温度不超过约80°F(27°C)的地区效果最佳,尽管接受数据中心内稍高的温度可以将这一限制稍微提高。
由于大多数数据中心增长地区不具备这些气候条件,干式冷却不太可能成为数据中心冷却的主要方法。
另一个考虑因素是物理占地面积。干式冷却器通常需要比冷却塔更多空间来实现相同的冷却能力,因为它们需要更大的表面积进行空气到流体的热交换。这种增加的空间需求对于密集城市环境中的数据中心或扩展选择有限的设施来说可能具有挑战性。
**混合方法**
然而,这并不意味着在其他地区无法使用干式冷却。将干式冷却与冷却塔混合的混合方法是可行的。在这种策略下,数据中心将包含两种类型的冷却系统,并根据环境温度按需切换。
当然,混合数据中心冷却比仅建设一种冷却系统更昂贵。但对于致力于减少水资源浪费的数据中心运营商来说,这是一个有吸引力的选择。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。