传统上,数据中心冷却过程需要两个关键要素:大量水资源和大量能源。干式冷却器提供了一种潜在的替代方案。
通过使用更少电力和几乎零水资源浪费来冷却IT设备,数据中心干式冷却器有助于解决行业面临的一些最紧迫的可持续发展挑战。
然而,数据中心中的干式冷却器也存在一些缺点,并非适用于每个设施。以下是关于其工作原理、优缺点,以及干式冷却在未来对数据中心影响程度的指南。
**什么是数据中心干式冷却?**
数据中心干式冷却是一种利用环境空气降低设施温度的散热技术。
干式冷却器的工作原理是将流体从热量聚集区域(如数据中心服务器机房)循环输送到暴露于外部空气的设备中。只要外部空气温度低于流体温度,就能降低流体温度。冷却后的流体随后被泵送回热量收集点,整个过程重复进行。
干式冷却器的关键元素是专门的热交换机制,加热流体通过翅片管或板式结构。这些热交换器最大化了暴露于环境空气的表面积,实现了无水消耗的高效传热。
**干式冷却与冷却塔的对比**
干式冷却不同于数据中心更常见的冷却方法——冷却塔。冷却塔通过吸入水,使其流经热量集中区域,然后蒸发部分水分来降低温度。
干式冷却系统与冷却塔之间有两个关键区别:
水资源使用 - 流经干式冷却系统的流体可能是水或水基溶液。但由于系统采用闭环运行,不会浪费水资源。相比之下,冷却塔持续消耗大量水资源,导致水使用效率(WUE)结果不佳。
能源使用 - 冷却塔有时(但并非总是)配备冷水机组,依赖能源密集型机械制冷过程来冷却水。干式冷却器能耗更低,因为其功率需求仅限于在系统中泵送水。
因此,干式冷却的主要优势是比传统数据中心冷却更节水和(在某些情况下)更节能。
**数据中心干式冷却的缺点**
如果干式冷却更高效,为什么不是所有数据中心都使用它?答案——与许多其他环保友好的数据中心技术一样——归结为成本和有效性。
从成本角度来看,干式冷却系统的建设成本通常比冷却塔更高。它们需要更精细的设计和更昂贵的组件,如专门的热交换器。从长远来看,干式冷却可能通过降低水和能源成本来节省资金,但前期费用可能让数据中心运营商望而却步。能源部估计,总体而言,干式冷却的安装成本可能是湿式冷却的三到四倍。
干式冷却的另一个主要缺点是在室外温度高或外部空气潮湿的地区效果不佳。如果环境空气温度高于服务器机房内部温度,就无法冷却系统。潮湿空气对干式冷却器的影响小于对冷却塔的影响(潮湿时冷却塔效率降低,因为潮湿空气不利于液体蒸发),但在潮湿条件下传热效果仍然不佳。
因此,正如目前由于环境条件波动等因素而难以仅使用清洁能源为数据中心供电一样,在许多气候条件下,完全使用干式冷却是不现实的。该方法仅在室外温度不超过约80°F(27°C)的地区效果最佳,尽管接受数据中心内稍高的温度可以将这一限制稍微提高。
由于大多数数据中心增长地区不具备这些气候条件,干式冷却不太可能成为数据中心冷却的主要方法。
另一个考虑因素是物理占地面积。干式冷却器通常需要比冷却塔更多空间来实现相同的冷却能力,因为它们需要更大的表面积进行空气到流体的热交换。这种增加的空间需求对于密集城市环境中的数据中心或扩展选择有限的设施来说可能具有挑战性。
**混合方法**
然而,这并不意味着在其他地区无法使用干式冷却。将干式冷却与冷却塔混合的混合方法是可行的。在这种策略下,数据中心将包含两种类型的冷却系统,并根据环境温度按需切换。
当然,混合数据中心冷却比仅建设一种冷却系统更昂贵。但对于致力于减少水资源浪费的数据中心运营商来说,这是一个有吸引力的选择。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。