当前,我们正处在数据中心行业的关键时刻。根据 McKinsey & Company 的报告,2023 年至 2030 年间,AI 就绪数据中心的需求容量预计将以年均 33% 的速度增长。
面对如此规模和速度的增长,数据中心运营商正在应对前所未有的供电和散热需求,以支持加速计算带来的更高功率密度要求。这些挑战正推动创新,以缓解密集部署的 AI 服务器在不断提高的热设计功率 (TDP) 要求下产生的热量。
作为从业者,我多年来一直与超大规模、企业、通信和半导体客户合作,解决各种技术、业务和运营挑战。从我的角度来看,解决数据中心扩张带来的散热和供电挑战的答案在于一项关键技术——芯片直接液冷。
液冷相较传统方法的优势
我并不是唯一一个强调液冷对行业规模化计算和提高能效重要性的人。Uptime Institute 2023 年冷却系统调查发现,到本十年末,直接液冷预计将超过风冷,成为冷却 IT 基础设施的主要方法。
这是因为 AI 和高性能计算工作负载需要更高功率要求的处理器和 AI 加速器,而这些 AI 服务器产生的热量可能会成为问题,因为传统的冷却系统(如风冷)难以维持最佳温度。这可能导致效率低下、能耗增加,甚至硬件故障等重大问题。
与其他方法相比,液冷具有诸多优势,包括:
增强冷却效率:比风冷更有效地维持较低温度,并在电路板和机架层面降低热量,这对于高性能计算环境至关重要,因为即使温度略微上升也会导致性能下降。
空间优化:通过芯片直接液冷能够为更密集的服务器提供冷却。
节能:最大限度地减少传统低效风冷方法所需的大型空调系统。
更高可靠性:更稳定的冷却可防止热节流,保护硬件组件并延长其使用寿命。
可扩展性:液冷系统设计可适应 AI 和其他技术持续发展带来的未来增长。
单相液冷的不同方法
液冷有多种技术方法,从芯片直接液冷到机架级热交换器和浸没式冷却。微对流技术就是一个独特方法的例子,它可以在 GPU 和 CPU 的热点处精确冷却液体,以缓解热量并提高性能和可靠性。
与风冷相比,这种方法将散热性能提高了 82%,将客户功耗降低了 15%,并将用水量减少了 92%。与其他微通道液冷方法相比,这种技术设计通过消除微通道或风冷散热器中常见的热梯度,实现了高达 40% 的较低热阻。
通过先进的数据中心冷却技术实现规模化发展
在我们应对 AI 时代复杂性的过程中,先进的冷却系统对数据中心的可持续扩张至关重要。为 AI 数据中心未来做准备意味着确保它们具备能够处理急剧增加的热负载和热通量的解决方案。
液冷是解决许多供电和散热挑战的突出方案。结合全球制造、供应链和循环经济服务,我们可以确保行业通过广泛部署这些功能来满足当前和未来的需求规模。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。