芯片巨头与浸入冷却专家共商如何进一步提升计算密度
英特尔与Green Revolution Cooling(GRC)合作编写了一份关于浸入式冷却技术的白皮书。双方在文件中提出可持续性理由,宣称这种方法能够削减数据中心冷却所需电力、进而降低运营成本。

两家公司在今年1月曾公布一个多年项目,希望帮助数据中心行业降低数字基础设施对环境造成的影响。GRC在3月还获得了韩国企业SK Lubricants的2800万美元投资。
GRC是一家专门研究浸入式冷却技术的厂商。英特尔方面也在今年5月宣布,他们正在自建实验室,用以验证、测试和演示浸入式冷却技术。
目前的争议焦点,在于世界各地数据中心正消耗掉全球1.5%到2%的电力供应。如果不加以控制,未来十年内这一比例很可能会扩大至13%。这项研究参考了Uptime Institute可持续发展团队前研究员David Mytton的工作成果。
据估计,在整体数据中心能源消耗中,约有40%被用于基础设施冷却。随着处理器功率密度的不断增加,服务器正在突破风冷系统所能应对的极限。最近,思科公司也曾经做出类似的警告,称英特尔及AMD的部分下一代CPU将无法在风冷条件下正常运行。
根据英特尔和GRC的调查结果,不少数据中心运营商都已经意识到这个问题,因为多达四分之三的运营商正考虑将可持续性作为重点竞争优势。然而,双方宣称数据中心在能源使用效率(PUE)方面遇到了障碍。最近十年来,数据中心的平均能源利用效率(PUE)一直在1.6左右浮动。
而解决冷却系统消耗的40%电力只是个开始。此次发布的白皮书还补充称,移动服务器内部风扇可将能源消耗降低10%到15%,机箱内的热组件仍需要以某种方式实现冷却,可行的方案也许是一套将液体冷却剂连接至CPU等组件的散热器循环系统。
作为超大规模服务器供应商,浪潮公司目前的整个产品组合都提供这样的可选液冷散热系统。
然而,英特尔和GRC并不满足于此,他们认为全浸入式液体冷却能够在给定空间内容纳更多服务器硬件。换言之,由于削减了开关、线缆和备用发电机等装置的数量,因此应该能在降低电力负荷的同时压缩占地空间,最终带来更低的资本支出和运营成本。
但Omdia数据中心物理基础设施高级首席分析师Moises Levy却有不同意见,强调液体冷却也存在一些需要关注的问题,特别是相应的运营成本与使用规程。
他指出,“很多人没有意识到,液冷系统是需要配备过滤机制的,同时还要利用软件跟踪介电液体的质量。这是一项严格的监控任务,需要高技能劳动力的参与。”
英特尔则表示,随着云和电信市场等行业开始采用液体冷却解决方案,他们在设计芯片时也将浸入式冷却纳入考量,据此重新审视散热器等部件的样式和布局。
好文章,需要你的鼓励
Akamai的分布式边缘架构从设计之初就以韧性为核心,全球平台通过跨区域负载均衡和智能路由技术,确保即使某些节点出现故障,流量也能无缝切换至可用节点。
卡内基梅隆大学联合Adobe开发出革命性的NP-Edit技术,首次实现无需训练数据对的AI图像编辑。该技术通过视觉语言模型的语言反馈指导和分布匹配蒸馏的质量保障,让AI仅用4步就能完成传统50步的编辑任务,在保持高质量的同时大幅提升处理速度,为图像编辑技术的普及应用开辟了全新道路。
Turner & Townsend发布的2025年数据中心建设成本指数报告显示,AI工作负载激增正推动高密度液冷数据中心需求。四分之三的受访者已在从事AI数据中心项目,47%预计AI数据中心将在两年内占据一半以上工作负载。预计到2027年,AI优化设施可能占全球数据中心市场28%。53%受访者认为液冷技术将主导未来高密度项目。电力可用性成为开发商面临的首要约束,48%的受访者认为电网连接延迟是主要障碍。
复旦大学团队突破AI人脸生成"复制粘贴"痛点,开发WithAnyone模型解决传统AI要么完全复制参考图像、要么身份差异过大的问题。通过MultiID-2M大规模数据集和创新训练策略,实现保持身份一致性的同时允许自然变化,为AI图像生成技术树立新标杆。