AI时代算力需求不断提升,液冷散热或将成为降低服务器功耗的有效方案。
站在全球视角,全球算力保持高速稳定增长态势。据华 为GIV预测,2030年人类有望迎来YB数据时代,全球算力规模达到56000EFLOPS。站在中国视角,据工信部,2023年我国算力总 规模达到180EFlops ,保持高位增长。算力规模大幅提升带来AI服务器需求暴增,大量高功率 CPU、GPU 芯片将带动AI服务器功耗 走高。当前数据中心制冷技术以风冷为主,考虑到机柜功率超过15kW为风冷能力天花板,而未来 AI 集群算力密度普遍超20kW/柜, 升级液冷需求迫切。

数据中心液冷技术发展现状
液冷技术影响着数据中心的设计、选址、建设、交付和运维。数据通信设备的液体冷却系统的冷却子系统可以认为是一种液体回路, 其中冷却液体与要冷却的部件做热交换。有些情况下,冷却系统的水由机架由CDU提供,也可以由服务多个机架的外部CDU提供。

数据中心液冷系统多样,冷板冷却系统为主。国内外在数 据中心液冷方面已有一定研究基础并已取得了突破性进 展,正成为变革性技术。液冷技术根据液体与IT设备接触 状态,可以分为间接液冷、直接单相液冷和直接两相液冷 三类。其中间接冷却中的冷板冷却是如今液冷数据中心采 用最广泛的散热冷却方式。
目前数据中心散热需求下,冷板冷却效果最佳。如图所 示,冷板冷却是将金属冷板与IT设备芯片贴合,液体在冷 板中流动,芯片发热时将热传导给冷板金属,液体流过冷 板时升温,利用显热将芯片热量带出,通过管道与外界冷 源进行换热,是芯片级别的冷却方式,使用最多的冷却介 质是水。冷板冷却是如今液冷数据中心采用最广泛的散热 冷却方式,使用的是液冷和风冷相结合的方法,对芯片采 用液冷,对硬盘等其他电器元件采用风冷,并非严格意义 上的单纯液冷 。与风冷最多冷却30 kW/r的机柜对比,冷 板能冷却小于45 kW/r的机柜更节能且噪音小,不需要昂 贵的水冷机组,与纯液冷对比也有一定优势。













好文章,需要你的鼓励
Anthropic发布SCONE-bench智能合约漏洞利用基准测试,评估AI代理发现和利用区块链智能合约缺陷的能力。研究显示Claude Opus 4.5等模型可从漏洞中获得460万美元收益。测试2849个合约仅需3476美元成本,发现两个零日漏洞并创造3694美元利润。研究表明AI代理利用安全漏洞的能力快速提升,每1.3个月翻倍增长,强调需要主动采用AI防御技术应对AI攻击威胁。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
Spotify年度总结功能回归,在去年AI播客功能遭遇批评后,今年重新专注于用户数据深度分析。新版本引入近十项新功能,包括首个实时多人互动体验"Wrapped Party",最多可邀请9位好友比较听歌数据。此外还新增热门歌曲播放次数显示、互动歌曲测验、听歌年龄分析和听歌俱乐部等功能,让年度总结更具互动性和个性化体验。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。