AI时代算力需求不断提升,液冷散热或将成为降低服务器功耗的有效方案。
站在全球视角,全球算力保持高速稳定增长态势。据华 为GIV预测,2030年人类有望迎来YB数据时代,全球算力规模达到56000EFLOPS。站在中国视角,据工信部,2023年我国算力总 规模达到180EFlops ,保持高位增长。算力规模大幅提升带来AI服务器需求暴增,大量高功率 CPU、GPU 芯片将带动AI服务器功耗 走高。当前数据中心制冷技术以风冷为主,考虑到机柜功率超过15kW为风冷能力天花板,而未来 AI 集群算力密度普遍超20kW/柜, 升级液冷需求迫切。
数据中心液冷技术发展现状
液冷技术影响着数据中心的设计、选址、建设、交付和运维。数据通信设备的液体冷却系统的冷却子系统可以认为是一种液体回路, 其中冷却液体与要冷却的部件做热交换。有些情况下,冷却系统的水由机架由CDU提供,也可以由服务多个机架的外部CDU提供。
数据中心液冷系统多样,冷板冷却系统为主。国内外在数 据中心液冷方面已有一定研究基础并已取得了突破性进 展,正成为变革性技术。液冷技术根据液体与IT设备接触 状态,可以分为间接液冷、直接单相液冷和直接两相液冷 三类。其中间接冷却中的冷板冷却是如今液冷数据中心采 用最广泛的散热冷却方式。
目前数据中心散热需求下,冷板冷却效果最佳。如图所 示,冷板冷却是将金属冷板与IT设备芯片贴合,液体在冷 板中流动,芯片发热时将热传导给冷板金属,液体流过冷 板时升温,利用显热将芯片热量带出,通过管道与外界冷 源进行换热,是芯片级别的冷却方式,使用最多的冷却介 质是水。冷板冷却是如今液冷数据中心采用最广泛的散热 冷却方式,使用的是液冷和风冷相结合的方法,对芯片采 用液冷,对硬盘等其他电器元件采用风冷,并非严格意义 上的单纯液冷 。与风冷最多冷却30 kW/r的机柜对比,冷 板能冷却小于45 kW/r的机柜更节能且噪音小,不需要昂 贵的水冷机组,与纯液冷对比也有一定优势。
好文章,需要你的鼓励
后来广为人知的“云上奥运”这一说法,正是从这一刻起走上历史舞台。云计算这一概念,也随之被越来越多的人所熟知。乘云科技CEO郝凯对此深有感受,因为在2017年春节过后不久,他的公司开始成为阿里云的合作伙伴,加入了滚滚而来的云计算大潮中。同一年,郝凯带领团队也第一次参加了阿里云的“双11”活动,实现了800万元的销售业绩。
随着各行各业数字化变革的不断深入,人类社会正加速迈向智能化。作为智能世界和数字经济的坚实底座,数据中心也迎来了蓬勃发展。面