AI时代算力需求不断提升,液冷散热或将成为降低服务器功耗的有效方案。
站在全球视角,全球算力保持高速稳定增长态势。据华 为GIV预测,2030年人类有望迎来YB数据时代,全球算力规模达到56000EFLOPS。站在中国视角,据工信部,2023年我国算力总 规模达到180EFlops ,保持高位增长。算力规模大幅提升带来AI服务器需求暴增,大量高功率 CPU、GPU 芯片将带动AI服务器功耗 走高。当前数据中心制冷技术以风冷为主,考虑到机柜功率超过15kW为风冷能力天花板,而未来 AI 集群算力密度普遍超20kW/柜, 升级液冷需求迫切。
数据中心液冷技术发展现状
液冷技术影响着数据中心的设计、选址、建设、交付和运维。数据通信设备的液体冷却系统的冷却子系统可以认为是一种液体回路, 其中冷却液体与要冷却的部件做热交换。有些情况下,冷却系统的水由机架由CDU提供,也可以由服务多个机架的外部CDU提供。
数据中心液冷系统多样,冷板冷却系统为主。国内外在数 据中心液冷方面已有一定研究基础并已取得了突破性进 展,正成为变革性技术。液冷技术根据液体与IT设备接触 状态,可以分为间接液冷、直接单相液冷和直接两相液冷 三类。其中间接冷却中的冷板冷却是如今液冷数据中心采 用最广泛的散热冷却方式。
目前数据中心散热需求下,冷板冷却效果最佳。如图所 示,冷板冷却是将金属冷板与IT设备芯片贴合,液体在冷 板中流动,芯片发热时将热传导给冷板金属,液体流过冷 板时升温,利用显热将芯片热量带出,通过管道与外界冷 源进行换热,是芯片级别的冷却方式,使用最多的冷却介 质是水。冷板冷却是如今液冷数据中心采用最广泛的散热 冷却方式,使用的是液冷和风冷相结合的方法,对芯片采 用液冷,对硬盘等其他电器元件采用风冷,并非严格意义 上的单纯液冷 。与风冷最多冷却30 kW/r的机柜对比,冷 板能冷却小于45 kW/r的机柜更节能且噪音小,不需要昂 贵的水冷机组,与纯液冷对比也有一定优势。
好文章,需要你的鼓励
微软推出 Copilot+ PC 标准,要求配备高性能 NPU,引发 AI PC 市场格局变化。英伟达虽在数据中心 AI 领域占主导,但在 PC 端面临挑战。文章分析了英伟达的 AI PC 策略、NPU 与 GPU 的竞争关系,以及未来 GPU 可能在 Copilot+ 功能中发挥作用的前景。
专家预测,随着人工智能技术的迅速发展和广泛应用,2025 年可能成为 AI 泡沫破裂的关键一年。尽管 AI 仍有望在多模态模型和自动机器学习等领域取得突破,但技术瓶颈、投资回报率下降、监管趋严以及环境和伦理问题等因素可能导致 AI 热潮降温。未来 AI 发展将更注重平衡和可持续性。
研究表明,现有的公开 AI 模型在描述大屠杀历史时过于简单化,无法呈现其复杂性和细微之处。研究人员呼吁各相关机构数字化资料和专业知识,以改善 AI 对这段历史的理解和表述。他们强调需要在 AI 系统中加入更多高质量的数据,同时在审查和信息获取之间寻求平衡。
Google 推出名为 Titans 的新型 AI 架构,是 Transformer 的直接进化版。Titans 引入了神经长期记忆、短期记忆和基于惊喜的学习系统,使 AI 更接近人类思维方式。这一突破性技术有望彻底改变 AI 范式,推动机器智能向人类认知迈进一大步。