AI时代算力需求不断提升,液冷散热或将成为降低服务器功耗的有效方案。
站在全球视角,全球算力保持高速稳定增长态势。据华 为GIV预测,2030年人类有望迎来YB数据时代,全球算力规模达到56000EFLOPS。站在中国视角,据工信部,2023年我国算力总 规模达到180EFlops ,保持高位增长。算力规模大幅提升带来AI服务器需求暴增,大量高功率 CPU、GPU 芯片将带动AI服务器功耗 走高。当前数据中心制冷技术以风冷为主,考虑到机柜功率超过15kW为风冷能力天花板,而未来 AI 集群算力密度普遍超20kW/柜, 升级液冷需求迫切。
数据中心液冷技术发展现状
液冷技术影响着数据中心的设计、选址、建设、交付和运维。数据通信设备的液体冷却系统的冷却子系统可以认为是一种液体回路, 其中冷却液体与要冷却的部件做热交换。有些情况下,冷却系统的水由机架由CDU提供,也可以由服务多个机架的外部CDU提供。
数据中心液冷系统多样,冷板冷却系统为主。国内外在数 据中心液冷方面已有一定研究基础并已取得了突破性进 展,正成为变革性技术。液冷技术根据液体与IT设备接触 状态,可以分为间接液冷、直接单相液冷和直接两相液冷 三类。其中间接冷却中的冷板冷却是如今液冷数据中心采 用最广泛的散热冷却方式。
目前数据中心散热需求下,冷板冷却效果最佳。如图所 示,冷板冷却是将金属冷板与IT设备芯片贴合,液体在冷 板中流动,芯片发热时将热传导给冷板金属,液体流过冷 板时升温,利用显热将芯片热量带出,通过管道与外界冷 源进行换热,是芯片级别的冷却方式,使用最多的冷却介 质是水。冷板冷却是如今液冷数据中心采用最广泛的散热 冷却方式,使用的是液冷和风冷相结合的方法,对芯片采 用液冷,对硬盘等其他电器元件采用风冷,并非严格意义 上的单纯液冷 。与风冷最多冷却30 kW/r的机柜对比,冷 板能冷却小于45 kW/r的机柜更节能且噪音小,不需要昂 贵的水冷机组,与纯液冷对比也有一定优势。
好文章,需要你的鼓励
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
医疗信息管理平台Predoc宣布获得3000万美元新融资,用于扩大运营规模并在肿瘤科、研究网络和虚拟医疗提供商中推广应用。该公司成立于2022年,利用人工智能技术提供端到端平台服务,自动化病历检索并整合为可操作的临床洞察。平台可实现病历检索速度提升75%,临床审查时间减少70%,旨在增强而非替代临床判断。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。