当前,我们正处在数据中心行业的关键时刻。根据 McKinsey & Company 的报告,2023 年至 2030 年间,AI 就绪数据中心的需求容量预计将以年均 33% 的速度增长。
面对如此规模和速度的增长,数据中心运营商正在应对前所未有的供电和散热需求,以支持加速计算带来的更高功率密度要求。这些挑战正推动创新,以缓解密集部署的 AI 服务器在不断提高的热设计功率 (TDP) 要求下产生的热量。
作为从业者,我多年来一直与超大规模、企业、通信和半导体客户合作,解决各种技术、业务和运营挑战。从我的角度来看,解决数据中心扩张带来的散热和供电挑战的答案在于一项关键技术——芯片直接液冷。
液冷相较传统方法的优势
我并不是唯一一个强调液冷对行业规模化计算和提高能效重要性的人。Uptime Institute 2023 年冷却系统调查发现,到本十年末,直接液冷预计将超过风冷,成为冷却 IT 基础设施的主要方法。
这是因为 AI 和高性能计算工作负载需要更高功率要求的处理器和 AI 加速器,而这些 AI 服务器产生的热量可能会成为问题,因为传统的冷却系统(如风冷)难以维持最佳温度。这可能导致效率低下、能耗增加,甚至硬件故障等重大问题。
与其他方法相比,液冷具有诸多优势,包括:
增强冷却效率:比风冷更有效地维持较低温度,并在电路板和机架层面降低热量,这对于高性能计算环境至关重要,因为即使温度略微上升也会导致性能下降。
空间优化:通过芯片直接液冷能够为更密集的服务器提供冷却。
节能:最大限度地减少传统低效风冷方法所需的大型空调系统。
更高可靠性:更稳定的冷却可防止热节流,保护硬件组件并延长其使用寿命。
可扩展性:液冷系统设计可适应 AI 和其他技术持续发展带来的未来增长。
单相液冷的不同方法
液冷有多种技术方法,从芯片直接液冷到机架级热交换器和浸没式冷却。微对流技术就是一个独特方法的例子,它可以在 GPU 和 CPU 的热点处精确冷却液体,以缓解热量并提高性能和可靠性。
与风冷相比,这种方法将散热性能提高了 82%,将客户功耗降低了 15%,并将用水量减少了 92%。与其他微通道液冷方法相比,这种技术设计通过消除微通道或风冷散热器中常见的热梯度,实现了高达 40% 的较低热阻。
通过先进的数据中心冷却技术实现规模化发展
在我们应对 AI 时代复杂性的过程中,先进的冷却系统对数据中心的可持续扩张至关重要。为 AI 数据中心未来做准备意味着确保它们具备能够处理急剧增加的热负载和热通量的解决方案。
液冷是解决许多供电和散热挑战的突出方案。结合全球制造、供应链和循环经济服务,我们可以确保行业通过广泛部署这些功能来满足当前和未来的需求规模。
好文章,需要你的鼓励
通用汽车与英伟达扩大合作,旨在将人工智能应用于汽车制造的各个方面。这项合作涵盖工厂自动化、机器人技术和自动驾驶汽车开发。英伟达将为通用汽车提供 AI 基础设施和技术支持,助力其打造下一代智能工厂、优化生产流程,并推进自动驾驶技术的发展。这一战略合作反映了汽车行业向智能化、数字化转型的趋势。
企业AI不仅要考虑推理成本和性能,还需确保模型满足严格的安全、隐私和合规要求。建立可信赖的AI系统是关键,这意味着企业除了优化成本和性能外,还需优先考虑模型的完整性和安全性。在选择基础模型时,应采用全面的评估方法,包括安全性、偏见、合规性等多个方面,而不仅仅是关注单一指标。
英伟达推出革命性的共封装光学网络解决方案,大幅提升AI数据中心性能。新技术可将光学收发器数量减少4倍,能效提高3.5倍,信号完整性提升63倍,网络弹性增加10倍,部署时间缩短1.3倍。这一突破性进展将助力数据中心满足代理型AI对计算资源的巨大需求,标志着共封装光学技术实现量产的重要里程碑。
英伟达宣布与迪士尼研究院和谷歌 DeepMind 合作开发 Newton 物理引擎,用于模拟真实环境中的机器人动作。迪士尼将率先使用 Newton 驱动其下一代娱乐机器人,如星球大战风格的 BDX 机器人。英伟达计划于 2025 年晚些时候发布 Newton 的早期开源版本。这项合作将为迪士尼主题公园带来更具表现力和精确性的机器人体验。