美国能源部 (DOE) 最新发布的美国数据中心能源使用报告显示,由于 AI 硬件的快速普及和云服务的扩张,数据中心的用电量显著增加。
根据 12 月 20 日发布的报告显示,数据中心用电量从 2014 年的 58 太瓦时 (TWh) 上升到 2023 年的 176 TWh,占美国总用电量的 4.4%。
预计到 2028 年,这一需求将呈指数级增长,预测数值在 325 TWh 到 580 TWh 之间,可能占美国总用电量的 6.7% 到 12%。
这份由劳伦斯伯克利国家实验室撰写的报告指出,这一激增归因于 GPU 加速服务器的使用增加(特别是用于 AI 工作负载),以及云服务和数据密集型应用的广泛趋势。
为长期增长铺路
在 2018 年至 2023 年间,数据中心年度能源消耗以 18% 的复合年增长率 (CAGR) 加速增长。
DOE 工业效率和脱碳办公室主任 Avi Shultz 博士向 Data Center Knowledge 表示,解决不断增长的电力需求需要采用组合方案。
他说:"这种方案利用能源组合来满足近期增长需求,采用现有商用技术,同时通过电网优化工作为支持长期增长铺平道路。"
这些解决方案涵盖整个电力系统,从新型发电和现场储能技术到加强和扩展输电系统,以及最大化需求资源的效率和灵活性。
当前数据中心消耗了美国超过 4% 的电力 - 预计到 2028 年将上升至 12%
报告预测,2023 年至 2028 年的增长率将在 13% 到 27% 之间,具体取决于冷却系统效率、GPU 需求和运营实践等变量。
液冷等创新技术和从蒸发系统的转变被认为是关键的效率策略。
Shultz 博士指出,DOE 支持多项改善数据中心冷却系统能源和用水效率的工作。
例如,ARPA-E COOLERCHIPS 计划正在推进从芯片级到设施级的冷却技术,通过液浸冷却等技术的发展,Shultz 博士表示这可能减少多达三分之一的总电力消耗。
效率提升与新兴挑战
从历史来看,由于改进冷却、提高服务器利用率和减少空闲功耗等效率策略,数据中心行业在 2010 年至 2016 年间实现了近乎平稳的能源消耗增长。
然而,报告指出,AI 和加密货币应用的兴起已经扭转了这一趋势。
加速服务器使得自 2017 年以来能源需求翻倍,突显了需要采用新方法提高能源效率。
报告确定了几个关键的改进领域,包括基准测试计划、与公用事业公司合作,以及可扩展核能和实时可再生能源解决方案等清洁能源技术的进步。
这些措施旨在平衡不断增长的需求与环境可持续性。
DOE 还主张提高数据中心能源使用的透明度,以指导未来的规划和政策。
Shultz 说:"对美国来说,不会有一个万能的解决方案。我们需要一个全方位的能源解决方案,核能是满足这一不断增长需求的能源组合中的一个组成部分。"
他解释说,AI 和数据中心负载增长为需要 24/7 供电的先进核能源提供了机会。
"核能产生无碳电力,提供与各种其他能源互补的弹性电力,土地使用需求低,并能实现电网灵活性,"他说。
2028 年后的数据中心
在 AI 技术持续采用、电动车基础设施和工业电气化的推动下,预计数据中心能源消耗的快速增长将持续到 2028 年之后。
随着数据中心成为美国能源需求中越来越重要的部分,报告指出利益相关者必须同时应对当前挑战和长期基础设施需求。
投资新的电力基础设施、创新风险共担模式和新兴技术将对确保数据中心保持高效和可持续至关重要。
阅读更多最新数据中心基础设施新闻和见解
Shultz 强调,当前的激增为发展经济范围内电力基础设施扩展的领导地位提供了机会,使数据中心行业与更广泛的能源转型目标保持一致。
他说:"像我们的电网弹性创新伙伴关系计划、新的超级充电计划和技术援助伙伴关系等项目都帮助 DOE 将利益相关者社区聚集在一起,这样他们就能以协调和有组织的方式有效地进行规划。"
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。