随着数据中心运营商Equinix宣布与下一代核技术公司建立新的合作伙伴关系,关于核动力数据中心在推动AI繁荣发展中作用的行业讨论声音愈发强烈。
这家总部位于加利福尼亚的数据中心巨头详细介绍了在欧洲和英国扩建数据中心的计划,并概述了与Radiant、ULC-Energy和Stellaria的新协议。该公司还表示将与Bloom Energy合作,增加固体氧化物燃料电池的部署。
Equinix高级副总裁兼首席采购官Ali Ruckteschler将小型模块化反应堆(SMR)描述为"未来能源组合"的关键,并表示这些合作伙伴关系是在关键时刻形成的。
Ruckteschler说:"全球电力需求激增——由AI、制造业和电气化推动——而老化的电网面临日益增长的压力。通过与下一代核能供应商合作,Equinix在这些压力达到顶峰之前确保了可靠和可扩展的电源。"
前瞻性合作伙伴关系
去年,Equinix成为第一家与SMR开发商签署协议的数据中心运营商。根据协议条款,Oklo将通过其裂变Aurora发电站提供500兆瓦的能源。
在今天(8月14日)公布的预订协议中,Equinix表示将从加利福尼亚电力生产公司Radiant购买20个Kaleidos微反应堆。该公司表示,便携式能源可以快速安装并与现场传输基础设施集成。
在荷兰,Equinix正与阿姆斯特丹开发商ULC-Energy合作。根据两家公司之间的意向书,ULC将通过部署劳斯莱斯SMR提供高达250兆瓦的电力。
随着在欧洲扩建数据中心,Equinix已与Stellaria签署了500兆瓦的预订电力协议,Stellaria创造了第一个熔盐增殖燃烧反应堆。据Stellaria介绍,该公司的反应堆技术在内部以液体形式产生所有必需的裂变燃料,无需外部补充燃料。
为核能未来做准备
Ruckteschler表示:"许多下一代核技术距离部署还有几年时间,现在考虑选址还为时过早。"即便如此,至少在美国,该公司正关注容量受限的地区,如弗吉尼亚州阿什本。该公司正采取额外措施,包括投资电网现代化,以实现提供全天候电力的目标。
Ruckteschler说:"我们正在帮助加强我们运营社区的电网。"她描述了资助先进传输系统和应急备用解决方案升级的努力。但她表示还需要做更多工作。
"需求响应程序和灵活的互联协议可以帮助平衡峰值负荷,同时需要政策变革来公平分配升级成本并加快许可审批。熟练的劳动力对于按时交付这些项目也至关重要。"
核能发展:近期数据中心SMR头条新闻
即使在包括甲骨文Larry Ellison在内的行业巨头帮助普及用SMR为AI数据中心供电的想法之前,核技术已经作为该行业电力短缺的潜在解决方案而加速发展。现在这种观点已成为主流行业思维,核能合作伙伴关系和SMR创新在数据中心行业的近期头条中占据主导地位。
上个月,由OpenAI首席执行官Sam Altman支持的Oklo与Vertiv联手,开发由Oklo在爱达荷国家实验室的SMR核电站的蒸汽和电力驱动的集成数据中心和冷却系统。
Meta将从2027年中期开始从Constellation Energy Corporation获得超过1吉瓦的无碳核能,该公司在6月份表示。今年早些时候,该公司与谷歌和亚马逊等其他超大规模云服务商一起承诺到2050年将核能容量增加两倍。
对SMR的兴趣并不局限于美国公司。在英国,政府批准的"AI增长区"可能使用核裂变技术,该国总理在1月份宣布。这项技术能否在短期内部署仍是一个悬而未决的问题。
Ruckteschler表示,2030年代是我们可以期望大规模部署核技术的最早时间。
Q&A
Q1:Equinix为什么要投资核电技术?
A:全球电力需求激增,主要由AI、制造业和电气化推动,而老化的电网面临日益增长的压力。Equinix通过与下一代核能供应商合作,希望在这些压力达到顶峰之前确保可靠和可扩展的电源,为数据中心提供稳定的能源供应。
Q2:小型模块化反应堆什么时候能够大规模部署?
A:根据Equinix高级副总裁兼首席采购官Ali Ruckteschler的说法,许多下一代核技术距离部署还有几年时间,2030年代是可以期望大规模部署核技术的最早时间。目前这些技术仍处于开发阶段。
Q3:除了Equinix,还有哪些公司在投资核电数据中心?
A:多家科技巨头都在投资核电数据中心。Meta将从2027年中期开始获得超过1吉瓦的无碳核能,谷歌和亚马逊等超大规模云服务商承诺到2050年将核能容量增加两倍。此外,Oklo与Vertiv联手开发核电驱动的数据中心系统。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。