Equinix PA10数据中心正在被用于加热令人印象深刻的巴黎奥林匹克水上运动中心
随着2024年夏季奥运会正式开幕,全球注意力转向巴黎,大部分焦点理所当然地放在了运动员身上。事实证明,数据中心(特别是数据中心热量)也发挥着作用。
建造和供电奥运场馆需要大量资源。奥运会比赛期间使用的众多设施中包括用于众多水上项目的游泳池,主要场馆是位于圣丹尼斯的巴黎奥林匹克水上运动中心,该中心正在采取一系列环保举措来最大限度地减少碳足迹,其中一种方法,就是利用数据中心多余的热量来加热奥运游泳池。
2024年6月,一名工程师正在检查巴黎奥林匹克水上运动中心的最后建设阶段
Equinix PA10数据中心的热量再利用
用于保持水温处于最佳温度的热量,来自最近在巴黎建造的Equinix PA10数据中心。
PA10是Equinix在过去20年内在巴黎开设的第10个数据中心。该数据中心完全采用可再生能源,拥有超过5000平方米的主机托管空间和约2250个机柜的空间。
“我们在巴黎的最新数据中心PA10是在2023年投入使用的,其设计和建造旨在回收和输出客户设备产生的热量,”Equinix热量输出高级经理Noah Nkonge表示。
“我们将免费将剩余热量转移至Plaine Saulnier城市开发区和奥林匹克水上运动中心,为期15年,后者将在2024年夏季奥运会期间举办多项赛事。”
除了热量再利用和水回收外,Equinix PA10数据中心还设有屋顶温室和蜂巢。
Equinix PA10是Equinix在巴黎的第10座数据中心
Equinix PA10数据中心如何为奥运游泳池加热
数据中心经常运行高温,产生大量热量。近年来,随着数据中心用电量的增加,运营商也越来越多地尝试实现可持续发展,因此出现了各种重新利用数据中心多余热量的创造性方法。Equinix PA10数据中心就是这样一个例子。
“该数据中心每年将产生10000兆瓦时的热量,足以为1000多户家庭供暖,”Nkonge说。
在讨论液体冷却系统的内部工作原理时,Nkonge解释说,Equinix客户服务器在主机托管数据中心内产生的热量,全年都是以28摄氏度的温度回收的。
三个热泵将温度升高到65摄氏度,然后通过热交换器将水分配给热网运营商,免费为Plaine Saulnier城市开发区的用户提供15年的福利。
“当没有设置热量输出时,数据中心的剩余热量会被数据中心冷却系统排放到大气中,”他说。
Equinix PA10数据中心内的主机托管机柜
数据中心热量再利用:一个日益增长的趋势
巴黎奥运会的参赛者知道奥运水上运动中心正在使用数据中心多余热量而可以稍微松一口气,同时这种部署方式也是整个行业的一个发展趋势。
世界各地的数据中心越来越多地试图通过利用废热来提高效率。
例如,Facebook位于丹麦奥登塞的设施正在通过回收数据中心热气来为附近的家庭供暖,而法国的一家初创公司Quarnot Computing通过数字加热器分配数据中心的热量,为客户提供免费热量。此外,atNorth位于瑞典的SWE01站点配备了用于风冷和液冷IT基础设施的回收系统。
就在上个月,冲浪公园开发商Aventuur获准在新西兰开发一个项目,该项目承诺全年都可以使用附近数据中心的热量加热海浪。
“各种设施可以通过寻找利用废热的方法减少成本负担和碳足迹,”负责阿默斯特学院科学中心所有实验室和机械系统的Kyle Mangini这样表示。
Equinix的PA10数据中心还设有屋顶温室和蜂巢
“迈向循环经济”
对于Equinix来说,PA10的部署是正在进行的几个热回收项目之一。Nkonge表示,Equinix目前已经签约了三个站点以输出热量。第一个项目是2010年在芬兰赫尔辛基与能源供应商Helen合作启动的。
第二个地点位于加拿大多伦多。Nkonge表示,Equinix将TR5 IBX数据中心的热量输出到能源合作伙伴Markham District Energy的热网,然后分配给Markham市中心的多个住宅楼、附近的酒店、医院和当地购物中心。
他补充说,TR5还将全年为多栋建筑提供生活热水。
“我们正在设计所有未来的Equinix IBX主机托管数据中心,使其具有热回收和输出功能,我们的热量输出计划展示了集体社区行动支持迈向循环经济所发挥的力量。”
Aquatic Centre这座拥有15000个座位的水上运动中心是由建筑师VenhoevenCS和Ateliers设计的。奥运会结束后,该设施将向公众开放。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。