数据中心生命周期评估正在通过考察从建设、实施到运营再到最终退役的各个阶段,彻底变革业界评价环境影响的方式,全面审视整个可持续性足迹。
传统指标主要侧重于运营效率,而这种整体方法揭示了数字基础设施的真实环境成本,并找出了之前被忽视的可持续性改进机会。
关于数据中心可持续性的大部分讨论都集中在数据中心在正常运营过程中消耗的电力和水量上。
但这些数据仅反映了可持续性全貌的一部分,它忽略了其他关键方面,例如数据中心建设和退役对环境的影响。
因此,越来越多人呼吁进行数据中心生命周期评估——这种方法旨在全面分析数据中心及其内部 IT 设备在整个生命周期各阶段的可持续性表现。
问题在于:生命周期评估是否会推动更好的可持续性实践?亦或它只会为企业提供更大自由度,从而选择性地收集可持续性数据,使其数据中心看起来比实际更具可持续性?
什么是数据中心生命周期评估?
数据中心生命周期评估是对数据中心总体环境影响的分析。它考虑了数据中心生命周期三个关键阶段相关的能源消耗、水资源使用和污染情况:
实施:生命周期评估会确定建设物理数据中心设施、在数据中心内构建 IT 设备以及将设备运至现场所消耗的能源。
运营:生命周期评估跟踪数据中心在运营期间使用的电力和水量。
退役:评估还会衡量数据中心及其内部设备在停止使用后的退役过程中所产生的能源消耗和污染。
数据中心生命周期评估的概念直到最近才逐渐被主流接受。第一篇主张这一实践的重要学术文章出现在 2023 年。另一篇由 Microsoft 研究人员主导的重要相关文章则出现在 2025 年 4 月。
生命周期评估的利与弊
从某种角度看,在整个数据中心生命周期中评估可持续性十分合理。如果企业只关注在承载 IT 工作负载时其设施电力和水资源使用的效率,那仅能捕捉到整体图景的一部分。
生命周期评估可以实现更全面的分析,并突显数据中心运营者可能忽视的可持续性短板。例如,他们可能会发现,尽管数据中心借助水冷等技术高效利用电力,但这些可持续性收益可能会被数据中心早期阶段采用的低能效建设方法所抵消。
然而,同样存在企业利用生命周期评估来制造误导性可持续性数据的风险。
主要原因在于,与数据中心建设和退役相关的可持续性数据在标准化衡量上非常困难,这在最理想的情况下会导致比较结果不一致,在最糟糕的情况下则给企业提供了夸大其可持续性指标的机会。
毕竟,对于数据中心在运营期间的可持续性衡量,目前已有广泛使用的标准化指标——即 PUE 和 WUE。但却没有等效的指标来确定建设数据中心所消耗的能源,也没有一致的方法用来量化数据中心退役所产生的 e-waste。
数据中心生命周期评估提供了从原材料到 e-waste 的“摇篮到坟墓”的可持续性全貌。 图像来源:Alamy
即使存在这些数据的标准化指标,数据中心运营者通常也难以全面掌握这些数据,他们需要依赖第三方(例如供应建筑材料的供应商)在数据中心生命周期的运营前和运营后阶段收集可持续性指标。考虑到现代供应链的复杂性,确保可持续性数据的准确和一致测量是非常棘手的。
此外,数据中心生命周期评估还面临其他后勤挑战,例如数据中心内的 IT 设备会因新设备替换旧设备而不断变化。你不能简单地计算数据中心开业当天服务器的生产可持续性,就认为这能准确反映设施内所有服务器制造过程所消耗的总能量。
更糟糕的是,一些数据中心运营方,例如运营共置设施的机构,甚至可能不知道其建筑内存在哪些 IT 设备,因为这些设备归客户所有,而非数据中心运营方。
数据中心生命周期评估的支持者并未忽视这些挑战。例如,上述 Microsoft 研究人员在文章中提到,缺乏各种类型数据是量化可持续性的一大复杂因素,他们也认识到可持续性数据质量的局限性。但总体来看,他们认为可以克服这些挑战,从而获得对整个生命周期数据中心可持续性有意义的、尽管并不完美的衡量。
数据中心生命周期评估的未来
只要数据中心企业真诚地努力在整个生命周期阶段中一致地计算可持续性,生命周期评估确实有望提供数据中心实际“绿色”程度的更准确表征。但如果这种评估方法日益流行,就必须确保其不会被企业利用,通过挑选性地衡量部分数据来操纵结果,因为对于生命周期许多部分需要测量的数据,并没有统一的标准。
如果出现这种情况,数据中心生命周期评估可能最终会扮演类似碳补偿购买的角色——这也是一种可能使数据中心看起来比实际更具可持续性的手段。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。