根据服务器农场弹性智库Uptime Institute的研究显示,数据中心运营商在收集关键可持续性数据方面正在倒退,这一现象发生在多年进展之后。
该机构第15次年度全球数据中心调查显示,在过去12个月中,运营商在几乎所有指标上收集的可持续性数据量都出现停滞甚至下降。这一结论基于800名数据中心所有者和运营商,以及1000多名供应商和顾问参与今年调查的反馈。
报告详细显示,虽然数据中心的能源消耗仍然是最容易收集数据的指标之一,但监控这一指标的运营商数量相比2024年有所下降。例如,84%的受访者表示他们收集了设施的能源消耗数据,74%的受访者表示他们对站点的电能使用效率(PUE)评分进行同样的收集。
然而,尽管Uptime Institute承认这两个指标是运营商最常跟踪的指标,但收集这些数据的运营商百分比已从2024年的89%(能源消耗)和76%(PUE)下降。
"经过多年的逐步增长,Uptime的年度调查结果显示,自2024年以来,几乎所有指标的可持续性数据收集都停滞甚至下降。虽然PUE和能源消耗仍被广泛跟踪,但整体模式呈静态,"Uptime Institute在报告中表示。
"唯一显示可测量(但轻微)增长的指标是用水量,主要是欧洲增长了5个百分点,这可能是受到欧盟能效指令(EED)的推动,该指令要求报告用水量。"
与此同时,收集其他数据中心可持续性指标数据的运营商数量下降,被归因于世界其他地区采用了"更加放任自流的治理制度"。
"例如,美国证券交易委员会在2024年初放弃了要求气候风险报告(包括温室气体排放)的努力...欧盟委员会推迟了企业可持续性报告指令下的温室气体报告,并打算将许多组织排除在其范围之外,"报告继续说道。
Uptime表示,还有一些"实际考虑因素"可能阻碍运营商收集可持续性数据的努力。"大型扩张项目,如正在开发或最近投入使用的生成式AI数据中心,具有高资源消耗,"报告称。"这使得可持续性目标更难实现,并降低了运营商收集和报告数据的积极性。"
报告补充说,该行业依赖使用电力购买协议和能源属性证书来平衡或抵消其能源消耗和碳排放,这些成本也在不断上升。
报告继续承认,Uptime之前的报告发现的数据表明,许多数据中心运营商可能正在回退他们的可持续性承诺或推迟实现净零目标的截止日期。
"鉴于许多数据中心公司严重依赖抵消来实现这些目标,这些更高的成本可能导致一些运营商悄悄放弃净零目标或完全停止跟踪和报告排放,"报告补充道。
Q&A
Q1:数据中心运营商在可持续性数据收集方面出现了什么问题?
A:根据Uptime Institute的调查,数据中心运营商在收集关键可持续性数据方面正在倒退。在过去12个月中,运营商在几乎所有指标上收集的可持续性数据量都出现停滞甚至下降,包括能源消耗和PUE评分的收集率都有所下降。
Q2:为什么数据中心运营商减少了可持续性数据收集?
A:主要原因包括:世界其他地区采用了更加放任自流的治理制度,美国证券交易委员会放弃了气候风险报告要求;生成式AI数据中心等大型扩张项目资源消耗高,使可持续性目标更难实现;依赖电力购买协议和能源属性证书的成本不断上升。
Q3:哪个可持续性指标的数据收集有所增长?
A:用水量是唯一显示增长的指标,主要是欧洲地区增长了5个百分点。这可能是受到欧盟能效指令(EED)的推动,该指令要求报告用水量。而其他指标如能源消耗和PUE的收集率都出现了下降。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。