作为一项重要的能效考核指标,PUE衡量着数据中心是否绿色节能。“东数西算”的启动加速了PUE的升级,明确要求东部地区数据中心集群PUE小于1.25,西部地区小于1.2。
然而,对于数据中心用户来说,在利用各种节能策略降低PUE的过程中,一直面临着“设计PUE≠交付PUE”的痛点。
如何让设计PUE变成实际运行的PUE,从而顺利通过数据中心能评及节能监察,迎接2025年能效大考,成为业内共同面对的课题。
哪些因素造成“设计PUE≠交付PUE”
在数据中心的建设运营中,设计PUE并不足以采信,而实际运行的PUE才是其能效比的真实反映。
根据维谛技术(Vertiv,NYSE:VRT)近年来的实地调研发现,新建大型数据中心设计PUE与运行PUE普遍存在0.2的差异,这种现象在大型水系统数据中心显得尤为突出。
那么,造成这种差异的原因是什么?
首先是负载差异,低载能效不等于满载能效。数据中心在规划阶段往往按照满载条件进行设计,在交付运行后负载率都是缓慢提升,在低负载率下能效会受到很大影响。
其次是设备差异,单点高能效不等于全年高能效。数据中心全年PUE是根据温湿度和负载环境不断变化的综合结果,但是一些节能方案往往强调极端的能效值,控制切换和利用自然冷能力大幅偏离设计,部分设备能效也随运行时间快速衰减,偏差会越来越大。
再有是交付差异,实验环境不等于现场环境。在工程施工中,由于对设备运行工况缺乏深度理解,会面临各种问题,比如,工程施工的错位影响风道和气流组织,就会影响设备运行的能效。
针对设计PUE与运行PUE不一致,需要深刻理解造成差异的原因,并采取有效的手段,在源头上解决问题。
此外,随着能效环保政策不断趋于严格,数据中心的能效考核也开始兼顾PUE、CUE(碳利用效率),并在政策上对WUE(水资源利用效率)提出了更高要求。
因此,需要在少用水或不用水的前提下实现真实PUE的交付。
“可信超低PUE”显现PUE真正价值
维谛技术(Vertiv)一直在积极探索降低PUE的技术手段,实现设计PUE和交付PUE的一致。
维谛技术(Vertiv)认为,可信超低PUE的全流程解决之道,在于可测量的分布结构、可验证的产品能效、可信任的工程交付,从先进技术的应用、高能效产品到专业团队的数字化施工,全面消除造成设计PUE≠交付PUE的因素。
对于数据中心能效目标的达成,创新技术是最重要的驱动力。以PUE小于1.25的节能要求为例,维谛技术(Vertiv)通过分解制冷因子CLF、供电因子PLF、建筑能效因子,已经形成了成熟的技术路径。
CLF制冷能效水平的控制,是PUE目标达成的关键。
维谛技术(Vertiv)通过最大化利用自然冷源、提高进回风温度、降低机械制冷功耗、优化气流组织等技术手段,将CLF控制在0.17以内。同时,维谛技术(Vertiv)基于优化供电架构和布局、提升UPS转换效率、缩短供电链路,实现PLF小于0.06。此外,通过建筑节能保温、节能型照明设备的使用,将建筑能效因子控制在0.01以内。
在此基础上,维谛技术(Vertiv)在各个专业环节上推出了相应的创新技术方案。
在制冷方面,“混动双擎”热管技术采用氟泵优先模式,而且氟泵功能开启的室外温度条件从5度提升至22度,全年自然冷源的利用时长增加了2500小时以上,无水制冷能效提升了20%。在“混动双擎”技术的支持下,维谛技术(Vertiv)还推出了一系列分布式制冷方案,灵活适应多种场景需求。
在供电方面,维谛技术(Vertiv)独创的UPS动态在线模式,能够实现99%的运行效率,系统能效提升超过2%。此外,VertivTMLiebert®APT2.0预制式电力模组是PLF小于0.06的重要保障,这款方案实现了供电链路的全融合,效率提升了2.5%,并能节省30%以上占地空间。
不仅如此,在创新的技术方案组合之外,维谛技术(Vertiv)在专业、标准、产品、人才、交付等维度,为落地可信超低PUE构建了强大的平台保障。
目前,维谛技术(Vertiv)的可信超低PUE交付已经拥有广泛的成功实践,并实现了行业、区域与规模的全覆盖。
作为维谛技术(Vertiv)集丰富经验、领先产品技术打造的节能架构,可信超低PUE基于对架构设计、产品应用、节能调优及最终交付等专业细节的严格把控,能够为客户带来“过能评、去风险、保验收、可承诺”的核心价值,落地“承诺式交付,所设即所得”的目标。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。