你很难想象得到,每搜索一次网页的能耗相当于烧开半壶水,全世界一年互联网因鼠标点击消耗的电量,足以点亮一座小城市的路灯一整晚。
尤其是随着AI技术的快速发展,算力需求猛增,进一步加剧了数据中心能耗的增加。
政府近年来持续强化数据中心节能审查,在诸多监管政策中,PUE小于1.5已经成为衡量存量数据中心能效的红线。
对于存量数据中心来说,节能改造是一项系统性的复杂工程,需要考虑各种能耗因素,其中涉及供配电、空调等多个维度。对此,如何真正有效地实施节能改造项目?
近日,由中国通信学会信息通信能源专业委员会主办的“2024年中国信息通信能源会议”,在厦门成功举办。
在大会上,维谛技术(Vertiv)中国区数据中心解决方案专家王安林,通过《低碳与智算趋势下,存量机房的优化之道》的演讲,分享了维谛技术(Vertiv)在数据中心及运营商核心枢纽楼节能改造领域全面的技术方案和实践经验。
1、直接换空调≠PUE优化
在节能改造过程中,数据中心运营商很容易陷入一个误区:通过直接更换高能效空调来实现PUE优化。然而,数据中心PUE由CLF(制冷能耗因子)、PLF(供配电能耗因子)、OLF(其他能耗因子)构成。
尽管CLF对PUE的影响最大,但是数据中心是一个复杂的系统性环境,尤其是那些已经长期运行着的存量数据中心,其中有着非常多的因素会影响到PUE。
通过更换空调虽然可以一定程度优化CLF因子,但是对于整体PUE的提升有限。这个原理也同样适用于PLF、OLF。
2、“9步走”框架解码PUE优化之道
如何才能真正降低存量数据中心的能耗,实现PUE优化?
维谛技术(Vertiv)根据存量数据中心的实际情况,在拥有广泛实践经验的基础上,推出了“9步走”框架,全面解码数据中心节能改造之道。
在落地可信CLF之外,“9步走”框架策略,还对供配电系统以及照明、新风系统进行节能改造,实现PLF、OLF的统筹优化,并以全生命周期服务视角,为数据中心PUE的长治久安保障护航。
不仅如此,针对AI智算趋势下,存量数据中心除了PUE指标优化,同样也面临着功率密度持续攀升、业务不确定性、小规模快速部署智算机柜等挑战。维谛技术(Vertiv)除了在新建智算中心可以提供完整架构外,应对存量数据中心智算高密化需求,也可以提供“风-液”型液冷解决方案,助力存量数据中心快速智算改造。
面对当前迫切的节能改造需求,维谛技术(Vertiv)基于“可信节碳,全程陪伴”的理念,围绕逻辑流程、产品技术、工程能力、运行维护等维度建立了全方位的价值体系,成功解码存量数据中心PUE优化之道。
关于维谛技术(Vertiv)
维谛技术(Vertiv, NYSE: VRT, 原艾默生网络能源),是一家全球领先的数字基础设施解决方案提供商,在通信网络、数据中心、商业&工业、新能源等领域拥有50+年的发展历史。维谛技术的产品广泛覆盖了政府、电信、金融、互联网、科教、制造、医疗、交通、能源等客户群体,为客户提供覆盖各个领域关键基础设施的电力、制冷和IT基础设施解决方案和技术服务组合。
维谛技术的客户遍布全球,在中国拥有2大研发中心和2大生产基地,覆盖全国范围的30+办事处和用户服务中心、100+城市业务支持中心,为客户提供高可靠高质量的产品方案和专业卓越的技术服务,共同构建关键技术悦动在线keep it hummingTM的美好世界。如需了解更多信息,欢迎访问Vertiv.com,售前热线400-887-6526。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。