运营商在节能增效方面也没有任何进步,数据中心仍是吞噬电力的疯狂巨兽
尽管业界估计各国多地都将出台新的管控法规,但全球数据中心运营商基本上还没有为可持续性要求做好准备。与此同时,宕机中断的代价越来越高,设施能源效率则长期停步不前。
以上结果,来自Uptime Institute发布的《2022年全球数据中心调查》报告。此份报告总结了全球数据中心所有者及运营商的经验,收集了来自全球各大IT部门基础设施负责人的工作体会。
根据这份报告,大多数运营商都难以让自己的数据中心设施拥有良好的环境可持续性水平,甚至在主观上也对这个问题并不重要。虽然63%的受访运营商预计,所在地区的政府当局会在未来五年内要求各处数据中心公开报告环境数据,但相当一部分运营组织目前还没有开始跟踪和报告各项关键环境指标。
但报告同时指出,2007年至2014年间的快速进展,反映的其实是多种廉价增效措施的普及,例如热/冷空气控制、优化冷却控制和提高空气传送温度等。对于相当一部分较为陈旧的数据中心而言,这些增效方法已经是经济或者技术层面的极限了。
研究还表明,即使是在新建设施中,风冷设计仍在数据中心内占据主导地位。不过一系列现实因素已经逐步落地,敦促运营商更广泛地采用直接液冷技术,特别是即将推出的具有更高热功率要求的服务器处理器。如果数据中心运营商无法及时找到改善的办法,设施PUE可能会在短期内有所上升。
与此对应,报告发现数据中心的整体机架功率密度都在上升。在运行容量超过5兆瓦的运营商当中,有40%表示密度确实在迅速增加。
Uptime Institute表示,对于运行功率在10兆瓦及以上的大型设施当中,有近半数机柜的功率超过20千瓦,几乎五分之一的机柜运行功率超过40千瓦。也有少数数据中心开始部署功率超过70千瓦的机柜,绝对数量不多但增长趋势明显,而且主要集中在超大规模设施当中。
服务器的使用寿命也在延长。一般来说,服务器供应商的建议使用周期为三到五年。但根据报告,2015年时只有34%的受访者会将服务器持续运行五年或更久,但到2022年,这一比例已经增长至52%。
造成这种情况的一大核心原因,在于半导体供应短缺引发的IT硬件交付时间延长。与此同时,也有不少大型云服务商称,他们已经确定要推迟部分服务器的淘汰时间,借此节约成本投入。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。