一年耗尽三峡和葛洲坝两大水电站全年产电量之和,数据中心能耗之高令人咋舌。如何突破节能瓶颈?答案或许是“液冷”。12月10日,在第十五届中国IDC产业年度大典“液冷科技”专场分论坛上,国家节能中心管理处处长高红、赛迪顾问电子信息产业研究中心总经理杨梽永、赛迪顾问高级分析师袁钰等共同发布了国内权威白皮书——《中国液冷数据中心发展白皮书》(以下简称《白皮书》),为绿色数据中心建设提供指引。
《白皮书》由赛迪顾问股份有限公司负责编撰。赛迪研究团队走访、调研了中科曙光、华为、阿里巴巴等中国液冷数据中心主流厂商,描摹出中国液冷数据中心的全貌,并与部委直属科研单位的液冷专家进行了交叉验证,在此基础上形成了白皮书。
“液冷”为解决数据中心高能耗给出新路径
随着新基建大潮汹涌而来,数据中心新建和扩容的步伐逐步加快。《白皮书》调查显示,截至2019年底,全国在用数据中心同比增长28.6%,在建数据中心规模增长30%,特别是北上广深等一线城市增速明显。
超大型数据中心飞速发展和空间载体不足将加快单机柜功率密度的迅猛提升,预计2025年平均功率可达25kW。快速增长的功率密度对散热提出了更高要求。据赛迪统计,2019年以“风冷”技术为代表的传统数据中心,其耗能中约有43%是用于IT设备的散热,与IT设备自身的能耗(45%)基本持平,PUE(评价能源效率指标)值普遍在1.4以上,由此可见,降低散热功耗、控制数据中心运营成本,建设绿色数据中心已成当务之急,数据中心呼唤散热“革命”。
《白皮书》指出,用特制液体取代空气作为冷媒为发热部件进行散热的液冷技术,以及基于该技术的液冷服务器,为数据中心的绿色化提供了新的解决思路。
液冷时代来临,曙光等企业成行业领导者
赛迪研究团队通过对中国主要的液冷数据中心厂商进行研究,并对各厂商在2020年液冷数据中心产品营收、类型、销量、市场占有率、客户反馈等市场地位维度,以及技术专利、标准制定、创新人才、潜在客户等发展能力维度的综合考量,得出结论:中科曙光等企业位于中国液冷数据中心市场领导者位置。
《中国液冷数据中心发展白皮书》截图
《白皮书》指出,液冷技术的应用,适应了数据中心各IT设备更高更严格的要求,并带动了各部件持续创新和优化设计,这对整个链条来说是一场持续性的进步。随着中科曙光等国内优秀企业在液冷领域的不断探索,将液冷技术从实验室带入市场化应用,目前国内液冷技术的发展水平与国外基本同步。
曙光液冷技术早于2011年便开始探索,历经“冷板式液冷技术”、“浸没液冷技术”和“浸没相变液冷技术”三大发展阶段,于2016年率先在全国开始浸没式液冷服务器大规模应用的研发,2019年实现全球首个大规模浸没相变液冷项目的商业化落地。截至目前,曙光拥有液冷核心专利近50项,部署的液冷服务器已达数万台,居国内市场份额之首。
值得一提的是,在本届中国IDC产业年度大典中,中科曙光旗下专注基础设施研发的子公司曙光数据基础设施创新技术(北京)股份有限公司(以下简称曙光数创)提出的冷版式液冷服务器解决方案荣获了“2020年度中国IDC产业最佳节能解决方案奖”。
“液冷技术是突破数据中心节能瓶颈的‘最佳捷径’,曙光非常有信心将这股‘绿色风暴’落地成型,帮助各行各业用户将数据中心能效提升至世界前沿水平。”曙光数创公司高级副总裁姚勇说到。
液冷技术带给行业的效益远不止“节能”这一个方面。液冷技术的高效制冷效果,可以大大提升服务器的稳定性、效率及使用寿命,同时可提升单位空间服务器部署密度,高度节省空间占地,并将超大规模数据中心的建设大为简化。此外,液冷数据中心噪音超低,环境友好,余热利用也可以创造更多经济价值。赛迪顾问估算,液冷的应用前景广阔,2025年中国液冷数据中心市场规模将超千亿元。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。