随着互联网的高速发展以及5G时代到来,作为承担互联网数据储存与处理的大脑——数据中心,正在全国各地拔地而起,而“数据中心”的能耗问题也引起了各地部门的关注。
近日,上海市经信委印发《上海市互联网数据中心建设导则(2019)》用来规范上海市互联网数据中心建设。而除上海外,深圳、北京等城市也相继出台了“数据中心”建设规则,以控制数据中心的规模与能耗。
中国数据中心发展到了怎样的阶段?数据中心的节能减排面临哪些挑战?就此,我们采访多位行业专家。
6月11日,上海市经信委印发《上海市互联网数据中心建设导则(2019)》,提出“严禁上海市中环以内区域新建IDC(数据中心)”,“单项目规模应控制在3000至5000个机架,平均机架设计功率不低于6kW,机架设计总功率不小于18000kW。”等标准。
2019年4月,深圳印发了《深圳市发展和改革委员会关于数据中心节能审查有关事项的通知》。相比其他城市限制为主,深圳市更侧重于改造现有数据中心,对出于不同PUE(能源使用效率评价值,数值越低越说明“数据中心”用于计算的能源使用率越高)阶段的数据中心,给予不同的政策支持,例如对PUE值为1.3-1.35(含1.3)的数据中心,新增能源消费可给予实际替代量20%及以下的支持;对PUE值低于1.25的数据中心,新增能源消费可给予实际替代量40%以上的支持。
而早在2018年9月,北京市政府便公布了《北京市新增产业的禁止和限制目录》(2018年版),其中要求全市层面禁止新建和扩建互联网数据服务、信息处理和存储支持服务中的数据中心(PUE值在1.4以下的云计算数据中心除外),中心城区全面禁止新建和扩建数据中心。
各超大型城市限制“数据中心”动作频频,但对PUE值低于1.4的数据中心却都有优惠政策。核心原因是随着产业发展,市场对“数据中心”仍有需求。IDC 中国企业级研究部研究经理索引表示,随着互联网的发展2018年至2025年,中国数据圈将以30%的年平均增长速度领先全球,比全球高3%。预计到2025年,中国数据圈将增长至48.6ZB,占全球数据圈的27.8%,成为全球最大的数据圈,而海量的数据大部分都将储存在“云端”—数据中心内。
与此对应的,中国“数据中心”的建设也进入高峰期,索引介绍,2018年中国“数据中心”产业规模已达到1228亿。预计到2020年将超2000亿。其中除了消费互联网和传统的互联网业务以外,传统行业数字化转型,消费互联网向产业互联网转型也将引起IDC的基建热潮。
虽然数据中心的建设进入了高峰期,但“数据中心”的高能耗却让担负节能减排任务的超大型城市有点“吃不消”。数据中心的能耗有多高?2017年,北京节能环保中心专家吕天文曾向媒体透露,2016年中国数据中心总耗电量超过1200亿千瓦时,这个数字超过了三峡大坝2016年全年的总发电量(约1000亿千瓦时)。
而为控制不断投建的数据中心能耗,从2013年开始,国家相关部门便发布了多个指导意见。2019年2月12日,工业和信息化部、国家机关事务管理局、国家能源局三部门就联合发布《关于加强绿色数据中心建设的指导意见》,提出加快高耗能设备淘汰,建立健全绿色数据中心标准评价体系和能源资源监管体系,并明确到2022年新建大型、超大型数据中心的电能使用效率值达到1.4以下,基本淘汰高能耗老旧设备。
虽然“绿色计算”正成为数据中心的建设主流,但由于数据中心建设使用有一定的周期性,要实现2020年的目标,目前看还有一定的挑战。“行业内在用的很多数据中心使用效率值都超过1.5,即使勉强达到1.4,整体耗电量依然不低,如果规模上来了能源消耗仍将十分惊人。”索引说。
“其实不仅是互联网企业,整个社会如果不降低对云端等数据访问需求量,那就必须降低数据中心的能耗,否则必然面临行政方面压力,例如美国‘碳排放税’是所有企业都要承担的税种,但目前在我国来看,这类税还主要针对传统高能耗企业。”索引表示,不符“绿色计算”趋势的互联网以及数据中心建设企业,今后有被洗牌的可能。
PUE值降到低于1.4有多难?曙光节能技术有限公司总经理何继盛告诉记者,传统数据中心超过一半的耗能都用在冷却方面。因此降低冷却耗能即降低PUE值是关键,而冷却设备的耗能主要在于风扇、冷冻机、压缩机上。
“目前行业内最先进的低功耗冷却技术是‘浸没式相变液冷技术’,通过该技术我们可以把计算主板上的发热量100%由相变冷媒带走,机箱可实现无风扇设计。由于液冷系统采用中温水冷源设计,故可全年自然冷却(不用冷冻机或者压缩机制冷),整体系统PUE可降至1.05以下。”但曙光节能技术有限公司总经理何继盛告诉记者,由于“数据中心”建设的周期性,以及使用企业的需求不同,相关技术快速普及还需要一定时间。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。