5月30日,浪潮信息“智算 开新局·创新机”全国巡展济南站开幕。会上,浪潮信息与中国信息通信研究院(以下简称中国信通院)联合发布了《绿色算力白皮书》(以下简称《白皮书》),对绿色算力的内涵和关键技术、政策背景、必要性、标准与评测方法、发展趋势和建议等予以全面阐释。这是业界首个面向以服务器为核心的绿色算力研究报告,将有效推动绿色节能服务器设计与相关评测标准的发展,并为用户选择最优绿色算力平台提供重要参考依据。

图:浪潮信息与中国信通院联合发布《绿色算力白皮书》
《白皮书》明确指出,绿色算力指以整机为管理对象,评价其单位碳排下的负载与业务输出,即服务器单位碳排放下能够输出的算力。其核心是衡量计算系统从部件到整机到上层应用全堆栈的计算能效,考验计算系统厂商的系统架构设计、性能优化、散热制冷创新能力,也让最终用户在运营效率和国家碳排放政策的强力约束下,能够对碳排放量和算力的产出有更加科学、精确、直观的感知,从而选择最优绿色算力平台以实现降碳增效的目标。
“双碳”加速助推算力绿色化发展
“双碳”目标下,建设绿色节能的算力中心,是有效推动数字经济发展和节能减排协调统一的重要举措。服务器作为算力中心的三大基础设施之一,是构建算力中心的核心要素,整体功耗能占到总能耗的40%-50%。因此,服务器技术水平将直接影响到算力中心的绿色低碳程度。目前,业界对于国家及地区宏观能效调控以及规模化算力中心的能效标准均有定义,但对于整机及部件尤其是使用环节的碳排放评测缺乏统一标准。因此,亟需普及绿色算力概念,推行绿色算力评测,引导服务器厂商采用绿色相关设计。
绿色算力通过提高能源使用效率和减少浪费来降低温室气体排放,在资源利用最大化的同时,减少对环境造成的负面影响,实现经济社会可持续发展和信息技术快速发展之间的有机结合与协调。此外,无论是传统领域还是新兴产业,降本增效都是永恒的话题,而绿色算力将数据、算力负载合并到更集约、更高效的计算平台上,同样的工作负载只需要更少的服务器和配套软件支撑,从而实现更低的碳排放,是降本增效的有效方法。
联合发布业界首个服务器碳排放评测标准
为精准计算服务器算力和碳排放水平,协助算力中心节能减碳,参考国际能效标准,浪潮信息和中国信通院联合构建并发布了绿色算力评测体系,其目标是在达到服务器性能要求的前提下,满足低碳、绿色、PUE等要求,实现最小颗粒度的碳排放量化可视指标。

图:白皮书推出业界首个服务器碳排放评测标准
绿色算力评测体系将数字计算的低碳方案直接定位到服务器,从基石单元出发,关注产品在使用周期内的算力碳排比,定义服务器在各业务场景下的算力和碳排评估方案,具有精准、环保降碳、可靠、开放等特点。
浪潮信息高级副总裁刘军表示:“碳排放评测标准的推出,可以有效引导服务器厂商从整机层面进行高质量设计与优化,并且科学计算出服务器对应的绿色算力水平,为服务器绿色发展指明方向,并促进以服务器为核心的算力产业,迈进高效、低碳、集约、循环的绿色发展道路。”
绿色算力发展两大方向与三个趋势
最大程度上降低数字经济发展对环境的影响,从算力的源头减少碳排放,推进产业结构的绿色转型,已经成为绿色算力当下及未来发展的核心目标。为此,《白皮书》强调,绿色算力的实现主要有两个方向,一是降低算力平均能源消耗,二是通过提升计算效率,缩短计算时间减少能源消耗。基于此目标,绿色算力的发展呈现三个趋势:
一是算力技术或成绿色算力落地新机遇:计算架构不断演进,CPU及通用网络的性能已接近极限, GPU、 FPGA等算力芯片的能效提升也很有限。因此,以NPU、TPU、DPU、IPU等异构芯片为代表的异构计算有望成为绿色算力落地的关键技术
二是算力服务逐步普及将极大提升算力利用效率:算力服务化的目标,是将域内、域间算力及其支撑基础设施转化为灵活、易用的能力,从全国视角,面向算力需求提供调度能力,盘活闲散资源,进一步提升算力需求并发处理能力,通过缩短计算时长降低能源消耗,推动绿色算力的实现。
三是人工智能技术在绿色算力、算法效果逐步显现:一方面,AI技术与算力中心深度融合,实现基础设施智能管理;另一方面,AI技术与绿色算力深度融合,实现性能更优、功耗更低的大模型训练,加快算法基础设施普及,加速智能应用创新。
基于绿色算力发展趋势,建立碳达峰和碳中和有效路径,推动全行业低碳转型绿色化发展,浪潮信息与中国信通院共同提出四项发展建议,一是做强支撑,提升异构算力应用水平;二是协同发展,保障域内域间算力按需调度;三是科创赋能,推动绿色算力技术成熟;四是凝神聚力,打造标准化绿色算力路线。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。