5月30日,浪潮信息“智算 开新局·创新机”全国巡展济南站开幕。会上,浪潮信息与中国信息通信研究院(以下简称中国信通院)联合发布了《绿色算力白皮书》(以下简称《白皮书》),对绿色算力的内涵和关键技术、政策背景、必要性、标准与评测方法、发展趋势和建议等予以全面阐释。这是业界首个面向以服务器为核心的绿色算力研究报告,将有效推动绿色节能服务器设计与相关评测标准的发展,并为用户选择最优绿色算力平台提供重要参考依据。
图:浪潮信息与中国信通院联合发布《绿色算力白皮书》
《白皮书》明确指出,绿色算力指以整机为管理对象,评价其单位碳排下的负载与业务输出,即服务器单位碳排放下能够输出的算力。其核心是衡量计算系统从部件到整机到上层应用全堆栈的计算能效,考验计算系统厂商的系统架构设计、性能优化、散热制冷创新能力,也让最终用户在运营效率和国家碳排放政策的强力约束下,能够对碳排放量和算力的产出有更加科学、精确、直观的感知,从而选择最优绿色算力平台以实现降碳增效的目标。
“双碳”加速助推算力绿色化发展
“双碳”目标下,建设绿色节能的算力中心,是有效推动数字经济发展和节能减排协调统一的重要举措。服务器作为算力中心的三大基础设施之一,是构建算力中心的核心要素,整体功耗能占到总能耗的40%-50%。因此,服务器技术水平将直接影响到算力中心的绿色低碳程度。目前,业界对于国家及地区宏观能效调控以及规模化算力中心的能效标准均有定义,但对于整机及部件尤其是使用环节的碳排放评测缺乏统一标准。因此,亟需普及绿色算力概念,推行绿色算力评测,引导服务器厂商采用绿色相关设计。
绿色算力通过提高能源使用效率和减少浪费来降低温室气体排放,在资源利用最大化的同时,减少对环境造成的负面影响,实现经济社会可持续发展和信息技术快速发展之间的有机结合与协调。此外,无论是传统领域还是新兴产业,降本增效都是永恒的话题,而绿色算力将数据、算力负载合并到更集约、更高效的计算平台上,同样的工作负载只需要更少的服务器和配套软件支撑,从而实现更低的碳排放,是降本增效的有效方法。
联合发布业界首个服务器碳排放评测标准
为精准计算服务器算力和碳排放水平,协助算力中心节能减碳,参考国际能效标准,浪潮信息和中国信通院联合构建并发布了绿色算力评测体系,其目标是在达到服务器性能要求的前提下,满足低碳、绿色、PUE等要求,实现最小颗粒度的碳排放量化可视指标。
图:白皮书推出业界首个服务器碳排放评测标准
绿色算力评测体系将数字计算的低碳方案直接定位到服务器,从基石单元出发,关注产品在使用周期内的算力碳排比,定义服务器在各业务场景下的算力和碳排评估方案,具有精准、环保降碳、可靠、开放等特点。
浪潮信息高级副总裁刘军表示:“碳排放评测标准的推出,可以有效引导服务器厂商从整机层面进行高质量设计与优化,并且科学计算出服务器对应的绿色算力水平,为服务器绿色发展指明方向,并促进以服务器为核心的算力产业,迈进高效、低碳、集约、循环的绿色发展道路。”
绿色算力发展两大方向与三个趋势
最大程度上降低数字经济发展对环境的影响,从算力的源头减少碳排放,推进产业结构的绿色转型,已经成为绿色算力当下及未来发展的核心目标。为此,《白皮书》强调,绿色算力的实现主要有两个方向,一是降低算力平均能源消耗,二是通过提升计算效率,缩短计算时间减少能源消耗。基于此目标,绿色算力的发展呈现三个趋势:
一是算力技术或成绿色算力落地新机遇:计算架构不断演进,CPU及通用网络的性能已接近极限, GPU、 FPGA等算力芯片的能效提升也很有限。因此,以NPU、TPU、DPU、IPU等异构芯片为代表的异构计算有望成为绿色算力落地的关键技术
二是算力服务逐步普及将极大提升算力利用效率:算力服务化的目标,是将域内、域间算力及其支撑基础设施转化为灵活、易用的能力,从全国视角,面向算力需求提供调度能力,盘活闲散资源,进一步提升算力需求并发处理能力,通过缩短计算时长降低能源消耗,推动绿色算力的实现。
三是人工智能技术在绿色算力、算法效果逐步显现:一方面,AI技术与算力中心深度融合,实现基础设施智能管理;另一方面,AI技术与绿色算力深度融合,实现性能更优、功耗更低的大模型训练,加快算法基础设施普及,加速智能应用创新。
基于绿色算力发展趋势,建立碳达峰和碳中和有效路径,推动全行业低碳转型绿色化发展,浪潮信息与中国信通院共同提出四项发展建议,一是做强支撑,提升异构算力应用水平;二是协同发展,保障域内域间算力按需调度;三是科创赋能,推动绿色算力技术成熟;四是凝神聚力,打造标准化绿色算力路线。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。