7月29日,由工业和信息化部、山东省人民政府共同主办的首届中国算力大会在山东济南盛大召开,紫光股份旗下新华三集团应邀出席。在“新型低碳可持续,绿色领跑高质量”分论坛上,新华三集团技术服务部数据中心设计咨询部部长汪宏发表主题演讲,全方位展示“双碳”战略的时代命题之下,新华三打造新一代低碳绿色数据中心的方法论与新观点。
“低碳”贯穿数据中心全生命周期,全方位实现能碳双效提升
汪宏表示,数据中心的能碳双效提升是一项重要的系统化工程,从基础设施到IT基础架构都需要有核心关键技术和领先的可持续解决方案。新华三的技术积累和多年的最佳实践可以为客户提供全线的数字化基础设施和解决方案,包括从咨询、设计、施工到验证、运维的全生命周期专业服务。基于新建、现有数据中心的基础设施和ICT基础架构全方位进行能效优化,将“绿色低碳”理念贯穿数据中心全生命周期,实现能碳双效提升。
· 新型数据中心建设:新建数据中心面临更高的能效要求,新华三咨询设计服务从国家政策、企业业务、IT部署等方面对数据中心的建设和运维需求全面统筹,综合绿色选址、模块化设计、绿色节能机电设施等全方位因素,打造极致能效的绿色数据中心。
· 现有数据中心能效优化:新华三能效提升主要是针对存量数据中心基础设施和IT负载,通过采集数据中心的运行数据和环境参数,分析数据中心IT、空调,配电系统等设备的能源效率并制定相关优化方案,通过全面的系统性方法论达成最优的能效值,实现对现有数据中心的能效提升目标。新华三能效评估
· IT基础架构能效优化:为达到数据中心节能降耗的目的,新华三认为对 IT基础架构的优化是真正做到从源头抓起,从应用优化、架构规划/优化、产品选型进行整体优化,从而平衡降耗与效率、可用性、成本的关系,推动能效的持续优化。
液冷一体化解决方案,打造数据中心能效新标杆
在国家政策的引导下,各方加强协同积极探索绿色低碳技术。液冷技术因其散热能力强、噪音低、计算密度高、能效优等方面的显著优势,被业界公认为未来数据中心建设和优化的核心技术之一。
凭借多年的技术积累和大量数据中心建设的实践经验,新华三集团在液冷领域取得丰硕成果,具备部件级、系统级、机柜级、数据中心级的多层次液冷产品,可支持构建整体的液冷系统,为用户提供端到端的液冷一体化解决方案:
· 液冷产品自研:依托专业的液冷研发实验室,新华三可基于用户需求成立定制化服务器团队,满足用户的定制化需求。
· 液冷基础设施建设:新华三有液冷系统咨询、设计、实施、验证、运维全生命周期端到端服务能力。
· 产品创新:在冷板式液冷、浸没式液冷等方面进行持续的投入和研发,让新华三打推出了更先进的液冷解决方案。
· 行业标准制定:新华三参与制定了我国首批液冷系列行业标准,填补行业空白的同时,推动新一代节能技术在数据中心中的广泛应用。
· 典型案例:新华三拥有超400个项目案例及丰富的不同类型液冷机房建设经验,新华三服务的某头部互联网公司的液冷系统数据中心,实现PUE低于1.1的佳绩,给业界树立了超低能耗数据中心的标杆。
面向“双碳”战略的时代命题,新华三集团作为数字化解决方案的领导者,基于全方位的数字化基础设施整体能力,一站式数字化解决方案以及端到端的技术服务,尤其是创新的液冷一体化解决方案,为百行百业打造绿色低碳的新一代数据中心。依托先进的数据中心规划方法论和丰富的实践经验,新华三将以用户需求为导向,不断创新,引领数据中心高效、清洁、集约、循环发展,为数字经济构建起坚实的绿色算力底座。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。