当你在享受智能应用带来的便利时,是否意识到,背后支撑这些技术的强大算力,正日益消耗着巨大的能源?
在AI技术加速发展的今天,数据中心已成为支撑全球算力的中枢,同时,它们也正面临着能源需求激增、绿色环保的双重挑战。
为了在这场算力与能耗的博弈中交上一份满意的答卷,近日,维谛技术(Vertiv)与世纪互联共同签署战略合作协议,携手助力AIDC构建更高效、低碳的能源解决方案。双方将通过资源共享、优势互补,深化在能源领域的联合研发,提前布局AIDC领域的能源协同利用,引领行业迈向更加可持续的未来。
世纪互联集团创始人、董事长陈升,维谛技术大中华区总裁崔益彬出席签约仪式,并分别发表致辞。
世纪互联集团创始人、董事长 陈升
陈升董事长表示,双方的合作是典型的“工程师文化”驱动的合作,这不仅是基于对科技的信仰,更是源于对企业文化和底层价值观的高度认同,这将为合作的实质性推进奠定坚实的基础。
维谛技术大中华区总裁 崔益彬
崔益彬总裁表示,从企业责任的角度来看,维谛技术与世纪互联的战略合作,不仅是为了满足当下的需求,更是着眼于未来,探索在能源高效利用和技术创新中寻找最优解;这不仅是企业之间的强强联合,更是携手迈向可持续、智能未来的重要一步!
嘉宾从左至右依次为:
杜华锐 世纪互联研发部总监
闫 昆 世纪互联集团副总裁
陈 升 世纪互联集团创始人、董事长
崔益彬 维谛技术大中华区总裁
田 军 维谛技术大中华区研发副总裁
顾 华 维谛技术大中华区市场营销与产品应用部高级总监
强强联合,重构AIDC能源系统
世纪互联(VNET.US)
成立于1996年,科创型数字新基建龙头企业、中国第一家美股IDC上市公司。世纪互联致力于为客户提供业界领先的数据中心一站式解决方案和基于GPU的加速计算服务,打造具有核心技术、超大规模运营能力、高附加值的基础设施运营平台。
维谛技术(NYSE:VRT)
凭借在全球关键基础设施领域的领先地位,为客户提供覆盖云到网络边缘的电力、制冷、IT基础设施解决方案和技术服务组合,致力于为技术革新注入澎湃动力,引领行业迈向更高效、更智能的未来,助力客户的业务悦动在线。
两家行业领军企业的战略协作,不仅带来了技术与资源的深度融合,还基于对“工程师精神”的一致认同,推动了双方更紧密、更深入、更高层次的合作。凭借在资源、实力、技术等层面的强强联合,为AIDC的发展构建全新的能源系统。
联合创新,推动行业绿色发展
1、维谛技术将发挥在电气、能源和热管理领域的全球技术积累、快速研发优势,围绕世纪互联推进新型电力系统的战略部署,结合相关项目的落地,在多个技术领域展开深度合作。
2、双方将组织研发资源建立联合研发团队,针对AIDC、预制化DC等关键技术、产品和方案进行联合研发,实质性推进技术突破并尽快落地相关解决方案。
未来,维谛技术与世纪互联将秉持共创、共享、共赢的生态理念,携手推动技术创新,打造行业领先的绿色能源系统。通过这次强强联合,双方不仅为自身的技术发展注入了强劲动力,也为整个行业的发展树立了具有借鉴价值的创新典范。
关于维谛技术(Vertiv)
维谛技术(Vertiv, NYSE: VRT, 原艾默生网络能源),是一家全球领先的数字基础设施解决方案提供商,在通信网络、数据中心、商业&工业、新能源等领域拥有50+年的发展历史。维谛技术(Vertiv)的产品广泛覆盖了政府、电信、金融、互联网、科教、制造、医疗、交通、能源等客户群体,为客户提供覆盖各个领域关键基础设施的电力、制冷和IT基础设施解决方案和技术服务组合。
维谛技术(Vertiv)的客户遍布全球,在中国拥有2大研发中心和2大生产基地,覆盖全国范围的30+办事处和用户服务中心、100+城市业务支持中心,为客户提供高可靠高质量的产品方案和专业卓越的技术服务,共同构建关键技术悦动在线keep it hummingTM的美好世界。
如需了解更多信息,欢迎访问Vertiv.com,售前热线400-887-6526。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。