大模型训练,推理等AI应用极速爆发,数字基础设施将呈现新的布局。如何在保证可靠性的基础上,大幅降低能源消耗并提升运营效率?逐渐成为数据中心行业的焦点问题。
合作共研,聚力新液态
维谛技术(Vertiv)携手全球领先的能源集团壳牌,合作共研,深度探索浸没式液冷在数据中心高热密度解决方案领域的应用,为数据中心行业树立示范性合作先例,并交出经过充分验证的浸没液冷散热解决方案。
聚焦液冷最新动态与前沿科技,10月25日 ALDC2023数据中心液冷产业大会上,维谛技术(Vertiv)与壳牌联合发布了液冷解决方案全面实测成果,分享双方最新液冷技术成果。
发布现场精彩分享
冷却新高度,可靠有突破 维谛浸没式液冷解决方案
数据中心能耗主要包括IT能耗,制冷能耗,供配电能耗。浸没式液冷通过服务器改造,可以减少15%的服务器能耗,同时通过液体散热的形式,制冷的能效也得到大幅提升,能耗显著降低。
维谛技术(Vertiv)浸没式液冷解决方案,针对不同应用场景,设计开发了多种不同规格的浸没液冷方案,通过严苛的冷却液选型原则,全力为客户提供安全可靠的浸没液冷解决方案。
可靠有突破,专业呵护服务器运行
应用更灵活,适应不同规模的数据中心
高效看得见,CLF较常规浸没液冷降低0.02
维谛技术(Vertiv)为高热密度数据中心提供全新更可靠、更灵活、更高效的制冷解决方案。与壳牌中国的携手共研专用冷却液,不仅为服务器提供了稳定高效的运行环境,还具有稳定、无腐蚀、无毒、可生物降解,以及低挥发的优势。维谛技术液冷解决方案,在提升设备运行可靠性的同时,有效降低能耗,是助推数据中心向节能降本和绿色环保方向迈进的理想之择。
展望未来,加速数据中心绿色化
维谛技术(Vertiv)与壳牌双方高层共同参与大会,在现场采访中分享了对新产品的市场信心,以及未来进一步合作的期待与展望。
维谛技术(Vertiv) 亚太区热量管理及融合解决方案部副总裁冉启坤表示:
浸没式液冷将作为高热密度数据中心的主流高效解决方案,维谛携手全球领先的壳牌在冷却剂应用上进一步深化合作,将聚力共创更多卓越科技成果,为行业液冷技术的发展积极贡献力量。
壳牌中国工业润滑油销售总经理宣小平表示:
浸没式液冷对超算数据中心的应用具有显著意义。面对这项创新技术,业界的上中下游应迈向更紧密的合作。与维谛的合作,便是基于双方优势,实现更大价值的典型示范。期盼未来能持续助推业界液冷技术的发展,实现更高效、更清洁、更可靠的应用。
延续对话,获取支持
在双碳时代,有效管理大数据中心能耗,实现大数据中心低碳可持续发展成为行业面临的长期问题。未来,维谛技术(Vertiv)与壳牌将继续深化合作,共研创新,持续推动液冷未来的发展应用,促进行业的绿色可持续发展。
关于壳牌中国(Shell plc)
壳牌作为全球领先的能源集团,拥有五大核心业务,包括勘探和生产、天然气及电力、煤气、化工和可再生能源,并在全球140多个国家和地区拥有分公司或业务。壳牌浸没式冷却液,作为更清洁的能源解决方案,帮助数据中心实现其气候行动目标。壳牌浸没式冷却液是运用天然气制合成油(GTL)技术,制成的单相浸没式合成冷却液,具有较高的冷却效率、流动特性和优异的热力学性能,可以帮助降低能源成本和排放;此外,与计算机组件的相容性好,产品安全且易于操作。
关于维谛技术(Vertiv)
维谛技术(Vertiv,NYSE:VRT)致力于保障客户关键应用的持续运行、发挥最优性能、业务需求扩展,并为此提供硬件、软件、分析和延展服务技术的整体解决方案。维谛技术(Vertiv)帮助现代数据中心、边缘数据中心、通信网络、商业和工业设施客户所面临的艰巨挑战,提供全面覆盖云到网络边缘的电力、制冷和IT基础设施解决方案和技术服务组合。Architects of Continuity™恒久在线,共筑未来!
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。