大模型训练,推理等AI应用极速爆发,数字基础设施将呈现新的布局。如何在保证可靠性的基础上,大幅降低能源消耗并提升运营效率?逐渐成为数据中心行业的焦点问题。
合作共研,聚力新液态

维谛技术(Vertiv)携手全球领先的能源集团壳牌,合作共研,深度探索浸没式液冷在数据中心高热密度解决方案领域的应用,为数据中心行业树立示范性合作先例,并交出经过充分验证的浸没液冷散热解决方案。
聚焦液冷最新动态与前沿科技,10月25日 ALDC2023数据中心液冷产业大会上,维谛技术(Vertiv)与壳牌联合发布了液冷解决方案全面实测成果,分享双方最新液冷技术成果。

发布现场精彩分享
冷却新高度,可靠有突破 维谛浸没式液冷解决方案
数据中心能耗主要包括IT能耗,制冷能耗,供配电能耗。浸没式液冷通过服务器改造,可以减少15%的服务器能耗,同时通过液体散热的形式,制冷的能效也得到大幅提升,能耗显著降低。
维谛技术(Vertiv)浸没式液冷解决方案,针对不同应用场景,设计开发了多种不同规格的浸没液冷方案,通过严苛的冷却液选型原则,全力为客户提供安全可靠的浸没液冷解决方案。

可靠有突破,专业呵护服务器运行
应用更灵活,适应不同规模的数据中心
高效看得见,CLF较常规浸没液冷降低0.02
维谛技术(Vertiv)为高热密度数据中心提供全新更可靠、更灵活、更高效的制冷解决方案。与壳牌中国的携手共研专用冷却液,不仅为服务器提供了稳定高效的运行环境,还具有稳定、无腐蚀、无毒、可生物降解,以及低挥发的优势。维谛技术液冷解决方案,在提升设备运行可靠性的同时,有效降低能耗,是助推数据中心向节能降本和绿色环保方向迈进的理想之择。
展望未来,加速数据中心绿色化
维谛技术(Vertiv)与壳牌双方高层共同参与大会,在现场采访中分享了对新产品的市场信心,以及未来进一步合作的期待与展望。
维谛技术(Vertiv) 亚太区热量管理及融合解决方案部副总裁冉启坤表示:
浸没式液冷将作为高热密度数据中心的主流高效解决方案,维谛携手全球领先的壳牌在冷却剂应用上进一步深化合作,将聚力共创更多卓越科技成果,为行业液冷技术的发展积极贡献力量。
壳牌中国工业润滑油销售总经理宣小平表示:
浸没式液冷对超算数据中心的应用具有显著意义。面对这项创新技术,业界的上中下游应迈向更紧密的合作。与维谛的合作,便是基于双方优势,实现更大价值的典型示范。期盼未来能持续助推业界液冷技术的发展,实现更高效、更清洁、更可靠的应用。
延续对话,获取支持
在双碳时代,有效管理大数据中心能耗,实现大数据中心低碳可持续发展成为行业面临的长期问题。未来,维谛技术(Vertiv)与壳牌将继续深化合作,共研创新,持续推动液冷未来的发展应用,促进行业的绿色可持续发展。
关于壳牌中国(Shell plc)
壳牌作为全球领先的能源集团,拥有五大核心业务,包括勘探和生产、天然气及电力、煤气、化工和可再生能源,并在全球140多个国家和地区拥有分公司或业务。壳牌浸没式冷却液,作为更清洁的能源解决方案,帮助数据中心实现其气候行动目标。壳牌浸没式冷却液是运用天然气制合成油(GTL)技术,制成的单相浸没式合成冷却液,具有较高的冷却效率、流动特性和优异的热力学性能,可以帮助降低能源成本和排放;此外,与计算机组件的相容性好,产品安全且易于操作。
关于维谛技术(Vertiv)
维谛技术(Vertiv,NYSE:VRT)致力于保障客户关键应用的持续运行、发挥最优性能、业务需求扩展,并为此提供硬件、软件、分析和延展服务技术的整体解决方案。维谛技术(Vertiv)帮助现代数据中心、边缘数据中心、通信网络、商业和工业设施客户所面临的艰巨挑战,提供全面覆盖云到网络边缘的电力、制冷和IT基础设施解决方案和技术服务组合。Architects of Continuity™恒久在线,共筑未来!
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。