面对AIGC的快速发展,维谛Vertiv(NYSE: VRT)与英伟达NVIDIA专家团队共同针对高密数据中心制冷方案进行研发测试,并发布实测数据:
GPU型高密数据中心的冷板液冷和风冷的创新风液混合制冷方案中大约 75% 的 IT 负载可通过冷板液冷技术实现有效冷却。
维谛Vertiv与英伟达NVIDIA专家团队在配置Vertiv™Liebert®PCW,Vertiv™ Liebert®XDU液冷装置, Vertiv™ Liebert®AFC的数据中心进行能耗分析。
这一方案不但可以帮助用户每年降低10%的能源成本,还可以减少相同比例的范围2碳排放量。
当前许多数据中心处于风冷、液冷混合转型的需求阶段,此次实验环境以较常见的中型1000-2000kW机房进行分析。该机房内包含50 个高密度机柜(Racks),除了原有的风冷装置Vertiv™ Liebert® PCW外,液冷系统由 Vertiv™ Liebert® AFC 冷水机组,以及两个配备液体-液体热交换器的 Vertiv™ Liebert® XDU 冷却液体分配单元组成。
实测结果显示IT负载从100%风冷转型为75%液冷的方案时,服务器风扇用电量降低最多达到80%,使总体使用效率(Total Usage Effectiveness, TUE)提高15%以上。
*TUE 指标的计算方法,把非直接应用 IT 侧的风扇和其他设备的用电量,与储存和运算所需的 IT 用电量分开,从而更真实反映 IT 能源使用效率。此实验的另一个重要发现是,在比较液冷和风冷系统的效率、或评估液冷方案的效率时,TUE 是比 PUE 更准确、更有价值的指标。
共研未来数据中心新型制冷方案 与英伟达NVIDIA 持续合作
为共同迎接未来智算中心的挑战,维谛Vertiv 参与了英伟达NVIDIA 重要的COOLERCHIPS 计划,并被指定为唯一的制冷系统合作伙伴。
历经三年努力,英伟达NVIDIA 与维谛Vertiv 共同提出的机架式混合冷却系统方案,是业界首次将两种液冷技术:冷板液冷和浸没液冷耦合到同一系统中的解决方案。
这项创新系统预计可冷却运行环境高达 40 ℃的机架式数据中心,单机柜IT功率可达 200kW,是目前常规服务器单机柜功率的 25 倍。与传统风冷相比,两种液冷混合冷却模式的成本更低,运作效率可提高 20%,且更安静、碳足迹更少。
通过与英伟达NVIDIA 合作,进行实际数据中心测试和新型液冷方案系统设计,不但与维谛Vertiv 自身解决方案开发愿景一致,更显示出我们始终致力于研发创新产品,适应制冷产业趋势和确立颠覆性且革新的技术领导地位。未来我们仍将扩展数据中心冷却技术的生态体系,与英伟达NVIDIA 等一流合作伙伴共同开发降低数据中心能耗、达成零碳排放的创新方案。
更多详细信息,请关注“维谛技术(Vertiv)”
关于维谛技术(Vertiv)
维谛技术(Vertiv,NYSE:VRT)致力于保障客户关键应用的持续运行、发挥最优性能、业务需求扩展,并为此提供硬件、软件、分析和延展服务技术的整体解决方案。维谛技术(Vertiv)帮助现代数据中心、边缘数据中心、通信网络、商业和工业设施客户所面临的艰巨挑战,提供全面覆盖云到网络边缘的电力、制冷和IT基础设施解决方案和技术服务组合。Architects of Continuity™恒久在线,共筑未来!如需了解更多信息,欢迎访问Vertiv.com,售前热线400-887-6526。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。