近日,在北京电子学会计算机委员会、中国绿色数据中心推进联盟主办的“AI产业赋能峰会暨2023绿色数据中心建设与运营论坛”上,维谛技术(Vertiv,NYSE:VRT)旗下的维谛技术全栈式自适应AI平台、VertivTM Liebert®APM2大功率模块化UPS,凭借领先的技术创新和性能优势,分别荣获“智能领航•技术创新奖”、“智能领航•优秀产品奖”。

当前,AI技术促进了数据中心的变革与发展,而数据中心的发展也为AI技术提供了更多的基础支撑。本次峰会以“探讨新技术,迎接新挑战”为主题,集聚产业专家、企业代表及行业用户,围绕AI大模型、数据中心产业智能化等方面进行了分析和探讨。
维谛技术(Vertiv)始终致力于实现数据中心的绿色低碳、安全可靠运行,并基于扎实的AI技术储备,不断创新AI技术在数据中心的应用,推进数据中心向低碳化、数字化、自动化、智能化方向发展。
为了应对AI时代数据中心面临的挑战,维谛技术(Vertiv)打造了丰富的产品方案,全栈式自适应AI平台、VertivTM Liebert®APM2就是其中的创新产品。这两款产品都有哪些优势特性?能够为数据中心用户带来什么价值体验?
一起来盘一盘这两款产品的核心性能。
五大AI解决方案——面向数据中心的超级专家
AI技术在故障预测、节能降耗、安全控制、运营增效等维度,能够为数据中心运营创造显著价值。维谛技术(Vertiv)全栈式自适应AI平台不仅成功化解了数据中心温控在安全性、节能率、自理性方面面临的挑战,而且函括五款解决方案,满足不同场景需求。
小机身大节能——充分满足对UPS系统的所有想象
对于UPS系统的应用,数据中心用户在要求满足业务需求与绿色低碳的同时,还要能降低总运营成本,VertivTM Liebert®APM2基于领先的研发设计,全面满足了用户需求。
落地成功实践——客户见证产品真实价值
基于一流性能带来的价值体验,维谛技术(Vertiv)的这两款产品被数据中心用户广泛应用。实践证明,这两款产品不但解决了业务痛点,优异效果也显著提升了客户价值。
在河海大学高性能计算中心项目中,维谛技术(Vertiv)为客户提供了VertivTM SmartAisleTM3方案,该方案通过AI节能模块持续降低后期运营成本及PUE,项目建成后的测试报告显示,负载率70%情况下,pPUE仅为1.157。
在深圳某客户数据中心建设中,维谛技术(Vertiv)为客户打造了一个独立的AI系统,作为整个数据中心的能源管理平台,可以实时采集数据中心的各空调的参数,根据数据,节能程序按照房间精准测量每一个系统的PUE,方便对能耗较高的平台进行优化,并形成了非常直观的能耗分布地图。
湖南资兴东江湖大数据中心通过采用VertivTM Liebert®APM2,不仅大幅节省了设备占用空间,而且基于产品的高效率、高节能优势,降低了运营成本,创造了显著的节能效益。
面对数据中心全新的发展趋势,维谛技术(Vertiv)融合各项领先技术,为客户提供创新的产品和解决方案,匹配其需求增长,保障数据中心全生命周期安全可靠、绿色低碳,为客户创造了更多价值。
关于维谛技术(Vertiv)
维谛技术(Vertiv,NYSE:VRT)致力于保障客户关键应用的持续运行、发挥最优性能、业务需求扩展,并为此提供硬件、软件、分析和延展服务技术的整体解决方案。维谛技术(Vertiv)帮助现代数据中心、边缘数据中心、通信网络、商业和工业设施客户所面临的艰巨挑战,提供全面覆盖云到网络边缘的电力、制冷和IT基础设施解决方案和技术服务组合。Architects of Continuity™恒久在线,共筑未来!如需了解更多信息,欢迎访问Vertiv.com,售前热线400-887-6526。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。