8月29日,“全球智慧 全链驱动——维谛技术(Vertiv)360AI智算技术研讨会”在北京隆重举行。研讨会聚焦AI基础设施挑战,齐聚国家级信息通信研究机构、通信运营商、算力中心服务商等多个领域专家,深入探讨AI基础设施的挑战,共同畅想AI算力的未来。
AI时代来临:准备好迎接挑战了吗?
维谛技术大中华区董事长李宁带来了对于全球策略的深刻见解。他强调,AI时代的快速到来要求我们不仅要把握当下,更要着眼未来,以应对AI算力的巨大需求。
打通算力“任督二脉”:AI基础设施-全链驱动
维谛技术大中华区市场营销与产品应用部高级总监顾华表示,供电和制冷不能被视作“单点问题”,必须要高度融合才能发挥最大效益。
创新无止境:AI计算如何突破传统界限?
维谛技术大中华区研发副总裁田军分享了Gen.AI大模型训练,驱动IT设备及基础设施的颠覆式创新。
液冷的神奇力量:五大要素揭秘!
维谛技术全球专家Simon Brady揭秘了液冷解决方案的核心要素:供液温度、流量、过滤要求、冷却液选择、配置和管理及故障预防和检测。
构建“智算生态圈”:未来从现在开始!
中国信通院云大所总工程师郭亮强调,算力、存力、运力、绿色低碳、安全可靠五大要素齐头并进,共同推动AI技术的广泛应用。
从“+AI到AI+”:技术变革的新时代
中国移动研究院AI解决方案专家李俊军指出,基于大模型的能力,整个行业将由过去的+AI,逐步向AI+发展。
强强联手:构建AIDC全链协同合作
秦淮数据CTO张炳华分享了AIDC全链协同合作的重要性。面对AI算力的巨大需求,只有通过协同合作才能赢得未来。
Vertiv™360AI全链智算解决方案:AI时代,无惧打破常规!
在活动现场,维谛技术重磅发布了Vertiv™360AI全链智算解决方案,以突破性创新满足AI负载前所未有的需求,赋予AI应用更大想象空间。
发布嘉宾从左到右依次为:
维谛技术(Vertiv)大中华区市场营销与产品应用部高级总监 顾华
维谛技术(Vertiv)大中华区总裁 崔益彬
维谛技术(Vertiv)大中华区研发副总裁 田军
维谛技术全球专家 Simon Brady
无缝融合的全链解决之道:Vertiv™360AI无缝融合电能管理、热管理、软件、端到端的全生命周期顾问及专业服务,为AI智算中心提供一站式解决方案。
“冷”静面对高密散热:Vertiv™360AI从芯片到户外散热完整解决方案,满足40kw~132kw单机柜高密散热需求
维谛技术(Vertiv)中国区热管理专家 王超
可靠应对电能剧增:Vertiv™360AI满足设施/户外、房间/列间、机柜/服务器的电力切换和分配、末端配电全链需求。
在此次活动的展区,Vertiv™360AI的全面展示让与会者沉浸式接入AI世界,看到了未来AI世界的无限可能。随着AI技术的不断突破,维谛技术将继续与各界携手合作,共同推动AI时代的技术前沿探索和应用落地。
关于维谛技术(Vertiv)
维谛技术(Vertiv, NYSE: VRT, 原艾默生网络能源),是一家全球领先的数字基础设施解决方案提供商,在通信网络、数据中心、商业&工业、新能源等领域拥有50+年的发展历史。维谛技术(Vertiv)的产品广泛覆盖了政府、电信、金融、互联网、科教、制造、医疗、交通、能源等客户群体,为客户提供覆盖各个领域关键基础设施的电力、制冷和IT基础设施解决方案和技术服务组合。
维谛技术(Vertiv)的客户遍布全球,在中国拥有2大研发中心和2大生产基地,覆盖全国范围的30+办事处和用户服务中心、100+城市业务支持中心,为客户提供高可靠高质量的产品方案和专业卓越的技术服务,共同构建关键技术悦动在线keep it hummingTM的美好世界。如需了解更多信息,欢迎访问Vertiv.com,售前热线400-887-6526。
好文章,需要你的鼓励
无人机食品配送服务商Flytrex与全球知名披萨连锁品牌Little Caesars宣布合作,推出全新Sky2无人机,最大载重达4公斤,可一次配送两个大披萨及饮料,满足全家用餐需求。Sky2支持最远6.4公里的配送范围,平均从起飞到送达仅需4.5分钟。首个试点门店已在德克萨斯州怀利市上线,并实现与Little Caesars订单系统的直接集成。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
法国社会住房项目ViliaSprint?已正式完工,成为欧洲最大的3D打印多户住宅建筑,共12套公寓,建筑面积800平方米。项目由PERI 3D Construction使用COBOD BOD2打印机完成,整体工期较传统建造缩短3个月,实际打印仅用34天(原计划50天),现场操作人员从6人减至3人,建筑废料率从10%降至5%。建筑采用可打印混凝土,集成光伏板及热泵系统,能源自给率约达60%。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。