当今,三相中大功率UPS电源广泛应用于各大行业,尤其是数据中心与关键电源这两种场景。作为全球能效管理和自动化领域数字化转型的领导者,施耐德电气在长期的研究和市场推广中,早已洞察客户的需求,致力于不断提高三相中大功率UPS电源的可用性,引领了多种新的理念与创新,其中五大技术革新更是对行业发展至关重要。
首先是电气变换技术的运行模式革新。早期的三相UPS系统中往往使用逆变器优先运行模式(双变换)和后来的旁路优先运行模式(ECO模式)可用性都较低,所以,为了达到高可用性、高运行效率并满足负载要求,施耐德电气在2012年研发出了一种全新的模式并获得专利——超级旁路优先运行模式(E变换模式)。这种模式最大的优势是整流器和逆变器的功率器件流过的电流较小,元器件疲劳老化轻微,寿命延长。且逆变器一直在并联运行,系统可以0ms切换模式,整机效率也高达98.8%,可用性得到了大幅度提升。
实际上,大多数行业用户还是习惯于传统的逆变器优先运行模式,所以必须通过改进逆变器来提高可用性。通过研究场效应管和IGBT等功率器件的失效率曲线,研究人员意识到可以通过降低功率器件的承压并选择低耐压值的功率器件来改进逆变器。施耐德电气在2010年获得了四电平逆变器技术的专利,在功率器件的耐压值和电平数之间找到了合理的平衡,其承压为266V,远低于工频机的432V,不但提高了逆变器的可用性,还将UPS效率提高至96.5%。
除此之外,随着大型及超大型数据中心及半导体行业发展,新型物理架构的大功率并机系统应运而生。新型物理架构不同于普通的多台UPS直接并机的电气架构,它不仅简化了UPS系统,减少了外部配套的配电柜、开关和电缆,还拥有公用的1500KW静态旁路,有利于提高UPS系统可用性。此外,新型物理架构的并机系统采用模块化的设计,可根据用户需求增减功率柜,灵活性和适应性都得以提升。施耐德电气最早于2003年使用了该并机物理架构,并于2016年改良后将其运用到了单系统最大可达1500KW N+1的VX系列UPS产品上。
接下来便是对电池系统的改进。传统的普通铅酸蓄电池大约每3-4年更换一次,在三相大功率UPS系统10-12年的周期中,用户花在电池系统上的钱甚至超过UPS主机。而在电动汽车和储能行业的驱动下,2018年锂电池的成本已经降低到1.2-1.4元/wh,与普通铅酸蓄电池价格相差无几,因此锂电池在数据中心的应用成为重要的趋势。施耐德电气的UPS产品真正做到了兼容锂电池,相比于普通铅酸蓄电池,锂电池拥有快放、快充和循环寿命6000-10000次的特点。这样的特点特别适合大功率UPS系统短延时放电的场景,还可以每天进行多次充放电循环以配合峰谷计价,降低整个系统的运行成本。
最后值得一提的是云服务。由于行业用户对大功率UPS系统的快速恢复能力十分看重,施耐德电气推出了新型云服务。UPS系统可以直接连接到施耐德电气的云监控平台,熟悉产品的资深工程师24小时值班监控,可以提前处理潜在的故障风险,且能第一时间发现故障,并快速准确判断出故障所在,立即内部调动备件与工程师,让维修恢复过程缩短到4-24小时。新型云服务彻底改变了售后维修模式,提高了系统可用性和可维护性。
无论是电气变换技术、逆变器、并机系统的改进,还是电池系统和云服务的革新,都标志着三相中大功率UPS领域近十年来的飞速发展。作为行业领导者,施耐德电气将继续潜心研究,进一步深入理解客户需求,在实践中不断提高三相中大功率UPS系统的可用性、灵活性、适应性和可维护性, 创造更多不同的可能。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。