近日,在华为超高密模块化UPS全系列线上发布会上,新一代中大型UPS5000-H全系列产品正式发布。该系列搭载100kVA/3U超高密热插拔功率模块,是业界首个实现“一柜一兆瓦”的UPS产品。
发布会上,由华为数字能源产品线数据中心供电领域总经理李庆委和该系列产品的研发测试团队共同为新品揭幕。
供电系统未来发展关键词:
“高密””高效”“ 智能化”
UPS的技术发展十年一巨变,赛迪顾问电子信息产业研究中心副总经理贾珊珊在分享中表示,上一个10年,UPS新技术以“高频”“模块化”等特点驱动市场格局快速更替,下一个10年,随着新基建红利充分释放,UPS将迎来发展红利期,并且“模块化”“高密”“绿色”的特点将愈发凸显。
在此趋势下,数据中心供配电系统不断创新和发展,中国移动通信集团设计院信息能源所副所长李玉昇指出,当前数据中心供电设施面临运行效率低、设备体积大、维护工作量大等挑战,因此变革势在必行,通过技术演进、新技术和新产品推动供电设施向高密、高效、智能方向发展。
跨代升级,创新突破点:
一柜一兆瓦,3U 100kW
一直以来,华为持续投入研发创新,对UPS产品的性能和指标不断突破极限。据华为数字能源产品线数据中心供电领域总经理李庆委介绍,本次重磅发布的系列新品,实现了器件级、模块级、系统级的跨代升级。
FusionPower系列UPS 5000-H全系列产品图
华为100kW UPS功率模块在体积、热耗、散热等方面进行了创新设计。在体积方面,华为创新专利助力更小体积,打造刀片级功率模块,如“拓扑池化”专利,使体积降低40%;磁集成专利,使电感体积降低20%。在热耗方面,采用三电平于交错并联拓扑架构、先进器件优化及数字控制技术降低损耗。在散热方面,通过系统和部件的极致设计及布局实现超强散热能力,可在40℃长期不降额工作,提升散热能力50%。
100kW/3U超高密功率模块
功率模块密度的提升,意味着整机密度的提升,100kW/3U功率模块带来了高功率密度,实现“一柜一兆瓦”,系统效率高达97%,这将引领数据中心供电进入超高密、高效时代。
乘风破浪,聚焦技术攻关:
科研平台+专家力量
UPS5000-H全系产品从开发到正式发布历时两年半,在专家技术座谈环节,该系列产品的研发测试团队讲述了创新背后的故事。谈及开发过程,100K模块技术总工张春涛表示,最大的难点在于如何平衡各种复杂的因素,包括体积、效率、成本、DFX、器件的可服务性等。此外,还需要考虑作为全球化的产品,如何满足各个国家和地区的电压制式、安装场景的要求,进而在系统和架构设计上,确保产品具备良好的灵活性、可适应性等。
超高密模块化UPS全系列产品研发测试团队
开展专家技术座谈会
为实现技术突破,华为搭载2012实验室的平台实力,联合技术骨干、专家力量对难点问题集中攻关,并且优化可靠性测试策略,利用国内沿海、潮湿、低温、干燥和低气压环境五大外场,全面覆盖各种应用场景。
凭借强大的技术实力,华为UPS产品获得了行业和市场的认可,赛迪顾问发布的《2019-2020年中国UPS市场研究年度报告》显示,2019年度,华为UPS产品市场份额位居中国整体市场第一。
本次UPS 全系列新品的发布,是华为持续创新的一个成就,也是一个新的起点。展望未来,华为将继续打造更加极简、绿色、智能、安全的数据中心能源解决方案。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。