作为中国能源电力及工业控制领域优秀的高科技企业集团、国际知名的智能成套装备及整体解决方案提供商,南瑞集团有限公司(以下简称南瑞集团)采用浪潮信息高端全闪HF18000升级了企业核心数据库系统的数据存储平台,加速整合物流、资金流、信息流,使资源在购、存、产、销、人、财、物等各个方面能够得到合理地配置与利用,提高了集团经营效率,更好的履行集团保障电力系统可靠供电的责任。
南瑞集团是国家电网直属科研产业单位,主要从事电力自动化及保护、电力信息通信、电力电子、发电及水利自动化设备、轨道交通及工业自动化设备、非晶合金变压器的研发、设计、制造、销售、工程服务与总承包业务。随着集团规模的不断扩大和业务的不断拓展,KUD、PLM、MAXDB等核心业务数据库系统在南瑞集团经营运转中发挥着越来越重要的作用,承载了集团包括财务、采购、销售、人力资源等方面的各类业务数据。这些数据是公司的核心资产,对于集团的经营管理至关重要,因此对于承载以上系统的数据存储平台的稳定性和性能表现有着严苛的要求。
南瑞集团有限公司
日益增长的企业IT系统业务给存储带来了新的挑战
国内电力行业蓬勃发展,带来了海量的发电、配电、调控、财政等各类数据,集团运监中心不但要确保这些数据准确无误,更要通过这些数据进行风险预测、监管识别等业务。
南瑞集团共有员工1.7万人,20多个地区建有研发和产业基地,拥有40余条产品线,业务覆盖100多个国家和地区,核心业务数据库系统日访问量达到数百万次,这就要求存储具有较高的性能来保证业务系统能够快速、稳定地并发读写数据;考虑业务规模的不断增长,以上核心数据系统需要处理的数据规模也会不断增加,因此需要在扩展性上能应对未来需求。同时,作为企业IT的核心业务应用,对于业务连续稳定进行至关重要,因此需要保障核心数据系统7*24小时不间断运行,存储方案需要考虑到出现单点硬件设备故障时业务连续性不受影响。
基于高端全闪构建双活方案 保障核心数据库系统高效稳定运行
针对KUD、PLM、MAXDB等核心业务数据库系统报表输出时间短和平均响应时延低的要求,南瑞集团采用了基于浪潮信息高端全闪多控HF18000系列的双活数据保护解决方案,通过智能引擎iTurbo 解决了性能和时延瓶颈,进一步提升了系统的灵活性和业务响应效率;此外,通过双活数据中心方案部署,使两个数据中心都处于运行状态互为生产和备份同时承担业务,提高数据中心的整体服务能力和系统资源利用率;当某一数据中心发生故障时,业务自动切换到另一数据中心,实现RPO=0,RTO≈0,解决了传统灾备中心不能承载业务和业务无法自动切换的问题,有效的保障了业务的连续性。
高端全闪HF18000作为承载核心数据库等实时生产应用的集中存储平台,通过自动精简技术,简化企业IT系统分批建设和随时扩容带来的资源配置和运维操作,提高了应用、测试、开发及培训等不同业务模块对存储资源的利用率;此外重删压缩技术最高可达5:1的压缩比,极大的节省了存储空间,为客户提供了绿色节能、高效的存储服务。
南瑞集团部署浪潮信息高端全闪升级KUD、PLM、MAXDB等核心业务数据库系统的数据存储平台,通过对整个集团经营数据整合提高了集团的工作效率,加速集团在数字化转型,在建设新型电力系统中发挥力量。
南瑞集团未来将大力提升科技创新能力,通过构建绿色数据中心,支撑新型电力系统建设,助力“碳达峰、碳中和”目标实现。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。