随着“新基建”的加速实施,数字经济发展迎来新动能。新型基础设施建设作为“新基建”战略的核心具有极强的溢出效应,不仅推动投资消费的快速成长,还将逐步融入到经济社会各领域,驱动各行业的数字化转型升级。
与新型基础设施相匹配的运维能力成为新基建能否持续发挥效能的关键影响因子。可以说,“欲善新基建,必先利运维”。面对新基建,运维要从技术创新、协作模式、业务价值三个关键点实现变革,迎接未来的挑战。
“云”与“智” 运维技术变革的核心基因
2020年新基建投资总规模可望达到9120亿元(数据来源:中信建投),新型基础设施的规模将爆发式增长;业务形态从线下转到线上,从本地部署转为云端部署,对可用性的要求也进一步提升。“新基建”的改变对运维构成巨大挑战,解决之道在于融合新技术实现“云化”和“智能化”转型。
随着业务走上云端,运维也逐步“云化”。运维需要提供对云化、虚拟化资源的高效管理。另一方面,资源监控、终端管控、安全支持等运维服务转化为云端应用,企业可以根据需求实现订阅,发生故障后第一时间获得云端运维支持。目前,紫光旗下新华三集团推出的U-Center统一运维云服务,提供云化运维应用和线上线下整合服务,顺应运维云化的趋势。
数字基础设施快速增长与有限运维资源之间的矛盾则需要“智能化”来解决。数字基础设施在运行过程中产生海量运维数据,新华三集团U-Center统一运维解决方案将“智能化”落地,实现将运维数据集成和标准化,通过内化专家经验和人工智能算法形成数据洞察并带入实践,监控系统状态,辅助或者主动发掘故障根因,甚至在故障前提供智能预警,切实保障系统的可靠性。
多维度实现运维协作模式变革
作为一项国家战略,“新基建”参与者众多、竞争激烈,新型基础设施建设这项系统性工程需要做到“速度”与“质量”的双优,以往纵向延伸、条块分割的IT建设体系已经不再适用,需要建立一套全新的、常态化的机制。
作为IT服务质量的把关人,运维部门需要进一步加强与其他业务部门的合作,消除协作过程中的信息鸿沟。在传统模式下,运维的价值目标是实现系统稳定工作,开发的价值目标是推动变革,安全的业务目标是消除外部威胁。“新基建”下的运维协作可以看作DevOps模式的延伸,不同部门之间的壁垒将被打破,在数字基础设施建设和服务的全生命周期内,研发、交付、运维、安全等部门更为高效的协同。
实现运维与其他业务模块高效协作,可以在企业内部通过组织结构变革实现,比如部门整合,组建一个高度整合的业务团队。或者组织结构不变情况下,打造运维中台。无论是北向的IT运维解决方案,还是南向的数据中心基础设施运维解决方案,新华三集团都提供完善的运维数据中台。
从业务出发重新定位运维价值
出于开发成本和开发难度的考虑,通用技术被大规模应用于新型基础设施建设中。但是,通用技术并不意味着运维方案的同质化。相反,新型基础设施的运维方案设计中更需要强调“个性”,从外部环境和IT业务的实际情况入手,真正做到定制化开发,为未来的业务成长预留充足的空间。所以,IT服务的需求方和实施者需要进行充足沟通,为未来IT系统建设提供具有远见的规划。
企业甚至要基于运维能力来决定业务形态。新基建的提速缩短了运维到业务的价值链,当运维能力不足会构成业务发展的瓶颈。在关键业务实施之前,企业需要评估运维水平再做出评定,新华三集团为企业提供云运营管理咨询、业务连续性及容灾咨询、运维数据治理咨询等统一规划服务,就是希望为企业把脉,帮助企业在业务与运维中寻求更加平衡的适配性。
只有实现运维能力跨越式发展,重构自身运维体系,才能有效驱动自身业务的高速成长。得运维者得新基建,作为数字化转型的领导者,新华三集团将与百行百业的客户合作,帮助用户在新基建风口下创造全新价值。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。