近日,由紫光股份旗下新华三集团发起的“质行万里,同舟奋楫——新华三服务合作伙伴运营能力跃升计划”圆满收官,在为期四个月的活动中,“跃升计划”通过所有合作伙伴的运营能力答辩、深入全国20余家服务合作伙伴现场质检与访谈,累计赋能培训约3000人次,全面提升了服务合作伙伴的运营管理、交付质量管理水平,为构建赋能成长、共生共赢、同舟奋楫的合作伙伴生态体系夯实了发展根基。

合作伙伴调研及访谈现场
环环相扣 夯实基础交付“服务根基”
随着数字经济的深入发展,ICT服务市场需求更加多元化、复杂化,对企业的交付能力提出更高的要求。作为产品方案落地的重要保障,基础交付是“服务根基”,也是产品力更深层次的延伸。为推动服务交付质量专业化和系统化,“跃升计划”通过“运营能力答辩”、“全国质量行”、“服务合作伙伴赋能培训”环环相扣的活动设计,助力合作伙伴服务能力全面进化。
“运营能力答辩”围绕人员管理、项目交付管理等评价内容,对30余家服务合作伙伴的运营能力进行了评估核查,对于运营能力存在短板的合作伙伴,提出针对性的指导建议,帮助合作伙伴全面审视了自身运营管理的优缺点。同时,为深入了解一线交付业务遇到的问题,“跃升计划”面向20余家合作伙伴开展“全国质量行”,通过一线访谈、现场质检等方式掌握合作伙伴运营管理、服务交付实际落地情况,并针对性提供诸如人员培训、经验共享、加强与代表处交流等建议,帮助合作伙伴深入优化服务能力。通过对服务合作伙伴项目管理、交付质量管理的全面评估,“全国质量行”项目组为合作伙伴提出了针对性的提升建议,进一步保障了服务实施的标准化和规范化。
此外,为全面提升服务合作伙伴的管理能力和造血能力,“跃升计划”以线上线下相结合的方式开展了合作伙伴赋能培训,为40余名运营经理、100余名站经理、40余名技术经理以及1000余名工程师提供了涵盖团队管理、课程开发、情绪管理等方向的课程,帮助相关人员从技术走向管理、从业务走向管理,实现能力和角色的跃升。
树立优秀运营标杆 持续打造服务生态赋能圈
在运营能力答辩、质量行调研的基础上,结合资源满足率、客户满意度等情况,“跃升计划”对服务合作伙伴的运营能力给予了整体评价并进行了综合排名,评选出TOP10优秀合作伙伴,树立了运营管理能力标杆。
来自北京青匠工创技术有限公司的运营经理陈先成分享到:“通过‘跃升计划’,我们不仅在运营管理、服务规范、人员培养等方面学到了更多技能,也更清晰地看到了自身的优劣势,未来可以针对性地优化和完善,为客户提供更好的交付服务。”广州佳众联科技有限公司运营经理程军也为“跃升计划”点赞:“专家组从原厂角度提出的问题和建议,具有很强的指导性和可操作性,为我们打开了新的提升空间,对于我们整体运营管理能力的提高有着很大的帮助。”
新华三集团技术服务部服务合作部总监张健表示,服务合作伙伴是新华三基础服务交付的重要力量,影响着产品方案落地的质量和成效,新华三将不遗余力地支持合作伙伴的发展与成长。“跃升计划”的圆满收官,是新华三持续打造服务生态赋能圈的重要一步,2023年,新华三将启动新一期“跃升计划”,并在内容、资源、评估等方面全面升级,帮助合作伙伴审视并提升运营能力、服务能力、服务质量,形成新华三与服务合作伙伴的运营统一、服务统一。
未来,新华三集团也将持续进行服务创新和模式升级,打造更强大的技术服务集群,携手合作伙伴助力百行百业数字化转型,共赢数字经济未来。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。