【中国,上海,2016年9月9日】在HUAWEI CONNECT 2016 全联接大会上,华为发布了“STEPS”服务战略,即Service Solution、Talent Chain、Ecosystem、Platform、Satisfaction。以云计算、大数据、SDN、IoT为代表的新ICT将重塑企业的ICT系 统和商业模式,企业的ICT转型势在必行。华为将聚焦客户所面临的压力和挑战,致力于打造智慧服务,帮助企业快速实现云转型,助力客户商业持续成功。
华为企业技术服务部总裁孙茂录在企业服务分论坛致辞
客户业务云化需要解决规划、演进、运营三大挑战
“客户业务的云化不是简单的新旧替换,而是云计算、大数据、SDN和IoT等多种技术相互融合的发展。客户业务云化在多技术、多商业模式发展上,将面临规划、演进、运营三大挑战。“华为企业技术服务部总裁孙茂录认为,受限于新技术上的积累时间,业务云化的技术升级、对未来数据架构和技术架构的规划等,客户 普遍存在强烈需求;另一方面,不同的企业由于业务目标、IT技术能力积累以及物理设备平台各不同,在业务云化趋势下,会有不同的路径以及阶段性目标,业务 平缓演进已经成为客户重点关注的能力;再者,云计算技术改变传统数据处理模式,大量设备并行运作使得计算效率得到数十倍甚至上百倍的提升,同时异构的网络 环境与多设备的并行给运维工作带来了极大地挑战。
华为从全球平台、工具研发、人才培养三个方面支持
孙茂录表示,在此背景下华为将以联合创新、预集成验证、工具研发为发展引擎,打造面向新技术、新商业模式的创新服务解决方案。在全球与客户及合作伙伴建立了36个联合创新中心,用全球化能力快速满足客户需求;苏州的预集成验证中心,已与500多家合作伙伴开展了预集成验证业务;在工具研发方面,每年投入保持30%的增长,金额超过2亿美金。
同时,基于产业发展的人才需求,华为致力于构建覆盖IP、IT及ICT融合技术的认证体系与人才培养通道,为ICT产业链人才标准提升作出贡献。建设覆盖全球超过170个国家和城市、全产品的授权培训认证中心;成立 1000家华为信息与网络技术学院及联合实验室,联合开发ICT系列专业课程;构建云化学习平台,包括云化的e-learning、e-lab、社交平台 等,实现全社会人员的随时随地在线学习提升。
推进服务合作伙伴向能力型转型
在行业ICT转型和数字化变革的浪潮中,服务伙伴生态也在不断演进和发展。孙茂录介绍,华为致力于构建开放、合作、共赢的引领型服务伙伴生态系统。以ISV、MSP、Solution Partner为代表的服务伙伴,正在从通路型向能力型转型,已成为华为企业服务的基石。价值共享的体系,开放的使能平台,专业的服务能力和良性的人才供应链成为构建华为服务伙伴生态系统的四大要素。2016年通过认证的CSP达到2300多家,预计到2020年通过认证的CSP将达到15000家;
孙茂录表示,在全联接时代,华为将以BDII为行动纲领,ROADS(Real-Time、 On-Demand、All-Online、DIY、Social)体验为出发点,重新定义业务需求和业务流程,重塑企业业务应用,推动企业ICT由支撑 系统向生产系统转变。华为将践行“STEPS”服务战略,通过创新领先的服务解决方案、ICT人才产业链、引领型服务生态、一站式多业务基础服务平台、以 工匠精神持续提升客户满意度,帮助客户在云时代,把握商业转型契机,为客户业务云化提供原始核动力,加速客户商业成功。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。