Gartner最新移动应用调查显示,全球超过四分之一的企业在过去12个月内未创建、定制或虚拟化任何移动应用。
Gartner分析师认为,上述数字之高令人惊讶,但相比上一年该数字仍有所下降。在2016年调查中,39%的受访者表示他们在过去12个月内未创建、定制或虚拟化任何移动应用。
Gartner研究总监Adrian Leow认为企业对不断增长的移动应用需求响应缓慢。他表示:“许多IT团队必须完成大量有关应用的积压工作,因此这会使得业务部门越发希望IT部门能更快满足自己的需求。”
Gartner研究总监沈哲怡补充称:“在中国,企业将更多资源投向微信以建立市场营销与客户服务业务。这在一定程度上降低了客户对品牌移动应用的使用率,并反映出诸如微信的聚合型移动应用在消费者关注度方面的主导地位。我们的消费者调查显示,超过半数的中国智能手机用户在2016年未下载任何新的移动应用,而63%的用户在移动应用上花费的时间却有所增加。
“还有一些企业会使用微信企业号,而不会为员工或业务伙伴开发单独的移动应用。这能够帮助企业更快进入市场并降低开发成本。企业可能会继续保留现有移动应用,但对于开发新移动应用的需求没有以往强烈。”
调查结果显示,开发过移动应用的企业迄今平均部署了8款移动应用,相比2016年保持相对平稳。平均而言,正在开发之中的移动应用有2.6款,计划在未来12个月内开发但目前尚未进入开发阶段的移动应用数量为6.2款。
Leow表示:“看到纳入计划的移动应用数量大幅增长,这令人感到鼓舞,但增长的主要部分为移动网络应用,而非原生或混合移动应用。这反映出有些企业可能在开发移动应用方面受挫,转而重新关注响应式网站,以满足其移动需求。”
Gartner的调查显示,52%的受访者已经开始研究、探索或尝试在移动应用开发中使用机器人、聊天机器人或虚拟助理。考虑到这些技术刚刚兴起,这样高的比例实在出人意料。Gartner将这些称作“后应用技术”(postapp technologies)。在后应用时代,从应用商店获得并安装至移动设备的传统移动应用将仅成为向移动用户交付功能与服务的众多途径的一种。应用领导者需要了解不断涌现的各种“后应用技术”,以确保其移动应用战略保持相关性并获得成功。
沈哲怡表示:“许多中国企业已经在微信服务号与移动应用中部署聊天机器人来提供客户服务,但客户体验差别较大。机器人并不总能准确理解自然语言及客户意图,客户体验也会因为企业所使用知识库的局限性而受到影响。除了客户服务,企业还有待探索其他用例,如:电子商务、零售网点/分支机构服务以及员工服务等。”
Leow认为:“虽然这种情况更多表明的仅仅是人们对于这些技术的认知度的提升,但看到企业开始考虑这些技术仍让人感到高兴,这些技术的重要性将会因此得到快速提升。”
调查结果显示,资金、工时以及技能的不足是企业移动计划的主要障碍。成本问题在IT部门中普遍存在,这虽然不足为奇,但也意味着IT开发部门需要在现有预算内提高生产力。其他障碍包括业务收益和投资回报合理性的匮乏,而这些障碍的成因可能是企业缺乏对客户需求的了解。
调查显示,移动应用方面的实际IT支出持续低于预测值。尽管68%的企业机构预计增加移动应用支出,但总体软件预算的平均比例仅为11%。计划在2017年增加支出的企业机构预计比上一年增加25%的支出。Gartner研究显示,在过去几年内,虽然企业机构曾表明将增加移动应用开发的预算,但其现实支出却有所减少。
Leow表示:“由于员工选择设备、应用甚至任务完成流程的自主权大大增加,应用领导者必须扭转移动应用开发预算停滞不前的趋势。这将为IT部门带来更多压力,迫使其在更短时间内开发更多类型的移动应用。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。