90%的受访者承认使用过未经企业批准的应用程序来完成工作
2019年6月14日,北京——思杰宣布正式对外发布名为《中国信息技术复杂性现状》的研究报告。报告显示,超过半数的中国企业正在努力应对复杂性挑战。各种不同的系统、应用程序、新旧基础设施相互交叠,不仅耗费时间和金钱,而且还影响创新,妨碍企业发掘商机。日益增长的信息技术复杂性为中国企业的数字化转型和云技术普及进程造成阻碍。
为了响应员工们提出的关于将个人设备与应用程序带入工作场所的要求,企业需要维护、交付和保护的应用程序的数据量急剧增加。这一压力导致许多企业在信息管理层面出现隐患,高达90%的受访者承认,他们正在或使用过未经企业批准的应用程序来完成工作。这一现象表明,企业IT环境中运行着许多充满未知数和不安全因素的应用程序。
思杰全球副总裁大中华区总经理陈葵(Kathy Chen)表示:“研究发现,企业内部日益增加的复杂性与延迟迈向数字化转型成熟阶段之间有很大的关系。未来的企业IT环境将面临前所未有的复杂性。IT管理者不仅要提供IT服务,还要让IT服务切实地帮助到业务。为此,企业必须寻找一种合理的解决方案,降低复杂性,营造安全统一、简单易用的数字化工作场景,帮助员工随时随地访问各种应用程序和个人设备,安全地完成工作。”
复杂混乱的IT环境会影响企业响应问题的敏捷性、洞察力以及数字化转型能力。
日益增长的复杂性也对企业的数据分析能力造成了影响,87%的受访者认为,由于数据和应用程序过于复杂分散,他们无法再从数据分析中获得利于业务增长的洞察。
主要研究成果:
46%的中国企业认为自身信息技术环境的复杂性大幅增加。
100%的中国企业已经开启数字化转型工作,但只有14%达到数字化转型成熟阶段。
87%的中国企业认为自己不再能从分析数据当中获得实际裨益。
90%的中国员工正在使用未经企业批准的应用程序。
85%的中国企业现已考虑采用云技术战略,并且也正在使用、开发或者计划将要开发定制的云原生程序。
91%的中国企业担心自己无法按照《通用数据保护条例》等法律要求行事并作出及时响应。其中最主要的原因如下:
思杰全球副总裁大中华区总经理陈葵(Kathy Chen)表示:“就云技术而言,真正的战略价值在于为企业自身的应用程序搭建平台,切实改善业务流程以及企业的行事风格,培养新的工作方式,推出新的应用程序交付渠道。这才是真正的数字化转型,应被视为企业发展大局重要的一环。”
《中国信息技术复杂性现状》报告深入探索了中国企业的信息技术工作环境,针对中国企业面临的IT挑战、安全问题和云技术情况提出解决方案。
本次研究的准备过程中, Citrix公司委托“The Glass Elevator”机构对来自于中国多个行业与政府组织的1764名企业与技术决策者进行了调查。本次研究旨在了解信息技术复杂性方面的挑战、数字化转型措施、安全问题以及云技术的准备状况。为了确保所有受访者均理解一致,我们提供了名词解释与说明。只有接到邀请者,才会接受调查。受访者包括需要了解业务环境与工作环境的公司高管人员、董事、高级行政人员以及信息技术管理者。调查时间为2018年7月23日到8月31日,调查地点为中国、中国、印度、印度尼西亚、日本、韩国与新加坡。七个市场的受访者数量平均分配 (各占14%-15%),每个市场受访的公司高管人数不少于100人。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。