近几年,全球数据安全形势愈发严峻,层出不穷的网络攻击事件,严重影响着全球企业数字化转型的正常进行,这极大的刺激了数据安全市场的需求供给。中国作为全球安全市场的重要力量,同样致力于推动数据安全建设,保障企业、个人在网络空间中的安全。根据IDC统计,2021年中国数据安全产品与服务的总体市场规模(包含隐私计算与区块链技术中的数据安全部分)达到12.43亿美金,约合80.2亿人民币。
尤其在数据全球化的大趋势下,数据中蕴含的价值快速提升,但是数据安全的威胁也日益凸显。而作为严守数据安全第一线的CSO和安全主管们,亟需一份“Roadmap”为中国数据安全发展指明方向。
数据安全治理亟需一次“大盘点”
随着数字经济和信息产业蓬勃发展,5G、零信任、人工智能、区块链等技术加快落地应用,新业态新技术在推动经济转型升级的同时,海量高价值数据不断产生,数据泄露、滥用等风险日益凸显。
为此,我国陆续颁布施行的《十四五规划纲要》、《数据安全法》、《个人信息保护法》等政策法规,均明确提出推动发展数据战略,统筹数据开发利用、隐私保护和公共安全,规范数据有序流通,保障数据安全。
“Roadmap”不仅是对企业的数据安全合规能力的总结,同时也是对数据安全相关体系建设规划、数据安全治理分类分级、相关创新技术实践,以及数据安全管理和场景应用的一次“大盘点”。
技术创新发展亟需一次 “大融合”
数据不同于传统意义上的生产资料,其具有分散性、多样性、实时性、可变性、复杂性等诸多特征,对于企业来说,数据还具有跨部门、跨组织、跨业务系统等复杂结构特征,数据安全体系建设变得困难重重。
当前,许多企业的数据安全建设仍以单点建设为主,产品技术无法形成合力。而根据IDC的调研判断,未来“点-线-面”的技术融合趋势将逐渐增强,用户需要对数据安全全生命周期管理过程中的相关技术点,如敏感数据发现与分类、加密、脱敏、访问控制、密钥管理等内容融汇贯通,而一体化数据安全解决方案或者是融合类的平台产品也将会受到用户青睐。
除了技术融合之外,数据安全产品与服务融合、数据安全与网络安全融合的趋势也将愈加明显。首先,由于数据安全更强调业务属性,而构建数据安全运营体系、制定整体框架、测试应急响应的实战演练等等,仅靠产品层面,以及用户的一己之力是办不到的,所以对应的服务都将会“提前”。其次,数据相关法规落地,催生出数据安全全生命周期管理等各方面需求,而每个环节都可能需要一系列网络技术和产品工具来帮助建立防御点,解决精细化的问题,这就把数据安全与网络安全相融合的大量需求,极速地推到了市场前端。
这份包含数据安全“大盘点”和“大融合”洞察的“Roadmap”——《IDC TechScape: 中国数据安全发展路线图,2022》将在IDC于7月底在上海举办的“IDC 2022全球CSO网络安全峰会——聚力数据安全,赋能企业现代化”上与大家见面。该报告将从变革型、主导型和机会型技术与服务的角度来呈现不同数据安全技术与服务的技术点、技术优劣势、发展阶段、风险程度、市场热度和标杆厂商,从而帮助最终用户了解和选择适合其自身业务发展要求的数据安全产品与服务组合。
届时,大会将邀请30位来自中国及全球市场的行业权威代表,围绕企业数据安全建设发表主题演讲,同时为“中国20大杰出安全项目” 和“中国CSO名人堂(十大人物)”的获奖者颁奖。除主论坛之外,大会还设置了数据安全、数据隐私与数据合规、软件定义安全访问、数据保护与容灾备份四大分论坛, 解惑网络安全各细分领域的行业热点与洞见,欢迎现场参会。

扫码注册

好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。