AI之于网络安全亦是如此:一方面,AI可以成为保护IT环境的利器,另一方面,网络犯罪分子也利用其创造新的攻击路径、运用新的攻击手段,企业面临又一轮挑战。随着AI的不断发展演进,其对网络安全和网络犯罪的影响也在同步增加。
众多IT领导者也敏锐地意识到,AI的出现既是对IT系统的一次加强,也无意间成了网络攻击的帮凶。戴尔科技的全球数据保护指数(GDPI)调查结果显示,52%的受访者认为AI将为其企业带来网络安全优势,但也有27%的受访者则认为AI从使用伊始就会成为网络犯罪分子的“动力源泉”。
毫无疑问,AI对网络威胁现状和未来的数据保护要求都将产生重大影响,各家网络安全厂商已纷纷开始研究如何利用AI保证其安全套件在面向未来时依然无忧。有数据显示,到2028年,全球AI网络安全市场预计将增长至606亿美元。IDC预测,未来五年间“AI赋能安全”、“AI自身的安全”将成为中国网络安全市场的热点话题。AI的进阶发展将给市场带来极大变化,因此首席信息官(CIO)和企业安全领导者也需要迅速采取行动,将AI收入其网络安全“武器库”中,避免被AI所引发的网络犯罪浪潮所吞没。那么CIO如何才能充分利用AI的力量强化企业的网络安全战略?
了解AI参与的网络攻击模式并消除隐式信任
想要让AI成为推动网络安全的“引擎”而非网络犯罪的“帮凶”,CIO制定战略时的重要一环就是参透AI参与的网络攻击究竟有何不同,了解攻击者是如何通过AI实施从设备到数据和用户层面的网络攻击。
传统的网络安全问题应对方式以防范为主,着重关注“边界防御”,在这种安全框架下,边界内被视为“可信且已知”(如员工、合作伙伴),边界外被视为“不可信且未知”(如黑客和其他不良行为者)。然而,在AI手段的加持下,包括钓鱼软件和深度伪造技术在内的人类工程学方法日益精进,不良行为者能够借此伪装成“可信且已知”状态,从而进入网络并访问企业的整个系统。
通过零信任(Zero Trust)模型消除隐式信任,可防止黑客在入侵后进一步渗透企业网络,结合相关模型,更可增强对异常情况和潜在威胁的实时检测能力。例如,员工在首次访问邮件后,可能需要完成双重身份验证才能再次获得访问权限,这意味着在实时访问指定系统时,任何单个用户都有可能被拒绝。
通过对用户行为和网络活动的持续监控,AI驱动的零信任模型加强了企业的整体安全态势,让企业可根据实时的风险评估数据动态调整访问权限。
利用AI减少潜在攻击并加强事件响应和恢复
网络安全领域的AI和自动化技术突破了规则系统的运营限制,为企业带来自适应和预测的能力。通过AI对大量安全数据的分析和不断学习,并借助能够识别异常行为和实时预测潜在威胁的相关算法,网络安全团队得以在应对威胁时占得先机。当AI检测到网络流量异常或可疑的电子邮件内容后,可以进一步分析威胁类型,从而预测未来的威胁并发现漏洞。
然而,CIO必须明白,AI的加入并不意味着无懈可击,网络攻击仍时有出现。但即便攻击实际发生,AI驱动的自动化也可以减轻其影响。通过简化威胁检测和响应,AI自动化可实现更加快速、全面的容灾,从而减轻负面影响。通过在Cyber Recovery数据避风港(一个存储所有重要业务数据和系统的隔离库)的安全范围内检测、诊断和加速数据恢复,AI工具给予企业充分保障,能够在网络攻击后快速、从容地恢复关键的数据和系统。
戴尔科技“三位一体”多重数据恢复防线
戴尔科技的GDPI调查数据显示,75%的受访企业认为其现有的数据保护措施不足以应对勒索软件威胁,69%的企业对于其在网络攻击中的恢复能力缺乏信心。也正因如此,CIO更应充分利用AI驱动的分析技术提高事件响应能力,以便更快找出漏洞来源和范围并加快恢复过程。
通过团队培训提高员工警惕性
面对人类工程学和欺诈型网络攻击,员工着实是最强大的防线之一。人为错误是造成网络安全事件的一大诱因,因此IT领导者和CIO们也必须及时投资于综合全面的网络安全培训,让员工掌握发现和应对潜在威胁所需的知识和技能,比如如何识别AI驱动的欺诈企图。与之相对应,在企业内部,AI也可以用于加强员工培训效果。企业可以根据员工的角色、过去的IT行为和可能面临的常见威胁,个性化定制模块内容。
AI时代轰轰烈烈到来,AI与网络安全之间的共生关系也将继续发展。面对不断迭代变化的网络威胁,企业CIO和其他IT领导者在充分利用AI潜力的同时,也必须以完备的姿态应对其可能带来的威胁。网络安全形势日趋复杂,企业需要将技术、人员和流程有机整合并充分利用,构建起企业级别的网络弹性。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。