网络安全领域的工作很热门,而且需要合格的员工。根据美国国家标准与技术研究所汇编的数据,2022年全球网络安全工作者短缺340万。仅在美国就有超过663000个网络安全职位空缺。
ChatGPT等生成性人工智能工具的兴起引发了新的问题,即这些工具是否有助于缩小或加剧就业差距。因此,许多专家将其视为一把双刃剑。
一方面,攻击者可以使用生成人工智能“大大降低网络安全中的作恶成本”,IEEE高级会员林道庄说。
另一方面,生成型人工智能可能能够加速软件代码和新工具的开发,以挫败网络攻击。
“这些大型语言模型是一个根本的范式转变,”IEEE会员Yale Fox近日在《数据中心知识》杂志(https://www.datacenterknowledge.com/security/how-chatgpt-can-help-and-hinder-data-center-cybersecurity)上如此表示。“反击人工智能驱动的恶意攻击的唯一方法是在防御中使用人工智能。数据中心的安全经理需要提高现有网络安全资源的技能,并寻找专门从事人工智能的新人群。”
目前,生成性人工智能对寻求招聘的网络安全高管来说是福是祸的问题基本上是无法回答的。这并没有阻止关于它可能如何改变网络安全专业人员工作的更广泛讨论。
以下是专家们对生成性人工智能可能塑造网络安全工作性质的看法:
1. 软件开发人员可能需要对人工智能生成的代码进行更多的验证和测试,更加强调质量控制技能。IEEE高级会员Amol Gulhane指出,质量控制人员需要获得与评估生成人工智能模型性能相关的知识和技能。
Gulhane说:“他们需要了解与这些模型相关的局限性和偏见,识别潜在的漏洞,并根据预定义的标准和安全要求测试生成的输出。”
2. 生成型人工智能可以减轻网络安全专业人员面临的文书工作和文件负担。尽管网络安全分析师的键盘技能以及他们细节能力在很大程度上得到了提升,但人们对该角色可能需要的大量文件却关注较少。
IEEE高级会员Kayne McGladrey说:“这份文件可以采取多种形式,包括在误报警报上进行标注到写下如何进行新型调查的文档。虽然这些文档具有巨大的组织价值,但它也是分析师执行的最不受欢迎和耗时的任务之一。通过使用人工智能自动化任务,如根据预定义格式汇总文本和生成报告,分析师可以显著节省时间。”
3. 它可以加速新产品的安全缺陷测试,内部安全专家试图以开发人员没有预料到的方式“破解”产品,这一过程被称为red teaming。
“作为组织软件开发生命周期的一部分,red teamers偶尔会被要求评估软件组件的安全性,”McGladrey说,“不幸的是,这带来了日程压力;red teamers需要的时间越长,软件发布到通用状态的时间就越长,因此并非所有组织都遵循这种模式。”
了解更多:道德黑客帮助企业和软件开发人员从不道德的人的角度看待问题。在产品向公众发布之前,这是一项提高产品安全性的重要技能。在Innovation at Work博客上可了解更多道德黑客如何打击网络犯罪的内容,https://innovationatwork.ieee.org/ethical-hacking-is-essential-to-fighting-cyber-crime/。
好文章,需要你的鼓励
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
AWS在纽约峰会上发布Amazon Bedrock AgentCore,这是一个企业级AI代理构建、部署和运营平台。该平台支持开源框架如CrewAI、LangChain等,提供运行时、内存、身份管理、可观测性等核心服务。Box、巴西伊塔乌银行等企业已开始使用该平台构建生产级应用。平台采用按需付费模式,目前在部分AWS区域提供预览版,2025年9月16日前免费试用。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。