网络安全领域的工作很热门,而且需要合格的员工。根据美国国家标准与技术研究所汇编的数据,2022年全球网络安全工作者短缺340万。仅在美国就有超过663000个网络安全职位空缺。
ChatGPT等生成性人工智能工具的兴起引发了新的问题,即这些工具是否有助于缩小或加剧就业差距。因此,许多专家将其视为一把双刃剑。
一方面,攻击者可以使用生成人工智能“大大降低网络安全中的作恶成本”,IEEE高级会员林道庄说。
另一方面,生成型人工智能可能能够加速软件代码和新工具的开发,以挫败网络攻击。
“这些大型语言模型是一个根本的范式转变,”IEEE会员Yale Fox近日在《数据中心知识》杂志(https://www.datacenterknowledge.com/security/how-chatgpt-can-help-and-hinder-data-center-cybersecurity)上如此表示。“反击人工智能驱动的恶意攻击的唯一方法是在防御中使用人工智能。数据中心的安全经理需要提高现有网络安全资源的技能,并寻找专门从事人工智能的新人群。”
目前,生成性人工智能对寻求招聘的网络安全高管来说是福是祸的问题基本上是无法回答的。这并没有阻止关于它可能如何改变网络安全专业人员工作的更广泛讨论。
以下是专家们对生成性人工智能可能塑造网络安全工作性质的看法:
1. 软件开发人员可能需要对人工智能生成的代码进行更多的验证和测试,更加强调质量控制技能。IEEE高级会员Amol Gulhane指出,质量控制人员需要获得与评估生成人工智能模型性能相关的知识和技能。
Gulhane说:“他们需要了解与这些模型相关的局限性和偏见,识别潜在的漏洞,并根据预定义的标准和安全要求测试生成的输出。”
2. 生成型人工智能可以减轻网络安全专业人员面临的文书工作和文件负担。尽管网络安全分析师的键盘技能以及他们细节能力在很大程度上得到了提升,但人们对该角色可能需要的大量文件却关注较少。
IEEE高级会员Kayne McGladrey说:“这份文件可以采取多种形式,包括在误报警报上进行标注到写下如何进行新型调查的文档。虽然这些文档具有巨大的组织价值,但它也是分析师执行的最不受欢迎和耗时的任务之一。通过使用人工智能自动化任务,如根据预定义格式汇总文本和生成报告,分析师可以显著节省时间。”
3. 它可以加速新产品的安全缺陷测试,内部安全专家试图以开发人员没有预料到的方式“破解”产品,这一过程被称为red teaming。
“作为组织软件开发生命周期的一部分,red teamers偶尔会被要求评估软件组件的安全性,”McGladrey说,“不幸的是,这带来了日程压力;red teamers需要的时间越长,软件发布到通用状态的时间就越长,因此并非所有组织都遵循这种模式。”
了解更多:道德黑客帮助企业和软件开发人员从不道德的人的角度看待问题。在产品向公众发布之前,这是一项提高产品安全性的重要技能。在Innovation at Work博客上可了解更多道德黑客如何打击网络犯罪的内容,https://innovationatwork.ieee.org/ethical-hacking-is-essential-to-fighting-cyber-crime/。
好文章,需要你的鼓励
NVIDIA研究团队开发出名为Lyra的AI系统,能够仅凭单张照片生成完整3D场景,用户可自由切换观察角度。该技术采用创新的"自蒸馏"学习方法,让视频生成模型指导3D重建模块工作。系统还支持动态4D场景生成,在多项测试中表现优异。这项技术将大大降低3D内容创作门槛,为游戏开发、电影制作、VR/AR应用等领域带来重大突破。
生物技术公司SpotitEarly开发了一种独特的居家癌症筛查方法,结合训练有素的比格犬嗅觉能力和AI技术分析人体呼气样本。该公司研究显示,18只训练犬能以94%的准确率检测出早期癌症。用户只需在家收集呼气样本并寄送至实验室,由训练犬识别癌症特异性气味,AI平台验证犬类行为。公司计划明年通过医师网络推出筛查套件,单项癌症检测约250美元。
谷歌DeepMind团队创新性地让Gemini 2.5模型在无需训练的情况下学会理解卫星多光谱图像。他们将复杂的12波段卫星数据转换为6张可理解的伪彩色图像,配以详细文字说明,使通用AI模型能够准确分析遥感数据。在多个基准测试中超越现有模型,为遥感领域AI应用开辟了全新道路。