多数人自信辨真伪,然而深度伪造的兴起却令此能力或许愈发困难。
深度伪造(Deepfake)是由人工智能(AI)创建的数字内容,可涵盖音频、视频及静态图像,看似真实无比。其常将人物描绘出不实言行。网络安全专家和技术专家越来越多地警告说,这些内容可能被用于各种恶意方式,包括欺诈计划或传播错误信息。
关于深度伪造的兴起,专家们警告的一个重点领域是名人和政界,但攻击也可能针对个人。
IEEE会员Rebecca Herold分享了一则轶事,说明了深度伪造的风险。Herold说:“我的一个朋友出差时接到了妻子的电话。她非常沮丧,抽泣着告诉他自己出了事故,身上没有钱叫拖车。我朋友几乎完全相信了这个电话,这听起来就是他妻子的声音。但当这个朋友告诉妻子需要给拖车公司电汇,挂了电话后,他又拨通了妻子的电话号码 —— 他说他差点就被骗了,声音非常真实,然而,他的妻子很安全。”
虽然深度伪造可以令人难以置信地信服,但它们往往有着微妙的线索表明它们可能不是真的。
IEEE会员Yale Fox表示:“目前,深度伪造与真实视频并非完全无法区分,但我们正在逐渐接近。大多数人仍然可以识别深度伪造视频。”
深度伪造可能造成社会危害,这引发了政府、大学和私营企业对检测工具的研究浪潮。
一些技术评估可疑内容本身。例如,一些工具可能会评估人脸上的血流,寻找不自然的混合或模糊状态。或者观察一个人眼睛的反射,看看它是否与周围环境相匹配,以此作为真实性的指标。IEEE信号处理协会主办的一次全面讨论展示了其中一些技术在实践中的应用。
其他工具可能会评估文件的元数据是否存在操作迹象。
IEEE高级会员Kayne MGladrey表示:“同样,产生深度伪造的威胁参与者可能会从检测算法中学习,并相应地调整自己的技术。这里至关重要的是,视频和音频内容的主要分销商投资大规模部署这些解决方案,以防止错误信息或虚假信息的传播。”
了解更多:最近一期《IEEE计算机杂志》上的一篇文章全面报道了深度伪造的主题:从它们的增长速度到潜在的检测算法。他们甚至描述了深度伪造技术的潜在积极用途。有兴趣的话,可以关注一下:https://www.computer.org/csdl/magazine/co/2023/07/10154234/1O1wTOn6ynC。
好文章,需要你的鼓励
Xbox 部门推出了名为 Muse 的生成式 AI 模型,旨在为游戏创造视觉效果和玩法。这一举措反映了微软全面拥抱 AI 技术的战略,尽管游戏开发者对 AI 持谨慎态度。Muse 不仅可能提高游戏开发效率,还有望实现老游戏的现代化改造,但其实际效果和对行业的影响仍有待观察。
Sonar收购AutoCodeRover,旨在通过自主AI代理增强其代码质量工具。这项收购将使Sonar客户能够自动化调试和问题修复等任务,让开发者将更多时间用于改进应用程序而非修复bug。AutoCodeRover的AI代理能够自主修复有问题的代码,将与Sonar的工具集成,提高开发效率并降低成本。
人工智能正在推动数据中心的变革。为满足 AI workload 的需求,数据中心面临前所未有的电力消耗增长、散热压力和设备重量挑战。应对这些挑战需要创新的解决方案,包括 AI 专用硬件、可再生能源、液冷技术等。同时,数据中心还需平衡监管压力和社区关切。未来数据中心的发展将决定 AI 技术能否实现其变革性潜力。