多数人自信辨真伪,然而深度伪造的兴起却令此能力或许愈发困难。
深度伪造(Deepfake)是由人工智能(AI)创建的数字内容,可涵盖音频、视频及静态图像,看似真实无比。其常将人物描绘出不实言行。网络安全专家和技术专家越来越多地警告说,这些内容可能被用于各种恶意方式,包括欺诈计划或传播错误信息。
关于深度伪造的兴起,专家们警告的一个重点领域是名人和政界,但攻击也可能针对个人。
IEEE会员Rebecca Herold分享了一则轶事,说明了深度伪造的风险。Herold说:“我的一个朋友出差时接到了妻子的电话。她非常沮丧,抽泣着告诉他自己出了事故,身上没有钱叫拖车。我朋友几乎完全相信了这个电话,这听起来就是他妻子的声音。但当这个朋友告诉妻子需要给拖车公司电汇,挂了电话后,他又拨通了妻子的电话号码 —— 他说他差点就被骗了,声音非常真实,然而,他的妻子很安全。”
虽然深度伪造可以令人难以置信地信服,但它们往往有着微妙的线索表明它们可能不是真的。
IEEE会员Yale Fox表示:“目前,深度伪造与真实视频并非完全无法区分,但我们正在逐渐接近。大多数人仍然可以识别深度伪造视频。”
深度伪造可能造成社会危害,这引发了政府、大学和私营企业对检测工具的研究浪潮。
一些技术评估可疑内容本身。例如,一些工具可能会评估人脸上的血流,寻找不自然的混合或模糊状态。或者观察一个人眼睛的反射,看看它是否与周围环境相匹配,以此作为真实性的指标。IEEE信号处理协会主办的一次全面讨论展示了其中一些技术在实践中的应用。
其他工具可能会评估文件的元数据是否存在操作迹象。
IEEE高级会员Kayne MGladrey表示:“同样,产生深度伪造的威胁参与者可能会从检测算法中学习,并相应地调整自己的技术。这里至关重要的是,视频和音频内容的主要分销商投资大规模部署这些解决方案,以防止错误信息或虚假信息的传播。”
了解更多:最近一期《IEEE计算机杂志》上的一篇文章全面报道了深度伪造的主题:从它们的增长速度到潜在的检测算法。他们甚至描述了深度伪造技术的潜在积极用途。有兴趣的话,可以关注一下:https://www.computer.org/csdl/magazine/co/2023/07/10154234/1O1wTOn6ynC。
好文章,需要你的鼓励
本文探讨如何使用生成式AI和大语言模型作为倾听者,帮助用户表达内心想法。许多主流AI如ChatGPT、Claude等被设计成用户的"最佳伙伴",或试图提供心理健康建议,但有时用户只想要一个尊重的倾听者。文章提供了有效的提示词技巧,指导AI保持中性、尊重的态度,专注于倾听和理解,而非给出建议或判断。同时提醒用户注意隐私保护和AI的局限性。
北京大学团队开发出WoW世界模型,这是首个真正理解物理规律的AI系统。通过200万机器人互动数据训练,WoW不仅能生成逼真视频,更能理解重力、碰撞等物理定律。其创新的SOPHIA框架让AI具备自我纠错能力,在物理理解测试中达到80.16%准确率。该技术将推动智能机器人、视频制作等领域发展,为通用人工智能奠定重要基础。
人工通用智能和超级人工智能的出现,可能会创造出一种全新的外星智能形态。传统AI基于人类智能模式构建,但AGI和ASI一旦存在,可能会选择创造完全不同于人类认知方式的新型智能。这种外星人工智能既可能带来突破性进展,如找到癌症治愈方法,也可能存在未知风险。目前尚不确定这种新智能形态是否会超越人类智能,以及我们是否应该追求这一可能改变人类命运的技术突破。
香港大学和蚂蚁集团联合推出PromptCoT 2.0,这是一种让AI自动生成高质量训练题目的创新方法。通过"概念-思路-题目"的三步策略,AI能像老师备课一样先构思解题思路再出题,大幅提升了题目质量和训练效果。实验显示该方法在数学竞赛和编程任务上都取得了显著提升,为解决AI训练数据稀缺问题提供了新思路。