多数人自信辨真伪,然而深度伪造的兴起却令此能力或许愈发困难。
深度伪造(Deepfake)是由人工智能(AI)创建的数字内容,可涵盖音频、视频及静态图像,看似真实无比。其常将人物描绘出不实言行。网络安全专家和技术专家越来越多地警告说,这些内容可能被用于各种恶意方式,包括欺诈计划或传播错误信息。
关于深度伪造的兴起,专家们警告的一个重点领域是名人和政界,但攻击也可能针对个人。
IEEE会员Rebecca Herold分享了一则轶事,说明了深度伪造的风险。Herold说:“我的一个朋友出差时接到了妻子的电话。她非常沮丧,抽泣着告诉他自己出了事故,身上没有钱叫拖车。我朋友几乎完全相信了这个电话,这听起来就是他妻子的声音。但当这个朋友告诉妻子需要给拖车公司电汇,挂了电话后,他又拨通了妻子的电话号码 —— 他说他差点就被骗了,声音非常真实,然而,他的妻子很安全。”
虽然深度伪造可以令人难以置信地信服,但它们往往有着微妙的线索表明它们可能不是真的。
IEEE会员Yale Fox表示:“目前,深度伪造与真实视频并非完全无法区分,但我们正在逐渐接近。大多数人仍然可以识别深度伪造视频。”
深度伪造可能造成社会危害,这引发了政府、大学和私营企业对检测工具的研究浪潮。
一些技术评估可疑内容本身。例如,一些工具可能会评估人脸上的血流,寻找不自然的混合或模糊状态。或者观察一个人眼睛的反射,看看它是否与周围环境相匹配,以此作为真实性的指标。IEEE信号处理协会主办的一次全面讨论展示了其中一些技术在实践中的应用。
其他工具可能会评估文件的元数据是否存在操作迹象。
IEEE高级会员Kayne MGladrey表示:“同样,产生深度伪造的威胁参与者可能会从检测算法中学习,并相应地调整自己的技术。这里至关重要的是,视频和音频内容的主要分销商投资大规模部署这些解决方案,以防止错误信息或虚假信息的传播。”
了解更多:最近一期《IEEE计算机杂志》上的一篇文章全面报道了深度伪造的主题:从它们的增长速度到潜在的检测算法。他们甚至描述了深度伪造技术的潜在积极用途。有兴趣的话,可以关注一下:https://www.computer.org/csdl/magazine/co/2023/07/10154234/1O1wTOn6ynC。
好文章,需要你的鼓励
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
数据分析平台公司Databricks完成10亿美元K轮融资,公司估值超过1000亿美元,累计融资总额超过200亿美元。公司第二季度收入运营率达到40亿美元,同比增长50%,AI产品收入运营率超过10亿美元。超过650家客户年消费超过100万美元,净收入留存率超过140%。资金将用于扩展Agent Bricks和Lakebase业务及全球扩张。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。