芯片巨头称,能够在几毫秒之内发现实时视频中的伪造形象
英特尔公司宣称开发出一种AI模型,能够通过颜色的细微变化实时检测视频内容是否使用了deepfake技术。从结论来看,如果拍摄对象是真人,那么这种颜色变化会更为明显。
芯片巨头打造的这款FakeCatcher能够在数毫秒内返回结果,且准确率高达96%。
近年来,人们一直担心deepfake视频搅乱舆论、祸害社会。这类视频使用AI算法生成真假难辨的伪造人物画面,可以让政客或名人说出自己没说过的话、做自己没做过的事。
英特尔实验室研究科学家Ilke Demir表示,“如今,deepfake视频可谓无处不在。相信很多朋友也都看过,名人会在其中说自己没说过的话、做自己没做过的事。”不只是名人,就连普通民众也开始沦为deepfake的侵害对象。
根据英特尔的介绍,目前部分基于深度学习的检测器能够分析原始视频数据,试图找出可将其确定为伪造的迹象。相比之下,FakeCatcher的基本思路就完全不同,它会分析真实视频以寻找能证明画面为真的视觉线索。
其中包括在心脏将血液泵送至身体各处时,血液流动而引发的视频像素颜色的细微变化。英特尔方面表示,可以从整个面部收集这些血流信号,再用算法将这些信号转换为时空图,进而由深度学习模型检测视频是否真实。以往的部分检测工具往往需要将视频内容上传至云端以供分析,之后等待几个小时才能得到结果。
但这样的时间间隔将成为其致命软肋,毕竟只要拥有充足的时间和资源,任何伪造视频制作者都可以开发出足以愚弄FakeCatcher的算法。
英特尔在开发FakeCatcher时当然会广泛应用自家技术,包括用于优化深度学习模型的OpenVINO开源工具包、以及用于处理实时图像和视频的OpenCV。开发团队还使用Open Visual Cloud平台为英特尔至强Scalable处理器提供集成软件堆栈。如此一来,FakeCatcher软件得以在第三代至强Scalable处理器上同时运行多达72条不同检测流。
根据英特尔的介绍,FakeCatcher拥有多个潜在用例,包括防止用户将有害deepfake视频上传至社交媒体,以及帮助新闻机构避免播送画面遭到篡改等。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Coursera在2025年连接大会上宣布多项AI功能更新。10月将推出角色扮演功能,通过AI人物帮助学生练习面试技巧并获得实时反馈。新增AI评分系统可即时批改代码、论文和视频作业。同时引入完整性检查和监考系统,通过锁定浏览器和真实性验证打击作弊行为,据称可减少95%的不当行为。此外,AI课程构建器将扩展至所有合作伙伴,帮助教育者快速设计课程。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。