芯片巨头称,能够在几毫秒之内发现实时视频中的伪造形象
英特尔公司宣称开发出一种AI模型,能够通过颜色的细微变化实时检测视频内容是否使用了deepfake技术。从结论来看,如果拍摄对象是真人,那么这种颜色变化会更为明显。
芯片巨头打造的这款FakeCatcher能够在数毫秒内返回结果,且准确率高达96%。
近年来,人们一直担心deepfake视频搅乱舆论、祸害社会。这类视频使用AI算法生成真假难辨的伪造人物画面,可以让政客或名人说出自己没说过的话、做自己没做过的事。
英特尔实验室研究科学家Ilke Demir表示,“如今,deepfake视频可谓无处不在。相信很多朋友也都看过,名人会在其中说自己没说过的话、做自己没做过的事。”不只是名人,就连普通民众也开始沦为deepfake的侵害对象。
根据英特尔的介绍,目前部分基于深度学习的检测器能够分析原始视频数据,试图找出可将其确定为伪造的迹象。相比之下,FakeCatcher的基本思路就完全不同,它会分析真实视频以寻找能证明画面为真的视觉线索。
其中包括在心脏将血液泵送至身体各处时,血液流动而引发的视频像素颜色的细微变化。英特尔方面表示,可以从整个面部收集这些血流信号,再用算法将这些信号转换为时空图,进而由深度学习模型检测视频是否真实。以往的部分检测工具往往需要将视频内容上传至云端以供分析,之后等待几个小时才能得到结果。
但这样的时间间隔将成为其致命软肋,毕竟只要拥有充足的时间和资源,任何伪造视频制作者都可以开发出足以愚弄FakeCatcher的算法。
英特尔在开发FakeCatcher时当然会广泛应用自家技术,包括用于优化深度学习模型的OpenVINO开源工具包、以及用于处理实时图像和视频的OpenCV。开发团队还使用Open Visual Cloud平台为英特尔至强Scalable处理器提供集成软件堆栈。如此一来,FakeCatcher软件得以在第三代至强Scalable处理器上同时运行多达72条不同检测流。
根据英特尔的介绍,FakeCatcher拥有多个潜在用例,包括防止用户将有害deepfake视频上传至社交媒体,以及帮助新闻机构避免播送画面遭到篡改等。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。