芯片巨头称,能够在几毫秒之内发现实时视频中的伪造形象
英特尔公司宣称开发出一种AI模型,能够通过颜色的细微变化实时检测视频内容是否使用了deepfake技术。从结论来看,如果拍摄对象是真人,那么这种颜色变化会更为明显。
芯片巨头打造的这款FakeCatcher能够在数毫秒内返回结果,且准确率高达96%。
近年来,人们一直担心deepfake视频搅乱舆论、祸害社会。这类视频使用AI算法生成真假难辨的伪造人物画面,可以让政客或名人说出自己没说过的话、做自己没做过的事。
英特尔实验室研究科学家Ilke Demir表示,“如今,deepfake视频可谓无处不在。相信很多朋友也都看过,名人会在其中说自己没说过的话、做自己没做过的事。”不只是名人,就连普通民众也开始沦为deepfake的侵害对象。
根据英特尔的介绍,目前部分基于深度学习的检测器能够分析原始视频数据,试图找出可将其确定为伪造的迹象。相比之下,FakeCatcher的基本思路就完全不同,它会分析真实视频以寻找能证明画面为真的视觉线索。
其中包括在心脏将血液泵送至身体各处时,血液流动而引发的视频像素颜色的细微变化。英特尔方面表示,可以从整个面部收集这些血流信号,再用算法将这些信号转换为时空图,进而由深度学习模型检测视频是否真实。以往的部分检测工具往往需要将视频内容上传至云端以供分析,之后等待几个小时才能得到结果。
但这样的时间间隔将成为其致命软肋,毕竟只要拥有充足的时间和资源,任何伪造视频制作者都可以开发出足以愚弄FakeCatcher的算法。
英特尔在开发FakeCatcher时当然会广泛应用自家技术,包括用于优化深度学习模型的OpenVINO开源工具包、以及用于处理实时图像和视频的OpenCV。开发团队还使用Open Visual Cloud平台为英特尔至强Scalable处理器提供集成软件堆栈。如此一来,FakeCatcher软件得以在第三代至强Scalable处理器上同时运行多达72条不同检测流。
根据英特尔的介绍,FakeCatcher拥有多个潜在用例,包括防止用户将有害deepfake视频上传至社交媒体,以及帮助新闻机构避免播送画面遭到篡改等。
好文章,需要你的鼓励
Meta 正研发一项通过姓名识别人脸并追踪用户日常活动的“超级感知”技术,计划应用于新款智能眼镜和 AI 耳机,同时重新评估隐私策略,助推 AI 技术在穿戴产品中的应用。
Google 在 Gemini API 中推出自动缓存功能,通过复用重复数据为开发者节省最多 75% 的调用成本,有望缓解高额 API 费用问题。
Korl 利用 OpenAI、Gemini 及 Anthropic 等模型,从 Salesforce、Jira、Google Docs 等多个平台整合数据,自动生成定制化客户沟通材料,如幻灯片、演讲稿及季度业务回顾,同时保证数据安全性,并提升运营效率。
文章探讨了代理型 AI 的崛起,重点介绍微软 Azure AI Foundry 与 NVIDIA 技术如何通过强大语言模型和智能代理,实现企业级应用创新,提升运营效率与服务质量。