芯片巨头称,能够在几毫秒之内发现实时视频中的伪造形象
英特尔公司宣称开发出一种AI模型,能够通过颜色的细微变化实时检测视频内容是否使用了deepfake技术。从结论来看,如果拍摄对象是真人,那么这种颜色变化会更为明显。

芯片巨头打造的这款FakeCatcher能够在数毫秒内返回结果,且准确率高达96%。
近年来,人们一直担心deepfake视频搅乱舆论、祸害社会。这类视频使用AI算法生成真假难辨的伪造人物画面,可以让政客或名人说出自己没说过的话、做自己没做过的事。
英特尔实验室研究科学家Ilke Demir表示,“如今,deepfake视频可谓无处不在。相信很多朋友也都看过,名人会在其中说自己没说过的话、做自己没做过的事。”不只是名人,就连普通民众也开始沦为deepfake的侵害对象。
根据英特尔的介绍,目前部分基于深度学习的检测器能够分析原始视频数据,试图找出可将其确定为伪造的迹象。相比之下,FakeCatcher的基本思路就完全不同,它会分析真实视频以寻找能证明画面为真的视觉线索。
其中包括在心脏将血液泵送至身体各处时,血液流动而引发的视频像素颜色的细微变化。英特尔方面表示,可以从整个面部收集这些血流信号,再用算法将这些信号转换为时空图,进而由深度学习模型检测视频是否真实。以往的部分检测工具往往需要将视频内容上传至云端以供分析,之后等待几个小时才能得到结果。
但这样的时间间隔将成为其致命软肋,毕竟只要拥有充足的时间和资源,任何伪造视频制作者都可以开发出足以愚弄FakeCatcher的算法。
英特尔在开发FakeCatcher时当然会广泛应用自家技术,包括用于优化深度学习模型的OpenVINO开源工具包、以及用于处理实时图像和视频的OpenCV。开发团队还使用Open Visual Cloud平台为英特尔至强Scalable处理器提供集成软件堆栈。如此一来,FakeCatcher软件得以在第三代至强Scalable处理器上同时运行多达72条不同检测流。
根据英特尔的介绍,FakeCatcher拥有多个潜在用例,包括防止用户将有害deepfake视频上传至社交媒体,以及帮助新闻机构避免播送画面遭到篡改等。
好文章,需要你的鼓励
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
这项由香港中文大学和AWS团队联合开发的研究推出了TALK2MOVE系统,实现了用自然语言精准操作图片中物体的位置、角度和大小。该系统采用强化学习训练方式,通过空间感知奖励机制和智能步骤采样技术,在移动、旋转、缩放三类操作上的准确率显著超越现有方法,同时大幅降低了对昂贵训练数据的依赖,为AI图像编辑领域带来重要突破。
研究人员对Claude、GPT-4、Gemini和Grok等商用AI模型进行测试,发现这些模型能够记忆并完整输出受版权保护的内容。其中越狱后的Claude 3.7 Sonnet能输出95.8%的《哈利波特与魔法石》内容,而Gemini和Grok在无需越狱情况下也能输出超过70%的内容。这一发现可能对正在进行的AI版权诉讼产生重要影响,目前多家AI公司面临超过60项相关法律诉讼。
斯坦福大学等知名机构联合研究发现,企业AI助手在执行组织政策时存在严重"偏科"问题:处理允许请求时成功率超95%,但拒绝违规请求时仅13-40%。研究团队开发的COMPASS评估框架通过8个行业5920个测试问题,揭示了AI助手普遍缺乏"拒绝技能"的问题,并提出了针对性训练解决方案。