芯片巨头称,能够在几毫秒之内发现实时视频中的伪造形象
英特尔公司宣称开发出一种AI模型,能够通过颜色的细微变化实时检测视频内容是否使用了deepfake技术。从结论来看,如果拍摄对象是真人,那么这种颜色变化会更为明显。
芯片巨头打造的这款FakeCatcher能够在数毫秒内返回结果,且准确率高达96%。
近年来,人们一直担心deepfake视频搅乱舆论、祸害社会。这类视频使用AI算法生成真假难辨的伪造人物画面,可以让政客或名人说出自己没说过的话、做自己没做过的事。
英特尔实验室研究科学家Ilke Demir表示,“如今,deepfake视频可谓无处不在。相信很多朋友也都看过,名人会在其中说自己没说过的话、做自己没做过的事。”不只是名人,就连普通民众也开始沦为deepfake的侵害对象。
根据英特尔的介绍,目前部分基于深度学习的检测器能够分析原始视频数据,试图找出可将其确定为伪造的迹象。相比之下,FakeCatcher的基本思路就完全不同,它会分析真实视频以寻找能证明画面为真的视觉线索。
其中包括在心脏将血液泵送至身体各处时,血液流动而引发的视频像素颜色的细微变化。英特尔方面表示,可以从整个面部收集这些血流信号,再用算法将这些信号转换为时空图,进而由深度学习模型检测视频是否真实。以往的部分检测工具往往需要将视频内容上传至云端以供分析,之后等待几个小时才能得到结果。
但这样的时间间隔将成为其致命软肋,毕竟只要拥有充足的时间和资源,任何伪造视频制作者都可以开发出足以愚弄FakeCatcher的算法。
英特尔在开发FakeCatcher时当然会广泛应用自家技术,包括用于优化深度学习模型的OpenVINO开源工具包、以及用于处理实时图像和视频的OpenCV。开发团队还使用Open Visual Cloud平台为英特尔至强Scalable处理器提供集成软件堆栈。如此一来,FakeCatcher软件得以在第三代至强Scalable处理器上同时运行多达72条不同检测流。
根据英特尔的介绍,FakeCatcher拥有多个潜在用例,包括防止用户将有害deepfake视频上传至社交媒体,以及帮助新闻机构避免播送画面遭到篡改等。
好文章,需要你的鼓励
许多人认为一旦实现通用人工智能(AGI)和人工智能超级智能(ASI),这些高度先进的AI将能够告诉我们人生的真正意义。然而,巅峰AI可能无法明确回答这个史诗般的问题。即使AI拥有人类所有知识,也不意味着能从中找到生命意义的答案。AI可能会选择提供多种可能性而非绝对答案,以避免分裂人类社会。
StepFun团队发布了突破性语音AI系统Step-Audio 2,这是首个真正实现端到端语音对话的模型,能直接处理语音而无需文字转换。该系统不仅能理解语言内容,还能感知情绪、语调等副语言信息,并用自然的语音回应。通过8百万小时语音数据训练,在多项测试中超越GPT-4o等商业系统,代表了人机交互技术的重大进步。
剑桥咨询CEO蒙蒂·巴洛在采访中分享了如何识别具有潜力的技术领域。他表示,当听到看似不可能或令人惊讶的技术时会特别关注,如深度学习AI、量子计算等。该公司作为"深度科技强国",专注于生物工程、人工智能、量子计算等领域,拥有740名员工,年均为客户创造5000多项专利。巴洛强调跨学科合作的重要性,预测未来计算机系统的应用需求将大幅增长。
NVIDIA联合台湾大学推出ThinkAct框架,首次实现机器人"思考后行动"的能力。该系统通过双架构设计,让机器人先进行视觉推理和计划制定,再执行具体动作。在多项测试中表现优异,成功率提升15%以上,并展现出少样本适应、长期规划和自我纠错三大突破性能力,为通用智能机器人发展指明方向。