在世界移动通信大会(MWC)上,基于与高通多年的合作沉淀,Prophesee 展示了新一代无模糊的手机摄影技术。目前客户可将该技术集成到支持第三代骁龙 8 移动平台的设备中。
2024 年 2 月 27 日,中国上海——领先的神经拟态视觉传感公司 Prophesee 今日宣布,与高通技术公司的合作进入可量产阶段。在巴塞罗那世界移动通信大会(MWC)期间,Prophesee 展示了其解决方案与骁龙®旗舰移动平台的原生兼容性,以及神经拟态视觉技术为智能手机摄像头带来的速度、能效和成像质量方面的提升。
图 1: 高通在骁龙峰会主会场介绍 Prophesee Metavision 解决方案
Prophesee Metavision 事件视觉传感器和人工智能算法针对骁龙平台进行了优化,使运动模糊消除(motion blur cancellation)的效果和整体图像的质量都得到前所未有的提升,尤其是在快速移动和低光等传统基于帧的 RGB 传感器难以应对的场景中。
图 2、3、4:使用 Metavision 传感 + AI算法,在搭载第三代骁龙 8 移动平台的设备上拍摄世界著名的巴黎歌剧院芭蕾舞团的舞者,实现去模糊效果
Prophesee 首席执行官兼联合创始人 Luca Verre 表示:“自 2023 年 2 月宣布合作以来,如今我们已取得了重大进展,证明了 Prophesee 事件视觉技术对提升搭载骁龙移动平台智能手机影像质量的显著作用,这是里程碑式的技术进步。现在,我们很高兴宣布 Metavision Deblur 解决方案已准备就绪,可投入生产。我们期待通过 Prophesee Metavision 解决方案为新一代智能手机解锁更强大的影像和视频功能。”
高通技术公司产品管理副总裁 Judd Heape 表示:“我们很高兴继续与 Prophesee 保持紧密合作,协力推动 Prophesee Metavision 事件视觉技术与第三代骁龙 8 旗舰移动平台的无缝兼容。这将显著提升手机影像质量,同时为搭载骁龙移动平台的智能设备解锁更多基于事件相机的免快门功能的新潜能。”
工作原理
Prophesee 突破性的事件视觉传感器能够为手机摄影提供全新的感知维度。由于事件视觉传感仅关注场景中的动态变化,能够迅速响应并连续追踪像素变化,从而打破了传统的成像范式。
Metavision 传感器中的每个像素都有一个内嵌的逻辑核(logic core),使其能够作为神经元来工作。 每个像素都能根据各自感应到的光子数量,异步且智能地激活自身。像素的每次激活称为一个“事件(event)”,因此在本质上,事件是由场景动态驱动的,其采集速度也始终与实际场景动态相匹配。
通过同步 Prophesee 事件传感器和基于帧的传感器的数据,手机摄影可以实现高性能的图像去模糊。系统能够将事件传感器以微秒为单位记录的事件填充到两帧图像的间隙,通过算法提取纯动态信息,从而修复运动模糊。
关于手机应用的更多详细信息,请访问:https://www.prophesee.ai/event-based-vision-mobile/
好文章,需要你的鼓励
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。
这项由中国人民大学高瓴人工智能学院研究团队发表的研究解决了大语言模型评判中的自我偏好问题。研究提出了DBG分数,通过比较模型给自身回答的分数与黄金判断的差异来测量偏好度,有效分离了回答质量与自我偏好偏差。实验发现,预训练和后训练模型都存在自我偏好,但大模型比小模型偏好度更低;调整回答风格和使用相同数据训练不同模型可减轻偏好。研究还从注意力分析角度揭示了自我偏好的潜在机制,为提高AI评判客观性提供了重要指导。
这篇研究提出了DenseDPO,一种改进视频生成模型的新方法,通过三大创新解决了传统方法中的"静态偏好"问题:使用结构相似的视频对进行比较,采集细粒度的时序偏好标注,并利用现有视觉语言模型自动标注。实验表明,DenseDPO不仅保留了视频的动态性,还在视觉质量方面与传统方法相当,同时大大提高了数据效率。这项技术有望推动AI生成更加自然、动态的视频内容。