疫情期间,线上视频会议成为人们生活与工作沟通的重要方式。但是你是不是会遇到如下尴尬:刚起床,头发凌乱、穿着睡衣,但是却被老板拉上开会。

为了让你在每次视频通话中都能完美展现自己,在本周举行的CVPR(国际计算机视觉与模式识别会议)上,由NVIDIA研究人员Ting-Chun Wang、Arun Mallya和Ming-Yu Liu共同撰写发表的Vid2Vid Cameo论文提供了一个全新的解决方案。
逼真的AI人脸说话动态
Vid2Vid Cameo是用于视频会议的NVIDIA Maxine SDK背后的深度学习模型之一,它借助生成式对抗网络(GAN),仅用一张人物2D图像即可合成逼真的人脸说话视频。
Vid2Vid Cameo只需两个元素,即可为视频会议打造逼真的AI人脸说话动态,这两个元素分别是一张人物外貌照片和一段视频流,它们决定了如何对图像进行动画处理。
要使用该模型,参与者需要在加入视频通话之前提交一张参照图像(真实照片或卡通头像)。在会议期间,AI 模型将捕捉每个人的实时动作,并将其应用于之前上传的静态图像。
也就是说,上传一张穿着正装的照片之后,与会人员即使头发凌乱、穿着睡衣,也能在通话中以穿着得体工作服装的形象出现,因为AI可以将用户的面部动作映射到参照照片上。如果主体向左转,则技术可以调整视角,以便参与者看上去是直接面对摄像头。
除了可以帮助与会者展现出色状态外,这项AI技术还可将视频会议所需的带宽降低10倍,从而避免抖动和延迟。它很快将在NVIDIA Video Codec SDK中作为AI Face Codec推出,为开发者提供经过优化的预训练模型,以便在视频会议和直播中实现视频、音频和增强现实效果。
更广的应用空间
其实应用于视频通话只是Vid2Vid Cameo的一个重要应用场景,其还可用于协助动画师、照片编辑师和游戏开发者的工作。开发者已经能采用Maxine AI效果,包括智能除噪、视频升采样和人体姿态估计。SDK支持免费下载,还可与NVIDIA Jarvis平台搭配用于对话式AI应用,包括转录和翻译。
模型基于NVIDIA DGX系统开发,使用包含18万个高质量人脸说话视频的数据集进行训练。相应网络学会了识别20个关键点,这些关键点可用于在没有人工标注的情况下对面部动作进行建模。这些点对特征(包括眼睛、嘴和鼻子)的位置进行编码。
然后,它会从通话主导者的参照图像中提取这些关键点,这些关键点可以提前发送给其他的视频会议参与者,也可以重新用于之前的会议。这样一来,视频会议平台只需发送演讲者面部关键点的移动情况数据,无需将某参与者的大量直播视频流推送给其他人。
对于接收者一端,GAN模型会使用此信息,模拟参照图像的外观以合成一个视频。
通过仅来回压缩及发送头部位置和关键点,而不是完整的视频流,此技术将视频会议所需的带宽降低10倍,从而提供更流畅的用户体验。该模型可以进行调整,传输不同数量的关键点,以实现在不影响视觉质量的条件下,适应不同的带宽环境。
此外,还可以自由调整所生成的人脸说话视频的视角,可以从侧边轮廓或笔直角度,也可以从较低或较高的摄像头角度来显示用户。处理静态图像的照片编辑者也可以使用此功能。
NVIDIA研究人员发现,无论是参照图像和视频来自同一个人,还是AI负责将某个人的动作转移到另一个人的参照图像,Vid2Vid Cameo均能生成更逼真、更清晰的结果,优于先进的模型。
后一项功能可将演讲者的面部动作,应用于视频会议中的数字头像动画,甚至可以应用于制作视频游戏或卡通角色的逼真形象和动作。
结语
人工智能技术在便利人们生活和工作方面正在发挥越来越重要的作用,而Vid2Vid Cameo借助NVIDI强大的AI能力,让视频会议的体验更棒,乃至在专业的图形和视频制造中有着巨大的想象空间。
好文章,需要你的鼓励
本文揭示了AI时代CIO的七项关键行为特征,基于对多位CIO和AI专家的深度访谈。专家指出,AI精通的CIO需具备实用AI素养、战略视野和变革领导力,能将技术与业务战略对齐,建立强大数据治理基础。文章详细解析了分析型AI、生成式AI和智能体AI三大技术领域,强调数据基础的重要性,并提出CIO应从项目思维转向产品思维,通过跨职能团队实现端到端价值交付。
斯坦福大学等机构联合开发的CIFT系统首次解决了机器人"近视眼"问题,通过精确控制真实数据和合成数据的混合比例,让机器人在陌生环境中的表现提升54%以上。该系统包含多视角视频增强引擎MVAug和数据组合优化策略,能够预测数据失效的"去相干点",确保机器人学习真正重要的任务特征而非环境表象,为实用化通用机器人奠定了重要基础。
尽管苹果在AI竞赛中看似落后,但其私有云计算基础设施展现了技术优势。当行业为追赶大语言模型而降低隐私标准时,苹果坚持原则,开发出保护用户数据隐私的技术方案。谷歌最新宣布的类似实施方案验证了苹果技术路线的正确性,这可能推动其他AI实验室采用相同做法,为用户隐私带来重大胜利。
香港中文大学研究团队开发的Search-R3系统成功解决了大语言模型推理与搜索分离的问题,通过两阶段训练让AI在深度思考过程中直接生成搜索向量。该系统在多个领域测试中显著超越现有方法,特别是启用推理后性能提升明显,为AI系统设计提供了推理与搜索统一的新范式,展现了从专门化向通用化发展的重要方向。