如果你听说过深度伪造(deepfakes),即人们做着从未做过的事或者说着从未说过的话的高度逼真视频,你可能会认为这是一种可疑的技术发展成果。例如,它们可能被用于高级网络钓鱼诈骗中来冒充企业高管,在这类诈骗中,虚假语音邮件被用来向员工索要紧急资金。深度伪造技术逐渐进入我们的生活,在带来惊喜和便利的同时,也暴露出一系列风险隐患,饱受争议。
它们的存在引发了大量识别它们的方法的研究。
但深度伪造并非一无是处。事实上,它们可以被用于有益的用途。
它们可以让跨国企业的高管用员工的母语传达信息,实时翻译演讲内容并且口型与所说的话相匹配。它们被用于创建逼真的模拟场景以促进员工发展,或者让历史人物重现生机,从而让学校里的复杂话题更通俗易懂。
为何研究人员需要“有益的”深度伪造技术
医学领域是有益的深度伪造技术的最大使用者之一。这些深度伪造技术通常被用于为机器学习程序创建额外的训练数据。例如,当研究人员训练人工智能(AI)在诸如磁共振成像(MRI)或X射线等医学影像中检测某些类型的癌症时,他们可能会使用深度伪造技术来为其数据集添加更多影像。
这是必要的,因为许多数据集规模较小或者不完整。训练人工智能模型需要对细节一丝不苟,需要大量的人工干预来标记数据集的某些特征。有时,扫描结果标记不正确或者标记不一致,因为不同的人使用了不同的标准。这些问题可能会使人工智能模型更难以准确学习。生成合成数据有助于克服这些挑战,不过合成数据的质量也必须得到仔细监控。
制作深度伪造(作品)变得更容易了
IEEE高级会员Vivekanandhan Muthulingam表示:“虽然多年来制作深度伪造(作品)的技术变得更容易获取了,但这仍然需要一定水平的专业知识。”
Muthulingam说:“现在有一些用户友好型的工具和应用程序可供使用,这些工具和应用程序让个人在没有广泛编程知识的情况下就可以尝试制作深度伪造(作品)。然而,要获得高质量的成果仍然需要对机器学习原理和视频编辑有更深入的理解。”
制作这些深度伪造(作品)的人也需要了解相关的主题内容。
IEEE会士Houbing Song说:“要制作‘有益的’深度伪造(作品),既需要人工智能知识,也需要专业领域知识。”
伦理考量
专家警告说,仅仅因为深度伪造是出于善意目的而创建的,并不能免除伦理责任。负责任地使用它们意味着要诚实,并设置保护措施以支持学习和创新,同时又不危及信任或安全。在训练数据方面可能也存在伦理考量,这些数据可能涉及版权或知识产权主张,或者是因为担心将患者信息用于训练数据。
也可能存在一些灰色地带,在这些地带深度伪造的价值并非一目了然。
Song说:“一个深度伪造作品是好是坏将取决于其益处与社会期望的契合程度。从长远来看,如果我们善用深度伪造技术,那么该技术的益处将超过风险。”
好文章,需要你的鼓励
打造“同路人”文化体系,优质资源向优质伙伴倾斜,共同投入构筑长效竞争力,共建公平公正、阳光透明的合作环境。
Honeywell 与通信服务商 Verizon 建立战略合作,通过整合 AI、云计算和 5G 技术,为公用事业公司提供智能电表解决方案。该方案将帮助用户远程访问关键数据,优化能源使用和资源管理,提升电网可靠性和弹性,同时简化运营流程以缓解电网压力。
Google DeepMind 推出最新大规模多模态 AI 模型 Gemini 2.5 Pro,内置"思考"能力以处理复杂任务。该模型在多个行业基准测试中领先,展现出强大的推理和编程能力。与传统基于模式预测的 AI 不同,Gemini 2.5 Pro 能够深入分析信息,进行逻辑推理,并在考虑细微上下文后做出明智决策。
Google 发布新一代 AI 模型 Gemini 2.5,在 LMArena 评测中位居榜首。该模型采用递归分析方法提供输出,在推理、科学、数学和代码生成等方面表现出色。目前已向付费高级用户开放使用,并将在 2025 年投入 750 亿美元用于 AI 开发,以争夺未来万亿规模的 AI 市场。