如果你听说过深度伪造(deepfakes),即人们做着从未做过的事或者说着从未说过的话的高度逼真视频,你可能会认为这是一种可疑的技术发展成果。例如,它们可能被用于高级网络钓鱼诈骗中来冒充企业高管,在这类诈骗中,虚假语音邮件被用来向员工索要紧急资金。深度伪造技术逐渐进入我们的生活,在带来惊喜和便利的同时,也暴露出一系列风险隐患,饱受争议。

它们的存在引发了大量识别它们的方法的研究。
但深度伪造并非一无是处。事实上,它们可以被用于有益的用途。
它们可以让跨国企业的高管用员工的母语传达信息,实时翻译演讲内容并且口型与所说的话相匹配。它们被用于创建逼真的模拟场景以促进员工发展,或者让历史人物重现生机,从而让学校里的复杂话题更通俗易懂。
为何研究人员需要“有益的”深度伪造技术
医学领域是有益的深度伪造技术的最大使用者之一。这些深度伪造技术通常被用于为机器学习程序创建额外的训练数据。例如,当研究人员训练人工智能(AI)在诸如磁共振成像(MRI)或X射线等医学影像中检测某些类型的癌症时,他们可能会使用深度伪造技术来为其数据集添加更多影像。
这是必要的,因为许多数据集规模较小或者不完整。训练人工智能模型需要对细节一丝不苟,需要大量的人工干预来标记数据集的某些特征。有时,扫描结果标记不正确或者标记不一致,因为不同的人使用了不同的标准。这些问题可能会使人工智能模型更难以准确学习。生成合成数据有助于克服这些挑战,不过合成数据的质量也必须得到仔细监控。
制作深度伪造(作品)变得更容易了
IEEE高级会员Vivekanandhan Muthulingam表示:“虽然多年来制作深度伪造(作品)的技术变得更容易获取了,但这仍然需要一定水平的专业知识。”
Muthulingam说:“现在有一些用户友好型的工具和应用程序可供使用,这些工具和应用程序让个人在没有广泛编程知识的情况下就可以尝试制作深度伪造(作品)。然而,要获得高质量的成果仍然需要对机器学习原理和视频编辑有更深入的理解。”
制作这些深度伪造(作品)的人也需要了解相关的主题内容。
IEEE会士Houbing Song说:“要制作‘有益的’深度伪造(作品),既需要人工智能知识,也需要专业领域知识。”
伦理考量
专家警告说,仅仅因为深度伪造是出于善意目的而创建的,并不能免除伦理责任。负责任地使用它们意味着要诚实,并设置保护措施以支持学习和创新,同时又不危及信任或安全。在训练数据方面可能也存在伦理考量,这些数据可能涉及版权或知识产权主张,或者是因为担心将患者信息用于训练数据。
也可能存在一些灰色地带,在这些地带深度伪造的价值并非一目了然。
Song说:“一个深度伪造作品是好是坏将取决于其益处与社会期望的契合程度。从长远来看,如果我们善用深度伪造技术,那么该技术的益处将超过风险。”
好文章,需要你的鼓励
英国政府发布新的反勒索软件指导文件,旨在解决供应链安全薄弱环节。该指南与新加坡当局联合制定,帮助组织识别供应链问题并采取实际措施检查供应商安全性。英国国家网络安全中心过去一年处理了204起"国家重大"网络安全事件。指南强调选择安全可靠的供应商、加强合同网络安全条款、进行独立审计等措施,以提升供应链韧性和防范网络攻击。
复旦大学团队创建MedQ-Bench基准,首次系统评估AI模型医学影像质量评估能力。研究覆盖五大成像模式,设计感知-推理双层评估体系,意外发现医学专用AI表现不如通用AI。结果显示最佳AI模型准确率仅68.97%,远低于人类专家82.50%,揭示了AI在医学影像质控应用中的现实挑战和改进方向。
OpenAI发布"企业知识"功能,为ChatGPT商业版、企业版和教育版用户提供连接组织数据的能力。该功能集成Slack、SharePoint、Google Drive、Teams和Outlook等应用,但不包含OneDrive。用户需单独验证每个连接器,数据经过加密且不用于训练。与微软365 Copilot的30美元月费相比,ChatGPT商业版仅需25美元,在品牌认知度和价格方面具有竞争优势。
石溪大学等机构联合开发的TimeSeriesScientist是全球首个端到端AI时间序列分析系统,通过四个AI智能体协同工作,能完全自主完成从数据清理到预测报告的全流程。该系统在八个领域测试中表现卓越,预测误差比传统方法降低10.4%,比其他AI方法降低38.2%,并能生成详尽的可解释报告,将专业级数据分析能力民主化。