Facebook发了新方法来逆向工程Deepfake并跟踪其来源

导读 Deepfakes 目前在 Facebook 上不是一个大问题,但该公司继续资助该技术的研究,以防范未来的威胁。它的最新工作是与密歇根州立大学 (MS

Deepfakes 目前在 Facebook 上不是一个大问题,但该公司继续资助该技术的研究,以防范未来的威胁。它的最新工作是与密歇根州立大学 (MSU) 的学者合作,联合团队创建了一种对深度伪造进行逆向工程的方法:分析 AI 生成的图像以揭示创建它的机器学习模型的识别特征。

这项工作很有用,因为它可以帮助 Facebook 追踪在其各种社交网络上传播深度伪造的不良行为者。此内容可能包含错误信息,但也可能包含未经同意的色情内容——这是 Deepfake 技术令人沮丧的常见应用。目前,这项工作仍处于研究阶段,尚未准备好部署。

该领域之前的研究已经能够确定哪个已知的 AI 模型生成了深度伪造,但这项由 MSU 的 Vishal Asnani 领导的工作通过识别未知模型的架构特征更进一步。这些被称为超参数的特征必须在每个机器学习模型中进行调整,就像引擎中的零件一样。总的来说,他们在完成的图像上留下一个独特的指纹,然后可以用来识别其来源。

Facebook 研究负责人 Tal Hassner 告诉The Verge,识别未知模型的特征很重要,因为 deepfake 软件非常容易定制。如果调查人员试图追踪他们的活动,这可能允许不良行为者掩盖他们的踪迹。

“让我们假设一个坏人正在生成许多不同的深度伪造并将它们上传到不同的平台上给不同的用户,”哈斯纳说。“如果这是一个前所未见的新 AI 模型,那么我们过去几乎没有什么可说的。现在,我们可以说,'看,上传到这里的图片,上传到那里的图片,都来自同一个模型。如果我们能够抓住[用于生成内容的]笔记本电脑或计算机,我们将能够说,'这就是罪魁祸首。'”

Hassner 将这项工作与法医技术进行了比较,该技术用于通过在结果图像中寻找模式来识别使用哪种型号的相机拍摄照片。“不过,并不是每个人都可以创建自己的相机,”他说。“而任何拥有合理经验和标准计算机的人都可以制作自己的模型来生成深度伪造。”

生成的算法不仅可以识别生成模型的特征,还可以识别哪个已知模型创建了图像以及图像是否是深度伪造的。“在标准基准测试中,我们获得了最先进的结果,”Hassner 说。

但重要的是要注意,即使是这些最先进的结果也远非可靠。当 Facebook去年举办深度伪造检测比赛时,获胜算法只能检测到人工智能操纵的视频的 65.18% 的时间。参与研究的研究人员表示,使用算法发现深度伪造仍然是一个“未解决的问题”。

部分原因是生成式人工智能领域非常活跃。新技术每天都在发布,任何过滤器几乎不可能跟上。

该领域的相关人员敏锐地意识到这种动态,当被问及发布这种新的指纹识别算法是否会导致这些方法无法检测到的研究时,哈斯纳表示同意。“我希望如此,”他说。“这是一个猫捉老鼠的游戏,它仍然是一个猫捉老鼠的游戏。”

免责声明:本文由用户上传,如有侵权请联系删除!