图片来自于 The Verge
这项工作非常有用,因为它可以帮助 Facebook 追踪在其各种社交网络上传播 Deepfakes 的不良分子。这些内容可能包括错误的信息,但也包括未经同意的色情内容–这是 Deepfakes 技术的一个令人沮丧的常见应用。现在,这项工作仍处于研究阶段,还不准备部署。
目前在该领域的研究已经能够确认哪些是人工合成的脸,哪些是真实的脸。不过由密歇根州立大学 Vishal Asnani 领导的团队进一步推进了这项研究,确定了未知模型的架构特征。这些特征被称为超参数(hyperparameters),在每个机器学习模型中都要像发动机的零件一样进行调整。总体而言,它们在完成的图像上留下了独特的指纹,然后可以用来识别其来源。
Facebook 研究负责人塔尔·哈斯纳(Tal Hassner)告诉 The Verge,识别未知模型的特征非常重要,因为 Deepfakes 软件非常容易定制。如果调查人员试图追踪他们的活动,这有可能让不良行为者掩盖他们的踪迹。
Hassner 表示:“让我们假设一个不良行为者正在生成许多不同的 Deepfakes,并在不同的平台上向不同的用户上传。如果这是一个以前没有人见过的新的人工智能模型,那么我们过去就无法进行判断了。现在,我们能够说‘看,这里上传的图片,那里上传的图片,都来自同一个模型’。如果我们能够查获[用于生成内容的]笔记本电脑或计算机,我们将能够说‘这就是罪魁祸首’”。
哈斯纳将这项工作与法医技术相提并论,即通过寻找所产生的图像中的模式来确定哪种型号的相机被用来拍摄照片。他说:“不过,不是每个人都能创造自己的相机。而任何有合理经验和标准计算机的人都可以炮制出他们自己的模型,生成 Deepfakes”。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/35043.html