Answers:
数字媒体取证(DMF)领域旨在开发用于自动评估图像或视频完整性的技术,因此DMF是您正在寻找的领域。DMF中有几种方法:例如,基于机器学习(ML)技术的方法,尤其是卷积神经网络(CNN)。
例如,在论文《使用递归神经网络进行Deepfake视频检测》(2018年)中,DavidGüera和Edward J.Delp提出了一个由CNN组成的两阶段分析,以在帧级别提取特征,然后通过时间感知的RNN进行捕获Deepfake工具引入的帧之间的时间不一致。更具体地说,他们使用端到端训练的卷积LSTM架构(CNN与LSTM结合),因此CNN可以学习视频中的特征,并传递给RNN,以尝试预测可能性这些功能是否属于假冒视频。第3部分介绍了Deepfake视频的创建,这会导致视频帧之间的不一致 (在建议的方法中加以利用),因为使用了具有不同查看和照明条件的图像。
已经提出了其他类似的作品。有关更多相关论文,请参阅此精选列表https://github.com/aerophile/awesome-deepfakes。
我认为这里的环境很重要。像苏格兰场使用一个多世纪以来一样,这些策略可能是最好的方法。建立辩解,切合实际的时间表,动机。对于合法环境,可以使用类似方法证明这些图像是伪造的。从IT的角度来看,可能可以为这些图像查明起源。如果成千上万的重复图像来自单个来源,那么来自该来源的任何图像都是可疑的。
我认为,总的来说,我们应该训练自己,不要相信我们看到的一切。伪造图像的方法太多,以至于摄影不再被视为事件发生的最佳证据。我们不应忽略所有图像,而应在得出结论之前寻求事实的外部认可。如果所有事实都指向发生的事件,那么这张照片很可能是真实的。
假设所讨论的介质中不存在伪影和不自然的元素,并且人眼无法区分该介质,则能够做到这一点的唯一方法是追溯到图像的来源。
可以比喻为拒绝服务(DoS)攻击,即从单个IP向单个服务器发送大量请求,导致其崩溃-常见解决方案是蜜罐,其中来自一个IP的大量请求IP被重定向到诱饵服务器,即使它崩溃,也不会影响正常运行时间。一些研究已经在这些线路上,其中已经完成该论文谈到验证图像的数字签名或这一个,他们提出了篡改图像检测和源相机识别。
一旦追溯到某个来源,如果来自单个来源的数量众多的伪造图像可能就将受到质疑。
在类比的基础上,当我们处理某事时,通常会出现恐惧,例如DDoS(分布式拒绝服务)攻击,其中每个虚假请求均来自分布式源-网络安全已找到解决此问题的方法,但安全性人工智能方面的欺诈检测还没有建立。
从本质上来说,对于出于特定恶意目的而经过深思熟虑的人工媒体而言,今天已经很难捉住了-但是目前在AI的安全性方面正在开展工作。如果您打算将人造媒体用于恶意目的,那么现在可能是最佳时机。
从一开始,这种安全性就成为一个问题。数据科学家写的一篇文章引用
Deepfake已被用来通过假色情影片骚扰和侮辱妇女。该术语实际上来自Reddit用户的用户名,该用户通过使用TensorFlow构建生成对抗网络(GAN)来创建这些视频。现在,情报官员正在谈论弗拉基米尔·普京(Vladimir Putin)使用假视频影响2020年总统大选的可能性。正在对作为对民主和国家安全的威胁以及如何发现它们的深造假进行更多的研究。
注意- 我对网络安全性一无所知,我的全部知识都来自与朋友的一次交谈,并且认为这将是一个很好的类比。请原谅此类错误,如有可能,请更正!
您提到的技术使用GAN。GAN的关键思想是您有一个生成器和一个鉴别器。生成器生成新的内容,鉴别器必须判断该内容是来自真实数据还是已生成。
鉴别器功能更强大。训练鉴别器来检测假货应该不难。训练一个能够精确定位操纵的模型,对此的理解将证明操纵是一件困难的事情。不可能得到证明某些东西没有被操纵。
关于如何处理photoshop图像的问题:您查看图像中压缩级别的差异。要查找的关键字是图像取证:http : //fotoforensics.com/tutorial-estq.php