我已经阅读了一些有关手动构造图像以“愚弄”神经网络的文章(见下文)。
这是因为网络仅对条件概率建模吗?
如果网络可以对联合概率进行建模,是否还会发生这种情况?p (y ,x )
我的猜测是,这种人工生成的图像与训练数据不同,因此它们具有低概率。因此即使对于这些图像来说可以很高,应该低。p (y ,x )p (y | x )
更新资料
我尝试了一些生成模型,结果证明它没有帮助,所以我想这可能是MLE的结果吗?
我的意思是在的情况下KL散度被用作损失函数,值其中很小不影响损失。因此,对于一个人为的图像不匹配,的值可以是任意的。p d 一吨一个(X )p d 一吨一个 p θ
更新资料
我发现Andrej Karpathy撰写的博客显示
这些结果并非特定于图像,卷积网络,也不是深度学习中的“缺陷”。