为什么神经网络容易被愚弄?
我已经阅读了一些有关手动构造图像以“愚弄”神经网络的文章(见下文)。 这是因为网络仅对条件概率建模吗? 如果网络可以对联合概率进行建模,是否还会发生这种情况?p (y ,x )p (ÿ| X)p(ÿ|X)p(y|x)p (ÿ,x )p(ÿ,X)p(y,x) 我的猜测是,这种人工生成的图像与训练数据不同,因此它们具有低概率。因此即使对于这些图像来说可以很高,应该低。p (y ,x )p (y | x )p(X)p(X)p(x)p (ÿ,x )p(ÿ,X)p(y,x)p (ÿ| X)p(ÿ|X)p(y|x) 更新资料 我尝试了一些生成模型,结果证明它没有帮助,所以我想这可能是MLE的结果吗? 我的意思是在的情况下KL散度被用作损失函数,值其中很小不影响损失。因此,对于一个人为的图像不匹配,的值可以是任意的。p d 一吨一个(X )p d 一吨一个 p θpθ(x )pθ(X)p_{\theta}(x)pd一个牛逼一(x )pd一种Ť一种(X)p_{data}(x)pd一个牛逼一pd一种Ť一种p_{data}pθpθp_{\theta} 更新资料 我发现Andrej Karpathy撰写的博客显示 这些结果并非特定于图像,卷积网络,也不是深度学习中的“缺陷”。 解释和利用对抗性示例容易欺骗深层神经网络:无法识别图像的高置信度预测