卷积神经网络中“特征图”(又名“激活图”)的定义是什么?


32

 介绍背景

在卷积神经网络内,我们通常具有如下所示的一般结构/流程:

  1. 输入图像(即2D矢量x

(第一个卷积层(Conv1)从这里开始...)

  1. w1沿2D图像对一组滤镜()进行卷积(即进行z1 = w1*x + b1点积乘法),其中z13D b1为偏差。
  2. 应用激活函数(例如ReLu)使z1非线性(例如a1 = ReLu(z1)a1为3D。

(第二个卷积层(Conv2)从这里开始...)

  1. 沿新计算的激活量(即,进行z2 = w2*a1 + b2点积乘法)对一组滤波器进行卷积,其中z23D为,且b2为偏差。
  2. 应用激活函数(例如ReLu)使z2非线性(例如a2 = ReLu(z2)a2为3D。

 问题

术语“功能图”的定义似乎因文学而异。具体来说:

  • 对于第一个卷积层,“特征图”是否对应于输入矢量x,输出点积z1,输出激活a1或转换x为的“过程” a1或其他内容?
  • 类似地,对于第二卷积层,“特征图”是否对应于输入激活a1,输出点积z2,输出激活a2,或转换a1为的“过程” a2或其他?

另外,术语“功能图” 与“激活图” 是否完全相同?(或者它们实际上是指两个不同的东西吗?)

 其他参考:

神经网络和深度学习的片段-第6章

*这里使用的术语是宽松的。特别是,我使用“功能图”来表示不是由卷积层计算的功能,而是表示从该层输出的隐藏神经元的激活。这种轻微的术语滥用在研究文献中非常普遍。


Matt Zeiler的可视化和理解卷积网络的片段:

在本文中,我们介绍了一种可视化技术,该技术揭示了在模型的任何层上激发单个特征图的输入刺激。相比之下,我们的方法提供了不变性的非参数视图,显示了训练集中的哪些模式激活了特征图。局部对比操作,可标准化整个特征图的响应。[...]要检查给定的convnet激活,我们将该层中的所有其他激活设置为零,并将要素映射作为输入传递到附加的deconvnet层。convnet使用relu非线性来校正特征图,从而确保特征图始终为正。[...] convnet使用学习的过滤器对来自上一层的特征图进行卷积。[...]图6 这些可视化是输入模式的准确表示,当原始输入图像中与模式相对应的部分被遮挡时,可以刺激模型中给定的特征图,我们可以看到特征图中活动的明显下降。[...]

备注:在图1中还引入了术语“特征图”和“校正后的特征图”。


从片段斯坦福CS231n章在CNN

[...]通过这种可视化可以轻松注意到的一个危险陷阱是,对于许多不同的输入,某些激活图可能全为零,这可能表明过滤器失效,并且可能是高学习率的征兆[...]训练有素的AlexNet的第一张CONV层(左)和第五张CONV层(右)上看似典型的激活物,它们看着猫的照片。每个框都显示对应于某个过滤器的激活图。请注意,激活是稀疏的(大多数值是零,在此可视化中以黑色显示)并且大多数是局部的。


从片段A-Beginner's-引导到理解,卷积神经网络

[...]输入卷上的每个唯一位置都会产生一个数字。在所有位置上滑动过滤器后,您会发现剩下的是28 x 28 x 1的数字数组,我们称之为激活图或功能图。

Answers:


27

特征图或激活图是给定过滤器(在您的情况下为a1)的输出激活,并且定义是相同的,而不管您位于哪一层。

功能图激活图的含义完全相同。之所以将其称为激活图,是因为它是与图像的不同部分的激活相对应的映射,而又是特征图,因为它也是在图像中找到某种特征的位置的映射。高激活率意味着找到了某个功能。

“校正后的特征图”只是使用Relu创建的特征图。您可能会看到术语“特征图”用于点积(z1)的结果,因为它实际上也是图像中某些特征所在的图,但这并不常见。


1
感谢您的输入。您的回答符合我的理解(即激活图为a1a2等等)。在Conv2中,我想我会称呼a1输入激活图和a2输出激活图。在Conv1中,我x输入图像,并a1输出激活图。
Atlas7年

4

在讨论特征图的含义之前,先定义特征向量的术语。

特征向量是对象的向量表示。例如,汽车可以用[车轮数,门数]表示。Windows,年龄..etc]。

特征图是一种在一个空间中获取特征向量,然后在另一空间中将其转换为特征向量的函数。例如,给定特征向量[体积,重量,高度,宽度],它可以返回[1,体积/重量,高度*宽度]或[高度*宽度],甚至仅返回[体积]

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.