这个问题归结为“卷积层如何正确工作。
假设我有一个灰度图像。因此图像只有一个通道。在第一层中,我使用过滤器和填充进行卷积。然后我有另一个卷积层,其中有卷积和过滤器。我有多少个特征图?3 × 3 k 1 5 × 5 k 2
1型卷积
第一层被执行。之后,我有特征图(每个过滤器一个)。这些中的每一个的大小均为。通过从填充的输入图像中提取像素来创建每个像素。 Ñ × 米3 ⋅ 3 = 9
然后第二层被应用。每个单个过滤器都分别应用于每个特征图。这将为每个特征图生成特征图。因此,第二层之后有特征图。每个新要素地图的每个像素都是通过从以前获取填充要素地图的 “像素”而创建的。ķ 1 ķ 1 × ķ 2 5 ⋅ 5 = 25
系统必须学习参数。
2.1型卷积
像以前一样:执行第一层。之后,我有特征图(每个过滤器一个)。这些中的每一个的大小均为。通过从填充的输入图像中提取像素来创建每个像素。 Ñ × 米3 ⋅ 3 = 9
与之前不同:第二层得到应用。每个滤镜都会应用到相同的区域,但是所有功能图都是以前的。这导致得到执行的第二层功能后总映射。每个新特征图的每个像素都是通过从以前获取填充特征图的 “像素”而创建的。ķ 2 ⋅ 5 ⋅ 5 = 25 ⋅ ķ 2
系统必须学习参数。
2.2型卷积
像上面一样,而不是每个过滤器有个必须学习并简单复制以复制其他输入特征图的参数,而是拥有必须学习的参数。ķ 1 ⋅ 3 ⋅ 3 + ķ 2 ⋅ ķ 1 ⋅ 5 ⋅ 5
题
- 通常使用1型还是2型?
- Alexnet使用哪种类型?
- GoogLeNet中使用哪种类型?
- 如果您说类型1:为什么卷积有意义?他们不只是将数据乘以常数吗?
- 如果您说类型2:请说明二次成本(例如,在深度视觉网络中,如果将两个卷积层链接在一起,则其过滤器数量的任何均匀增加都会导致计算的二次增加”)
对于所有答案,请提供一些证据(文件,教科书,框架文档)以证明您的答案是正确的。
奖金问题1
是仅始终对每个要素图应用池化,还是对多个要素图进行池化?
奖金问题2
我相对确定类型1是正确的,但GoogLe纸张出了点问题。但是也有3D卷积。假设您有大小为 1337个特征图,并应用了过滤器。您如何在特征图上滑动过滤器?(从左到右,从上到下,第一个要素图到最后一个要素图?)只要您始终如一地进行操作,这有关系吗?3 × 4 × 5
我的研究
- 我已经从上面阅读了两篇论文,但是我仍然不确定使用什么。
- 我已经阅读过千层面的文档
- 我已经阅读了theano文档
- 我已经阅读了有关了解卷积神经网络的答案(没有遵循所有链接)
- 我已经阅读了卷积神经网络(LeNet)。特别是图1使我相对确定类型2.1是正确的。这也符合GoogLe Net中的“二次成本”注释以及我在Caffee上获得的一些实践经验。