内核如何应用于要素图以生成其他要素图?


44

我试图理解卷积神经网络的卷积部分。看下图:

在此处输入图片说明

在理解第一个卷积层时,我没有问题,在这里我们有4个不同的内核(大小为),我们将它们与输入图像进行卷积以获得4个特征图。k×k

我不理解的是下一个卷积层,我们从4个特征图转到6个特征图。我假设在这一层中有6个内核(因此给出了6个输出特征图),但是这些内核如何在C1中显示的4个特征图上工作?内核是3维的,还是2维的,并在4个输入要素图中复制?


1
我被困在同一个地方。不幸的是,Yann Lecun的论文也没有解释这一点-最近几天我一直在浏览多个pdf和视频,每个人似乎都跳过了这一部分。Yann Lecun的论文实际上讨论了6到16个要素图以及第2层中的映射表。第一个输出要素图从0,1,2输入要素图获取输入。但是该输出要素图是10 x 10,三个输入要素图是14 x14。那是怎么工作的呢?你知道发生了什么吗?它是3-D内核吗?还是对location * kernel(卷积)的输出求平均?
2014年

Answers:


18

内核是3维的,可以选择宽度和高度,而深度等于输入层中的地图数量-通常。

它们肯定不是二维的,而是在同一2D位置的输入要素地图上复制的!这将意味着内核将无法在给定位置区分其输入特征,因为它会在输入特征图上使用相同的权重!


5

层和内核之间不一定存在一对一的对应关系。这取决于特定的体系结构。您发布的图建议在S2层中有6个特征图,每个特征图都结合了先前层的所有特征图,即特征的不同可能组合。

没有更多的参考,我无法说更多。例如参见本文


我特别关注的是LeNet-5,并使用此deeplearning.net/tutorial/lenet.html作为参考。从该页面看来,内核是3维的,但对我而言还不是100%清楚。
utdiscant 2014年

2
然后,您需要阅读本文(yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf)。在第8页上,描述了如何连接不同的层。就像我说的那样,层中的每个要素都在同一位置结合了上一层的多个要素。
jpmuc 2014年

2
链接已死。
2015年7


0

本文可能会有所帮助:Tim Dettmers从3月26日开始了解深度学习中卷积

它并没有真正回答这个问题,因为它仅解释了第一卷积层,但是很好地解释了CNN中卷积的基本直觉。它还描述了卷积的更深层数学定义。我认为这与问题主题有关。


1
欢迎来到该网站。我们正在尝试以问题和解答的形式建立永久的高质量统计信息存储库。因此,由于linkrot,我们对仅链接的答案保持警惕。您可以在链接上发布完整的引文和信息摘要,以防万一它消失了?
gung-恢复莫妮卡

@gung,感谢您的通知,对概念的误解表示抱歉。情况是:这篇文章并没有真正回答这个问题,但是当我在寻找有关CNN的基本直觉时,我发现了这个问题,希望对那些也寻求基本直觉并得到这个问题的人有所帮助。好的,最好删除它,是吗?谢谢。
阿纳托利·瓦西里耶夫

我认为可以说“这篇文章可以作为思想的食物,但不能完全回答问题”,或者类似的意思。这里可能很有价值。只要给出完整的引用,并给出所包含信息的摘要,以防链接失效。
gung-恢复莫妮卡

感谢您提供更多信息。您能否提供论文的完整引文(作者,年份,标题,期刊等)及其内容摘要?
gung-恢复莫妮卡

@gung是的,当然。但是似乎这篇文章仅在此博客中,所以我找不到关于它的任何其他有用信息。感谢您澄清我的观点
Anatoly Vasilyev
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.