Questions tagged «convolution»

10
什么是反卷积层?
我最近读了乔纳森·朗(Jonathan Long),埃文·谢尔哈默(Evan Shelhamer)和特雷弗·达雷尔(Trevor Darrell)撰写的用于语义分割的全卷积网络。我不了解“反卷积层”的作用/作用方式。 相关部分是 3.3。向上采样是向后跨步的卷积 将粗略输出连接到密集像素的另一种方法是插值。例如,简单的双线性插值通过仅依赖于输入和输出像元的相对位置的线性映射从最近的四个输入计算每个输出。 从某种意义上讲,使用因子进行的上采样是具有1 / f的分数输入步幅的卷积。只要f是整数,向上采样的自然方法就是以输出步幅f向后进行卷积(有时称为反卷积) 。这样的操作很容易实现,因为它简单地反转了卷积的前进和后退。yijyijy_{ij}fff˚Fffffff 因此,通过从像素方向的损失进行反向传播,在网络中执行上采样以进行端到端学习。 注意,在这样的层中的去卷积滤波器不必是固定的(例如,固定为双线性上采样),而是可以学习的。一堆解卷积层和激活函数甚至可以学习非线性上采样。 在我们的实验中,我们发现网络内上采样对于学习密集预测是快速有效的。我们最好的分割架构使用这些层来学习上采样,以进行第4.2节中的精确预测。 我不认为我真的了解卷积层是如何训练的。 我想我了解的是,内核大小为卷积层学习大小为过滤器。卷积层的内核大小为,步幅为和过滤器的输出的尺寸为。但是,我不知道卷积层的学习是如何工作的。(如果有帮助,我知道简单的MLP如何通过梯度下降来学习)。ķ × ķ ķ 小号∈ Ñ Ñkkkk×kk×kk \times kkkks∈Ns∈Ns \in \mathbb{N}nnnInput dims2⋅nInput dims2⋅n\frac{\text{Input dim}}{s^2} \cdot n 因此,如果我对卷积层的理解是正确的,我不知道如何将其逆转。 有人可以帮我理解反卷积层吗?

3
“同等翻译”和“同等翻译”有什么区别
我很难理解翻译的等变量和翻译的不变量之间的区别。 在《深度学习》一书中。麻省理工学院出版社,2016年(I. Goodfellow,A。Courville和Y. Bengio),在卷积网络上可以找到: [...]参数共享的特定形式导致该图层具有一个称为“ 等值转换” 的属性 [...]池有助于使代表成为大致不变的输入小的平移 它们之间是否有区别,或者这些术语可以互换使用?


3
为什么卷积总是使用奇数作为filter_size
如果我们看一下使用CNN(ConvNet)发表的论文中有90-99%。他们中的绝大多数使用奇数号的过滤器大小:{1、3、5、7}最常用。 这种情况可能会导致一些问题:使用这些滤波器大小时,通常在填充为2(普通填充)的情况下卷积运算并不完美,并且在此过程中会丢失input_field的某些边缘... 问题1:为什么仅对卷积滤波器大小使用奇数? Question2:在卷积过程中忽略一小部分input_field实际上是一个问题吗?为什么这样/不呢?

1
深度学习中的一维卷积层是什么?
我对2D或3D实施情况下深度学习中卷积层在图像处理中的作用和机制有很好的一般理解-他们“简单地”尝试捕获图像中的2D模式(在3D情况下为3个通道)。 但是最近我在自然语言处理的背景下遇到了1D卷积层,这对我来说是一个惊喜,因为在我的理解中2D卷积尤其用于捕获无法以1D(矢量)形式显示的2D模式。图像像素。一维卷积背后的逻辑是什么?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.