10
什么是反卷积层?
我最近读了乔纳森·朗(Jonathan Long),埃文·谢尔哈默(Evan Shelhamer)和特雷弗·达雷尔(Trevor Darrell)撰写的用于语义分割的全卷积网络。我不了解“反卷积层”的作用/作用方式。 相关部分是 3.3。向上采样是向后跨步的卷积 将粗略输出连接到密集像素的另一种方法是插值。例如,简单的双线性插值通过仅依赖于输入和输出像元的相对位置的线性映射从最近的四个输入计算每个输出。 从某种意义上讲,使用因子进行的上采样是具有1 / f的分数输入步幅的卷积。只要f是整数,向上采样的自然方法就是以输出步幅f向后进行卷积(有时称为反卷积) 。这样的操作很容易实现,因为它简单地反转了卷积的前进和后退。yijyijy_{ij}fff˚Fffffff 因此,通过从像素方向的损失进行反向传播,在网络中执行上采样以进行端到端学习。 注意,在这样的层中的去卷积滤波器不必是固定的(例如,固定为双线性上采样),而是可以学习的。一堆解卷积层和激活函数甚至可以学习非线性上采样。 在我们的实验中,我们发现网络内上采样对于学习密集预测是快速有效的。我们最好的分割架构使用这些层来学习上采样,以进行第4.2节中的精确预测。 我不认为我真的了解卷积层是如何训练的。 我想我了解的是,内核大小为卷积层学习大小为过滤器。卷积层的内核大小为,步幅为和过滤器的输出的尺寸为。但是,我不知道卷积层的学习是如何工作的。(如果有帮助,我知道简单的MLP如何通过梯度下降来学习)。ķ × ķ ķ 小号∈ Ñ Ñkkkk×kk×kk \times kkkks∈Ns∈Ns \in \mathbb{N}nnnInput dims2⋅nInput dims2⋅n\frac{\text{Input dim}}{s^2} \cdot n 因此,如果我对卷积层的理解是正确的,我不知道如何将其逆转。 有人可以帮我理解反卷积层吗?