当您进行“反卷积”时,会同时使用“上采样”和“转置卷积”(<-不是一个好术语,但让我在这里使用它)。最初,我以为它们的意思是相同的,但是在我阅读这些文章后,在我看来它们是不同的。有人可以澄清一下吗?
转置卷积:当我们通过卷积神经网络传播损失时,似乎可以使用它。
https://github.com/vdumoulin/conv_arithmetic
https://arxiv.org/pdf/1312.6034v2.pdf,第4节“用于卷积层...”
升采样:想要在convnet-decovnet结构中从较小的输入到较大的输入进行升采样时,似乎可以使用它。
https://www.youtube.com/watch?v=ByjaPdWXKJ4&feature=youtu.be&t=22m