为什么在卷积神经网络中需要最大池化?


18

最常见的卷积神经网络包含池化层以减小输出特征的尺寸。为什么仅通过增加卷积层的步幅就无法实现相同的目的?是什么使得池化层成为必需?

Answers:


16

您确实可以做到这一点,请参阅“ 力求简单:全卷积网络”。合并为您提供了一定程度的翻译不变性,这可能会或可能不会有所帮助。而且,池化比卷积要快。不过,您始终可以尝试用stride进行卷积替换池化,看看效果更好。

当前一些作品使用平均池化(Wide Residual NetworksDenseNets),另一些作品使用跨步卷积(DelugeNets


我向我的一个朋友问了这个问题,他说池化层更好,因为它引入了非线性。你同意吗?
user3667089

7
嗯,我不确定我是否同意。通过激活函数,网络中已经存在某种非线性。平均池也不会引入任何其他非线性,它是线性运算,因此只有最大池是非线性的。而且我认为问题是,如果您想要合并带来的正则化,则需要更多的翻译不变性。
robintibor

4

显然,最大池化会有所帮助,因为它可以提取图像的最清晰特征。因此,给定图像,最清晰的特征是图像的最佳低级表示。https://www.quora.com/What-is-the-benefit-of-using-average-pooling-rather-than-max-pooling

但是根据吴安德(Andrew Ng)在深度学习中的演讲,最大池工作得很好,但是没人知道为什么。Quote->“但是我不得不承认,我认为人们使用max pooling的主要原因是因为它在很多实验中都可以正常工作,...我不知道有人完全知道那是真的吗?根本原因。”

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.