什么是全局最大池化层?与最大池化层相比,它的优势是什么?


Answers:


69

全局最大池=普通最大池层,池大小等于输入的大小(精确地减去过滤器大小+ 1)。您可以看到MaxPooling1D有一个pool_length参数,而GlobalMaxPooling1D没有。

0,1,2,2,5,1,252,2,5,5,5

可以在代码中看到:

class GlobalMaxPooling1D(_GlobalPooling1D):
    """Global max pooling operation for temporal data.
    # Input shape
        3D tensor with shape: `(samples, steps, features)`.
    # Output shape
        2D tensor with shape: `(samples, features)`.
    """

    def call(self, x, mask=None):
        return K.max(x, axis=1)

在某些领域中,例如自然语言处理,通常使用全局最大池。在某些其他领域,例如计算机视觉,通常使用不全局的最大池。


4
来到这里寻找全球平均池(GAP),但是从您的简单但非常有效的示例中,我想我可以猜出GAP的作用:)
josh

谢谢您的简短回答。+1。您提供的一个小示例真正使我了解了全局最大池正在做什么。
rayryeng-恢复莫妮卡

13

本文所述,提出了全球平均池(GAP):

传统的卷积神经网络在网络的较低层中执行卷积。为了进行分类,将最后一个卷积层的特征图矢量化,并馈入完全连接的层,然后输入softmax logistic回归层。这种结构在卷积结构与传统神经网络分类器之间架起了桥梁。它将卷积层视为特征提取器,然后以传统方式对生成的特征进行分类。

但是,完全连接的层易于过度拟合,从而妨碍了整个网络的泛化能力。Hinton等人提出将辍学作为正则化器,在训练过程中将完全连接的层的一半激活随机设置为零。它提高了泛化能力,并在很大程度上防止了过拟合。

在本文中,我们提出了另一种称为全局平均池的策略,以取代CNN中的传统完全连接层。这个想法是为最后一个mlpconv层中分类任务的每个相应类别生成一个特征图。我们没有在要素图的顶部添加完全连接的层,而是取每个要素图的平均值,然后将所得的向量直接输入到softmax层中。全局平均池在完全连接的层上的优势之一是,通过强制执行要素图和类别之间的对应关系,卷积结构对于卷积结构更原始。因此,特征图可以容易地解释为类别置信度图。另一个优点是,在全局平均池中没有要优化的参数,因此在此层避免了过拟合。此外,全局平均池汇总了空间信息,因此对输入的空间转换更加健壮。我们可以将全局平均池视为一种结构化正则化器,该结构化正则化器明确强制将要素图强制为概念(类别)的置信度图。mlpconv层使这成为可能,因为它们比GLM更好地近似了置信度图。

编辑: 正如@MaxLawnboy所建议的,这是关于同一主题的另一篇论文。


关于全CNN模型的另一篇论文arxiv.org/pdf/1412.6806v3.pdf
Maxim Mikhaylov,

谢谢@MaxLawnboy,我将编辑答案以包括它。
Tshilidzi Mudau
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.