Answers:
全局最大池=普通最大池层,池大小等于输入的大小(精确地减去过滤器大小+ 1)。您可以看到MaxPooling1D
有一个pool_length
参数,而GlobalMaxPooling1D
没有。
可以在代码中看到:
class GlobalMaxPooling1D(_GlobalPooling1D):
"""Global max pooling operation for temporal data.
# Input shape
3D tensor with shape: `(samples, steps, features)`.
# Output shape
2D tensor with shape: `(samples, features)`.
"""
def call(self, x, mask=None):
return K.max(x, axis=1)
在某些领域中,例如自然语言处理,通常使用全局最大池。在某些其他领域,例如计算机视觉,通常使用不全局的最大池。
如本文所述,提出了全球平均池(GAP):
传统的卷积神经网络在网络的较低层中执行卷积。为了进行分类,将最后一个卷积层的特征图矢量化,并馈入完全连接的层,然后输入softmax logistic回归层。这种结构在卷积结构与传统神经网络分类器之间架起了桥梁。它将卷积层视为特征提取器,然后以传统方式对生成的特征进行分类。
但是,完全连接的层易于过度拟合,从而妨碍了整个网络的泛化能力。Hinton等人提出将辍学作为正则化器,在训练过程中将完全连接的层的一半激活随机设置为零。它提高了泛化能力,并在很大程度上防止了过拟合。
在本文中,我们提出了另一种称为全局平均池的策略,以取代CNN中的传统完全连接层。这个想法是为最后一个mlpconv层中分类任务的每个相应类别生成一个特征图。我们没有在要素图的顶部添加完全连接的层,而是取每个要素图的平均值,然后将所得的向量直接输入到softmax层中。全局平均池在完全连接的层上的优势之一是,通过强制执行要素图和类别之间的对应关系,卷积结构对于卷积结构更原始。因此,特征图可以容易地解释为类别置信度图。另一个优点是,在全局平均池中没有要优化的参数,因此在此层避免了过拟合。此外,全局平均池汇总了空间信息,因此对输入的空间转换更加健壮。我们可以将全局平均池视为一种结构化正则化器,该结构化正则化器明确强制将要素图强制为概念(类别)的置信度图。mlpconv层使这成为可能,因为它们比GLM更好地近似了置信度图。
编辑: 正如@MaxLawnboy所建议的,这是关于同一主题的另一篇论文。