当前位置:   article > 正文

全局平均池化(Global average pooling, GAP)_全局平均池化gap_size

全局平均池化gap_size

全局平均池化(Global average pooling, GAP)

与average pooling不同的是:

(1)average pooling是可以根据设置的窗口大小进行下采样操作的,而global average pooling相当于是
average pooling的一种特殊情况,它是以特征图的大小设置的窗口大小;

(2)average poolingor max pooling一般用于在卷积提取网络后形成全局特征的重要部件,后面一般要接
全连接层完成特征到标签映射关系的学习,而global average pooling前面的特征图通道数应与输出的类别数相一致,后面是直接经过softmax函数得到最后的预测概率分布。

Nework in Network论文(简称NIN)的3.2Global Average Pooling中,有如下的叙述:

In this paper, we propose another strategy called global average pooling to replace the traditional fully connected layers in CNN. The idea is to generate one feature map for each corresponding category of the classification task in the last mlpconv layer. Instead of adding fully connected layers on top of the feature maps, we take the average of each feature map, and the resulting vector is fed directly into the softmax layer. One advantage of global average pooling over the fully connected layers is that it is more native to the convolution structure by enforcing correspondences between feature maps and categories. Thus the feature maps can be easily interpreted as categories confidence maps. Another advantage is that there is no parameter to optimize in the global average pooling thus overfitting is avoided at this layer. Futhermore, global average pooling sums out the spatial information, thus it is more robust to spatial translations of the input.

在本文中,我们提出了另一种称为全局平均池的策略,以取代CNN中传统的全连接层。其思想是在最后一个mlpconv层中为分类任务的每个对应类别生成一个特征映射。我们没有在特征图上添加完全连接的层,而是取每个特征图的平均值,得到的向量直接馈送到softmax层。全局平均池相对于全连接层的一个优势是,通过强制特征映射和类别之间的对应,它更适合卷积结构。因此,特征图可以很容易地解释为类别置信度图。另一个优点是在全局平均池中不需要优化参数,从而避免了该层的过拟合。此外,全局平均池对空间信息进行了汇总,因此对输入的空间转换具有更强的鲁棒性

下图是NIN论文中给出的网络结构图,如图,最后是直接通过GAP得到对应的类别输出的。请添加图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/92417
推荐阅读
相关标签
  

闽ICP备14008679号