当前位置:   article > 正文

物体检测常用网络结构(Backbone)的特点总结_卷积神经网络 backbone设计trick

卷积神经网络 backbone设计trick

1.VGG.net

基本结构:常见的VGG16,t采用了五组卷积与三个 全连接层,最后使用Softmax做分类。

特点:每次 经过池化层(maxpool)后特征图的尺寸减小一倍,而通道数则增加一 倍(最后一个池化层除外)。
在这里插入图片描述优点:VGGNet简单灵活,拓展性很强,并且迁移到其他数据集上的泛化 能力也很好,因此时至今日有很多检测与分割算法仍采用VGGNet的网 络骨架。

2.Inception

结构:Inception模块如图所示,使用了三个不同大小的卷积核进行卷 积运算,同时还有一个最大值池化,然后将这4部分级联起来(通道拼 接),送入下一层。

在这里插入图片描述这种1×1的模块可以先将特征图 降维,再送给3×3和5×5大小的卷积核,由于通道数的降低,参数量也有 了较大的减少。

3.Resnet

结构:ResNet的思想在于引入了一个深度残差框架来解决梯度消失问题, 即让卷积网络去学习残差映射,而不是期望每一个堆叠层的网络都完整 地拟合潜在的映射(拟合函数)。对于神经网络,如果 我们期望的网络最终映射为H(x),左侧的网络需要直接拟合输出H(x), 而右侧由ResNet提出的子模块,通过引入一个shortcut(捷径)分支,将 需要拟合的映射变为残差F(x):H(x)-x。ResNet给出的假设是:相较于 直接优化潜在映射H(x),优化残差映射F(x)是更为容易的。

在这里插入图片描述
在这里插入图片描述

4. Densenet

DenseNet最大化了这 种前后层信息交流,通过建立前面所有层与后面层的密集连接,实现了 特征在通道维度上的复用,使其可以在参数与计算量更少的情况下实现 比ResNet更优的性能。
·神经网络一般需要使用池化等操作缩小特征图尺寸来提取语义特 征,而Dense Block需要保持每一个Block内的特征图尺寸一致来直接进 行Concatnate操作,因此DenseNet被分成了多个Block。Block的数量一 般为4。
·两个相邻的Dense Block之间的部分被称为Transition层,具体包括 BN、ReLU、1×1卷积、2×2平均池化操作。1×1卷积的作用是降维,起 到压缩模型的作用,而平均池化则是降低特征图的尺寸。
在这里插入图片描述

·密集连接的特殊网络,使得每一层都会接受其后所有层的梯度, 而不是像普通卷积链式的反传,因此一定程度上解决了梯度消失的问 题。
·通过Concatnate操作使得大量的特征被复用,每个层独有的特征图
的通道是较少的,因此相比ResNet,DenseNet参数更少且计算更高效。
DenseNet的不足在于由于需要进行多次Concatnate操作,数据需要 被复制多次,显存容易增加得很快,需要一定的显存优化技术。另外, DenseNet是一种更为特殊的网络,ResNet则相对一般化一些,因此 ResNet的应用范围更广泛。

5.Detnet

了专为物体检测设计的DetNet结构, 引入了空洞卷积,使得模型兼具较大感受野与较高分辨率,同时避免了 3.6节中FPN的多次上采样,实现了较好的检测效果。
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/271295
推荐阅读
相关标签
  

闽ICP备14008679号