当前位置:   article > 正文

ResNeXt详解_resnext模型

resnext模型

ResNeXt详解

论文《Aggregated Residual Transformations for Deep Neural Networks

1 主要思想

随着CNN网络的发展,很多SOTA的网络结构被提出,同时引入了一些新的结构设计方法。

VGG网络作为一个经典模型,它提出了叠加相同形状的块(stacking block)来增加模型深度的策略,后续提出的深层CNN模型也基本使用了这一策略。

Inception系列网络提出了split-transform-merge的策略,通过多分支卷积实现在低计算开销的前提下去接近大型密集层的表达能力。

文章结合了stacking block和split-transform-merge的策略,在ResNet的基础上提出了ResNeXt网络架构。

2 模型结构

2.1 split-transform-merge

重新回顾一下感知机模型,以便于理解split-transform-merge策略。

输入向量为X,感知机模型的运算逻辑可分为:

  1. Splitting,X分解为多个低维向量Xi;
  2. Transforming,每个Xi对应一个Wi以进行变换;
  3. Aggregating/Merge,每个Xi变换后进行累加;

其中将Wi替换为更复杂的函数T(Xi)。在ResNeXt网络中,变换函数使用ResNet中的Bottleneck形式来替代。

在这里插入图片描述

2.2 模型结构

在这里插入图片描述

简单来说,文章提出的ResNeXt模型对ResNet中Bottle块采用多分支的策略。

为了保持改进前后的参数量,ResNeXt模型的每个分支中,3*3卷积的宽度(filter 数量)较小。

除此之外,模型还提出了2种等价形式,如下图。为了提高运行效率,ResNeXt网络采用结构c来构建。

在这里插入图片描述

文章提出了两个构建准则:

  1. 同stage中的block使用相同的width和filter size;
  2. spatial size减小时,增加channel的数量。

基于上述准则,文章在ResNet-50模型的基础上,提出了ResNeXt-50模型。整体结构如下图。

在这里插入图片描述

3 模型评估及结论

通过对比试验,文章验证了ResNeXt模型的性能。

在这里插入图片描述

此外,模型还对基数(分支数)进行了对比试验。结果表明,增加基数可以提高模型的性能,且要比增加宽度和深度更有效。

在这里插入图片描述

在这里插入图片描述

模型还对比验证了残差结构的有效性,实验表明,在深层网络中引入残差结构,可以明显提高模型的性能。

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/373363
推荐阅读
相关标签
  

闽ICP备14008679号