赞
踩
论文《Aggregated Residual Transformations for Deep Neural Networks》
随着CNN网络的发展,很多SOTA的网络结构被提出,同时引入了一些新的结构设计方法。
VGG网络作为一个经典模型,它提出了叠加相同形状的块(stacking block)来增加模型深度的策略,后续提出的深层CNN模型也基本使用了这一策略。
Inception系列网络提出了split-transform-merge的策略,通过多分支卷积实现在低计算开销的前提下去接近大型密集层的表达能力。
文章结合了stacking block和split-transform-merge的策略,在ResNet的基础上提出了ResNeXt网络架构。
重新回顾一下感知机模型,以便于理解split-transform-merge策略。
输入向量为X,感知机模型的运算逻辑可分为:
其中将Wi替换为更复杂的函数T(Xi)。在ResNeXt网络中,变换函数使用ResNet中的Bottleneck形式来替代。
简单来说,文章提出的ResNeXt模型对ResNet中Bottle块采用多分支的策略。
为了保持改进前后的参数量,ResNeXt模型的每个分支中,3*3卷积的宽度(filter 数量)较小。
除此之外,模型还提出了2种等价形式,如下图。为了提高运行效率,ResNeXt网络采用结构c来构建。
文章提出了两个构建准则:
基于上述准则,文章在ResNet-50模型的基础上,提出了ResNeXt-50模型。整体结构如下图。
通过对比试验,文章验证了ResNeXt模型的性能。
此外,模型还对基数(分支数)进行了对比试验。结果表明,增加基数可以提高模型的性能,且要比增加宽度和深度更有效。
模型还对比验证了残差结构的有效性,实验表明,在深层网络中引入残差结构,可以明显提高模型的性能。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。