赞
踩
随着神经网络的深度越来越深,是越来越难训练的。为解决这一问题,我们提出了一个残差学习框架来减轻更深的网络的训练压力,并且更容易去做网络的优化,随着网络深度的增加,准确率可以获得提升。
神经网络可以加很多层把网络变得很深,然后不同程度的层可以得到不同等级的feature。问题背景:
随着网络越来越深,会出现梯度爆炸或消失
深度增加,训练的精度变差
如图所示为一个block的结构,其基本思想如下:浅层网络的输出为x,要学习的目标值为H(x),那么就让该层网络学习一个残差目标值F(x) = H(x) - x,最后的输出为F(x) + x。
上表给出了在ImageNet上使用到的5个版本的ResNet的信息
conv2_x:其中的[]表示一个block块,代表残差链接的基本单位
flops:整个网络要计算多少个浮点数运算。卷积层的浮点运算等价于输入的高乘以宽乘以通道数乘以输出通道数再乘以核的窗口的高和宽
对应上表中的后三列使用的block。
同样的网络架构,使用残差链接(ResNet)后随着深度的增加error下降。
不同版本的model的对比,A、B、C分别对应前文提到的使用不同的残差连接处理输入和输出形状不同情况的方法
原文链接:https://openaccess.thecvf.com/content_cvpr_2016/papers/He_Deep_Residual_Learning_CVPR_2016_paper.pdf
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。