赞
踩
看到了一篇很有道理的说法
原链接
https://blog.csdn.net/weixin_39875161/article/details/94359617?utm_source=app&app_version=4.5.2
随着网络层数的增加,训练的问题随之凸显。
比较显著的问题有梯度消失/爆炸,这会在一开始就影响收敛。
在深层网络能够收敛的前提下,随着网络深度的增加,正确率开始饱和甚至下降,称之为网络的退化(degradation)问题。
在给定的网络上增加层数会增大训练误差。
看到了一篇详细解释
https://blog.csdn.net/qq_36396104/article/details/89459267?utm_source=app&app_version=4.5.2
考虑一个浅层的网络架构和在它基础上构建的深层网络,在极端条件下,如果增加的所有层都是前一层的直接复制,这种情况下深层网络的训练误差应该和浅层网络相等。
网络的退化说明不是所有的系统都很容易优化,网络退化的根本原因还是优化问题。为了解决优化的难题,提出了残差网络。
随着网络的加深,出现了训练集准确率下降的现象,文献He K,Identity mAPpings in Deep Residual Networks[M] .可以确定这不是由于过拟合(Overfit)造成的(过拟合的情况训练集应该准确率很高)
附一个浅层神经网络的学习博客
https://blog.csdn.net/yjw123456/article/details/106042442?utm_source=app&app_version=4.5.2
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。