赞
踩
神经网络的层数越堆越多,并不意味着效果越来越好
当模型加深以后,网络变得越来越难训练,这主要是由于梯度弥散和梯度爆炸
现象造成的。在较深层数的神经网络中,梯度信息由网络的末层逐层传向网络的首层时,传递的过程中会出现梯度接近于0或梯度值非常大的现象。
网络层数越深,这种现象可能会越严重。
那么怎么解决深层神经网络的梯度弥散和梯度爆炸现象呢?一个很自然的想法是,既然浅层神经网络不容易出现这些梯度现象,那么可以尝试给深层神经网络添加一种回退到浅层神经网络的机制。当深层神经网络可以轻松地回退到浅层神经网络时,深层神经网络可以获得与浅层神经网络相当的模型性能,而不至于更糟糕。
通过在输入和输出之间添加一条直接连接的Skip Connection可以让神经网络具有回退的能力。
以 VGG13 深度神经网络为例,假设观察到 VGG13 模型出现梯度弥散现象,而 10 层的网络模型并没有观测到梯度弥散现象,那么可以考虑在最后的两个卷积层添加 Skip Connection,如图 10.62 中所示。通过这种方式,网络模型可以自动选择是否经由这两个卷积层完成特征变换,还是直接跳过这两个卷积层而选择 Skip Connection,亦或结合两个卷积层和 Skip Connection 的输出。
ResNet通过在卷积层的输入和输出之间添加Skip Connection实现层数回退机制,如下图10.63所示,输入
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。