赞
踩
参考文章:
经典CNN结构简析
GoogLeNet的心路历程(二)
【深度学习】论文导读:GoogLeNet模型,Inception结构网络简化(Going deeper with convolutions)
你必须要知道CNN模型:ResNet
深层神经网络的雏形,2012年的冠军网络,多层卷积与多层池化层的结合,最后为两个全连接层进行输出,有softmax层进行分类输出。
有以下几个创新点
针对AlexNet中的缺点进行改进
相对于VGG,NIN取消了全连接层,改用1*1的卷积层。VGG、AlexNet的绝大多数参数都集中于最后几个全连接层上,然而全连接层这玩意不仅线性强,参数多,还容易过拟合,NIN便使用1x1的卷积层创造性地解决了这个问题, 利用多个“普通卷积层+1x1的卷积层”的嵌套,不仅可以达到良好的效果,而且大大降低了参数。增加了训练的速度。
承接与NIN的思想,不同的是采用不同的卷积进行特征的学习,减少因为特征图大小的不同而学习效果差的问题。
初始的模型如下图所示:
为了防止维度爆炸以及增加非线性,在卷积层之前和池化层之后增加了1×1的卷积层(增加Relu作为激活函数)如下图所示:
更深的深度模型。区别是带来了残差学习(Residual learning)
实验发现深度网络出现了退化问题(Degradation problem):网络深度增加时,网络准确度出现饱和,甚至出现下降。这个现象可以在图3中直观看出来:56层的网络比20层网络效果还要差。这不会是过拟合问题,因为56层网络的训练误差同样高。我们知道深层网络存在着梯度消失或者爆炸的问题,这使得深度学习模型很难训练。
深度网络的退化问题至少说明深度网络不容易训练。但是我们考虑这样一个事实:现在你有一个浅层网络,你想通过向上堆积新层来建立深层网络,一个极端情况是这些增加的层什么也不学习,仅仅复制浅层网络的特征,即这样新层是恒等映射(Identity mapping)。在这种情况下,深层网络应该至少和浅层网络性能一样,也不应该出现退化现象。好吧,你不得不承认肯定是目前的训练方法有问题,才使得深层网络很难去找到一个好的参数。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。