赞
踩
Alex在2012年提出的alexnet网络结构模型引爆了神经网络的应用热潮,并赢得了2012届图像识别大赛的冠军,使得CNN成为在图像分类上的核心算法模型。首次在CNN中应用了ReLu、Dropout层,其官方提供的数据模型,准确率达到57.1%,top 1-5 达到80.2%。
通常使用最大池化层来对张量的宽度和高度进行采样,且保持深度不变。重叠的最大池层与最大池层类似,除了重叠最大池层的相邻窗口是相互重叠的。作者使用的池化窗口是大小为3×3,相邻窗口步幅为2的窗口。在输出尺寸相同的情况下,与使用大小为2×2,相邻窗口步幅为2的非重叠池化窗口相比,重叠池化窗口能够分别将第一名的错误率降低0.4%,第5名的错误率降低0.3%。
AlexNet的另一个重要特性就是使用了ReLU激活函数。优点:1、与使用tanh相比ReLUs能以6倍快的速度到达25%的训练错误率(CIFAR-10数据集)。2、解决了sigmoid在网络层次较深时的梯度弥散问题。
ReLU函数: f(x)= max(0,x)
注:梯度弥散:在梯度下降过程中,随着算法反向反馈到前面几层,梯度会越来越小,最终会在还没有找到最优解时就收敛。并且深度学习遭受不稳定梯度,不同层学习在不同的速度上,后面几层变化大,前面几层变化小(甚至基本没有变化)。
激活函数介绍、梯度消失及梯度弥散可参考链接:
http://www.360doc.com/content/17/1102/21/1489589_700400500.shtml
提出LRN层,局部响应归一化,对局部神经元创建了竞争的机制,使得其中响应较大的值变得更大,并抑制反馈较小的(强者更强,弱者更弱)。
但人们对LRN层的评价都不高,下面是一个参考链接:
https://blog.csdn.net/searobbers_duck/article/details/51645941
Alexnet网络是由八层网络组成的,包括5层卷积层和3层全连接层。Alexnet网络由于一个GPU显存不够所以采用了两个GPU进行训练,其中CONV1、CONV2、CONV4和CONV5在每块GPU上只利用了所在层的一半feature map,而CONV3、FC6、FC7和FC8则使用了所在层的全部的feature map。
下图是网络参数计算细节:
参考:
[1]: https://blog.csdn.net/Rasin_Wu/article/details/80017920
[2]: https://blog.csdn.net/qq_28123095/article/details/79767108?utm_source=blogxgwz0
[3]: https://yq.aliyun.com/articles/602853
[4]: https://blog.csdn.net/qq_28123095/article/details/79767108
[5]:https://www.cnblogs.com/alexanderkun/p/6917984.html
[6]: https://blog.csdn.net/taoyanqi8932/article/details/71081390
这些不是全部,还有其他一些视频和网站参考。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。