赞
踩
首次引入了ReLU, Dropout和Local Response Normalization (LRN)等技巧。
使用ReLU作为CNN的激活函数,并验证其效果在较深的网络超过了Sigmoid,解决了Sigmoid在网络较深时的梯度弥散问题,提高了网络的训练速率。
为避免过拟合,训练时使用Dropout随机忽略部分神经元。
利用数据增强减低过拟合。利用随机裁剪和翻转镜像操作增加训练数据量。
使用重叠最大池化(Overlapping max pooling),最大池化可以避免平均池化的模糊化效果,而采用重叠技巧可提升特征的丰富性。
提出了局部响应归一化(LRN)层,对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力。
利用GPU的并行计算能力加速网络训练过程,并采用GPU分块训练的方式解决显存对网络规模的限制
改变训练集RGB通道的图像像素强度(intensity):
该方法即增加了目标对光照强度和颜色变化的鲁棒性,把top-1错误率减少了1%.
使用重叠最大池化(Overlapping max pooling),最大池化可以避免平均池化的模糊化效果,而采用重叠技巧可提升特征的丰富性
LRN对相同空间位置上相邻深度的卷积结果使用距离相关的加权平均函数做归一化。
归一化之后,越大的值得到的结果也越大,实现了距离相关的加权平均函数。
改变超参数可以实现其它归一化操作,如当k-0, n-N, a-1,B-0.5便是经典的 l2 归一化。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。