赞
踩
整个alexnet网络的架构如下图所示:
注意:输入层的大小其实是227*227
整个网络可以分成8个大模块,其中前5模块四卷积模块,用于提取图片特征,后3个模块是全链接层,用于图像分类!
Hinton提出使用Relu激活函数效果更好!
从ReLU提出之后相继又出现很多新的激活函数,如PReLU,Leaky-ReLY,Maxout等。
可以利用78模块集成学习的思想来理解Dropout,全连接中训练多个若分类器,在识别阶段在来构成一个强分类器。Dropout比Without Dropout在训练阶段的准确率要低,但测试阶段的准确率要高,范化能力更强。可以利用集成学习的思想来理解Dropout技术。
上图右侧是论文中比较创新的地方,可以看出Alexnet是人工智能第三次爆发的开山之作!
标准梯度下降先计算所有样本汇总误差,然后根据误差来更新权值
随机梯度下降法随机抽取一个样本来计算误差,然后更新权值。比较容易陷入局部最优解。
批量梯度下降算法是一种折中的方案,从总样本中选取一个批次(比如一共有10000个样本,随机选取100个样本作为一个batch),然后再计算这个batch的总误差,根据总误差来更新权值。
参考文献:
[alexnet]:ImageNet Classification with Deep Convolutional Neural Networks
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。