赞
踩
参考:飞桨PaddlePaddle-源于产业实践的开源深度学习平台
供本人记录用
目录
1、模型介绍
上述结构是针对手写数字识别任务而设计。
LeNet模型使用的激活函数是Sigmoid函数,优化器采用Momentum。
2、模型优点
3、模型缺陷
1、模型介绍
AlexNet模型使用的激活函数是ReLU函数,优化器是Adam
2、模型优点
3、模型缺陷
1、模型介绍
共13层卷积与3层全连接,其中卷积层采用严格的3×3尺寸。
VGG模型使用的激活函数是ReLU函数,优化器是Momentum。
2、模型优点
3、模型缺陷
(理论上,随着网络深度提高,浅层网络的解空间是包含在深层网络的解空间中的,所以深层网络的解空间中至少应当存在不差于浅层网络的解,但事实上,网络深度越深,优化难度会成几何增长,更优解确实存在,但是无法通过优化找到。)
1、模型介绍
GoodLeNet模型的主要特点是网络不仅有深度,而且有横向的宽度。“宽度”主要体现在模型中所提出的Inception模块,该模块使用多个尺寸不同的卷积核提取特征,然后将结果沿着通道这一维度拼接。
2、模型优点
(有些图像的信息在空间尺度上存在巨大差异,比如有些图像的中心区域与边缘区域的颜色、纹理、形状等特征会存在差异,而任务中要求考虑图像的全局特征,此时使用GoodLeNet模型能够更好的捕捉图像不同区域的信息。这是因为空间分布范围更广的图像信息适合用较大的卷积核来提取其特征,空间分布范围较小的图像信息则适合用较小的卷积核来提取其特征,而Inception模块堆叠了多个不同尺寸的卷积核,这保证了空间分布范围不同的图像信息都能有效捕捉。)
3、模型缺陷
1、模型介绍
为了解决深度神经网络的“退化”问题,提出了残差块的概念,残差块在原本的网络结构中增加了一条“shortcut”连接,直接将输入传递给输出(假设原本输入是x,输出是F(x),现在输出就变成了F(x)+x)。
2、模型优点
在传统前馈神经网络中,信息从一层经过非线性变换传递到下一层,当网络变得很深时,原本的信息特征会逐渐消失或无法传递到浅层,这就导致反向传播效果不好,很难达到收敛。残差块中引入了shortcut连接,直接将原始输入传递给输出,使得网络可以学习到恒等映射,同时让网络可以更有效的传播梯度,收敛难度大大降低。
3、模型缺陷
个人抱怨:原理太难弄懂,只能了解些皮毛,想要彻底搞懂还有太多的疑问挡在面前。构建模型时各个参数无法找到合适的标准来决定取值,只会照搬不会自建。
参考文章:https://www.cnblogs.com/shine-lee/p/12363488.html
备注:参考文章尚未理解透彻,抽空补上。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。