赞
踩
卷积神经网络(CNN),是一类包含卷积计算且具有深度结构前馈神经网络,是深度学习(deep learning)的代表算法之一。
卷积神经网络具有表征能力,能够按其阶层结构对输入信息进行平移不变分类,因此也被称为“平移不变人工神经网络。
在CNN出现之前,图像对于人工智能来说是一个难题,有2个原因:
1.图像需要处理的数据量太大,导致成本很高,效率很低。
2.图像在数字化的过程中很难保留原有的特征,导致图像处理的准确率不高。
卷积神经网络 – CNN 解决的第一个问题就是「将复杂问题简化」,把大量参数降维成少量参数,再做处理。
三.CNN五层网络结构
1.数据输入层
2.卷积层(提取图像中的局部特征)
3.ReLU激励层
4.池化层(降低参数量级)
5.全连接层
简单描述:卷积层负责提取图像中的局部特征;池化层用来大幅降低参数量级(降维);全连接层类似传统神经网络的部分,用来输出想要的结果。
神经网络前部卷积层可以捕捉图像局部、细节信息。输出图像的每个像素是感受到输入图像很小范围数值进行计算的结果。
后面的卷积层感受野逐层加大,用于捕获图像更复杂抽象的信息。经过多个卷积层的运算,最后得到图像在不同尺度的抽象表示。注意卷积层的参数规模固定。
通常会在卷积层之间周期性插入一个池化层, 其作用是逐渐降低数据体的空间尺寸, 这样就能够减少网络中参数的数量, 减少计算资源耗费, 同时也能够有效地控制过拟合。
这个部分就是最后一步了,经过卷积层和池化层处理过的数据输入到全连接层,得到最终想要的结果。
经过卷积层和池化层降维过的数据,全连接层才能”跑得动”,不然数据量太大,计算成本高,效率低下。
激活函数(Activation Function),就是在人工神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。
作用:
激活函数的主要作用是完成数据的非线性变换,解决线性模型的表达、分类能力不足的问题。
激活函数的主要作用是改变之前数据的线性关系,如果网络中全部是线性变换,则多层网络可以通过矩阵变换,直接转换成一层神经网络。
所以激活函数的存在,使得神经网络的“多层”有了实际的意义,使网络更加强大,增加网络的能力,使它可以学习复杂的事物,复杂的数据,以及表示输入输出之间非线性的复杂的任意函数映射。
可以说激活函数是人工神经网络的驱动者。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。