赞
踩
众所周知,卷积神经网络是深度学习中非常有代表性的学习领域,而深度学习又是机器学习的主要分支,因此卷积神经网络就是用来让机器学习的过程途径,而机器要学的就是图像中的特征,“卷积”就是用来提取特征的。
在卷积神经网络面前,所有图像都是矩阵,矩阵中就是一个个的像素,这些像素组成了我们肉眼看到的图像。最经典的CNN便是Let-5网络
卷积过程有三个重要的概念需要知道:局部感知、参数共享、池化
局部感知:
即网络部分连通,每个神经元只与上一层的部分神经元相连,只感知局部,而不是整幅图像。
局部感知通过滑窗实现,局部像素关系紧密,较远像素相关性弱。因此只需要局部感知,在更高层将局部的信息综合起来就得到了全局的信息。受启发于生物视觉系统:局部敏感;对外界认知从局部到全局。
权值共享:
从一个局部区域学习到的信息,应用到图像的其它地方去。即用一个相同的卷积核去卷积整幅图像,相当于对图像做一个全图滤波。一个卷积核对应的特征比如是边缘,那么用该卷积核去对图像做全图滤波,即是将图像各个位置的边缘都滤出来。(帮助实现不变性)。不同的特征靠多个不同的卷积核实现。
图像的局部统计特征在整幅图像上具有重复性(即位置无关性)。即如果图像中存在某个基本图形,该基本图形可能出现在任意位置,那么不同位置共享相同权值可实现在数据的不同位置检测相同的模式。比如我们在第一个窗口卷积后得到的特征是边缘,那么这个卷积核对应的就是边缘特征的提取方式,那么我们就可以用这个卷积核去提取其它区域的边缘特征。
池化:
比如max pooling,它是取一个区域的最大值。因此当图像发生平移、缩放、旋转等较小的变化时,依然很有可能在同一位置取到最大值,与变化前的响应相同,由此实现了仿射不变性。average pooling同理,发生较小的仿射变化后,均值可能依然不变。
受启发于生物视觉系统:局部敏感;对外界认知从局部到全局。
图像的卷积过程就相当于设置好的卷积核(滤波器),在图像矩阵上不停的进行滑动,将图片化为一个个patcks,卷积后我们会得到一个全新的图像
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。