赞
踩
传统网络:像是一个二维
卷积神经网络:像是一个三维的 h * w *c
首先将图整体分割成很多小的区域, 目的是很多小的区域得到的特征值是不一样的,计算每个小区域得到的特征值的大小具体是多少
绿色的叫 执行一次卷积得到的特征图 Filter-Map
多通道分别去做相同的事 比如RGB
特征图的个数可以是多个,所起的作用是让特征结果更加丰富
Fileter中的w* h称为卷积核,代表在原始图像中选择多大的区域 得到特征值
所有的卷积网当中,都是用内积计算的(所有记过相乘,再相加
最终结果0+2+0 这是Filter,然后在加上Bias(偏置) b=1 最终等于3
与上面第一张操作是一样的
卷积核的第三个值与前面输入的值一定是一样的
移动的窗口越多,特征值也就比较丰富,得到的特征图也就越大。
卷积核最常见的是3*3 步长为1
+pad 1 填充一圈
越往边界的点,被计算的次数越少。因此 保证边界点利用次数和内部的点的次数一样,进行了边缘填充
为啥要填充0 因此0和任何数字相乘都是0 对最终结果没有影响
一般填充一圈
最终计算中,得到的特征图的个数
卷积核中的数据都是不一样的
将卷积层得到的特征进行压缩(向下 采样)筛选出有意义的值
只是会将特征组的长和宽进行改变,个数不进行修改
只选大的值
还有平均池化(基本使用最大池化)
基本上是两次卷积一次池化
带参数计算的才可以叫做一层
所以上面有7层 (6层卷积+1层全连接)
转换的意思是将最终得到的特征图,变成一维的特征向量,进而进行全连接
filters 11*11 太多了
所有卷积层大小都是3*3
vgg有16层到19层
卷积核比较小
那为什么不进行层数的增加呢???
将效果不好的层跨过,直接连接下一层
残差网络,层数越多效果一定比层数少的效果好,但是提升程度比较小
感受野希望越大越好
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。