当前位置:   article > 正文

CNN中的卷积的作用及原理通俗理解_添加卷积cnn的作用是什么?

添加卷积cnn的作用是什么?

一、卷积有什么用?

卷积作用是为了进行特征提取
因为输入的信息中可能只有一小部分是对我们解决问题有帮助的,这些信息比较关键,这时候只提取这部分信息就可以了。
比如下面我们有以下图片数据,我们现在的任务是对衣服的款式进行判断,判断它是上衣还是裤子,或者是裙子
在这里插入图片描述
那对于这个任务来说,颜色这个信息就不重要,我们不需要通过颜色来判断一个衣服是上衣还是裤子,比如一个黑白的图片我们也完全可以判断。这时候就需要把这个信息过滤掉,只留下对判断款式有用的信息,比如轮廓:
在这里插入图片描述
这其实就是进行了卷积运算,可以看到它提取到了轮廓这个特征,虽然对于人来说彩色的看着更舒服,但是对于计算机来说,进行特征提取后,需要处理的信息就急剧减少,可以极大的加快运行速度,当然这只是我认为其中比较重要的一个原因,使用卷积+池化还有其他的作用,需要详细研究的可以看这篇文章,写的非常详细:
一文看懂卷积神经网络-CNN

二、卷积是怎么提取特征的?

提取特征,也就是只保留我们想要的信息,去除不需要的信息,相当于电路中的滤波器
我第一次知道卷积这个名词是大学课程《信号与系统》中来的,这里我们需要了解有关卷积的知识只需要以下3条就行了:

  1. 时域的卷积操作等于频域的相乘
  2. 傅里叶变换可以将信号从时域变换到频域
  3. 变换的实质就是将时域信号映射到一组两两正交的n维空间上

数学中卷积的定义:
连续:
( f ∗ g ) ( n ) = ∫ − ∞ ∞ f ( τ ) g ( n − τ ) d τ (f*g)(n)=\int_{-\infty}^\infty{f(\tau)g(n-\tau)d\tau} (fg)(n)=f(τ)g(nτ)dτ
离散:
( f ∗ g ) ( n ) = ∑ τ = − ∞ ∞ f ( τ ) g ( n − τ ) d τ (f*g)(n)=\sum_{\tau=-\infty}^\infty{f(\tau)g(n-\tau)d\tau} (fg)(n)=τ=f(τ)g(nτ)dτ

连续信号的卷积运算因为需要积分,所以计算量比较大,因此可以通过傅里叶变换后转到频域,直接相乘,然后再逆傅里叶变换回去就完成卷积计算了。虽然离散信号因为是累加,计算量并不大,不需要傅里变换,但是从频域分析会更好理解卷积进行特征提取的原理,所以我们下面对离散信号也做傅里叶变换:
比如我们有一个原始信号 f {f} f 卷积核 g {g} g f {f} f 就相当于图片的像素组成的矩阵, g {g} g 就是卷积核,也是一个矩阵。
为了描述简单,我们现在把 f {f} f g {g} g 都看作向量
现在我们有一个两两正交的三维空间
在这里插入图片描述
假如 f f f(时域信号) 映射到(即傅里叶变换后)此空间上后为 f ^ \hat{f} f^(频域信号), f ^ \hat{f} f^ x ⃗ \vec{x} x y ⃗ \vec{y} y 上不为0
g g g 映射到此空间后为 g ^ \hat{g} g^ g ^ \hat{g} g^ x ⃗ \vec{x} x 上不为0,在 x ⃗ \vec{x} x z ⃗ \vec{z} z 上为0
即:
在这里插入图片描述
那么此时对映射后(即傅里叶变换后)的向量进行相乘
在这里插入图片描述
会发现,相乘后只有y上有值,因为fg都在y上映射长度不为0
所以:
在这里插入图片描述
我们知道滤波器有高通滤波,低通滤波,所谓的高通滤波就是只有高频率的波通过,滤除低频率的波,低通滤波反之。那在我们这里,对f来说,卷积操作就像是一个 g通滤波,只有g中有的分量,f才能通过。滤除没有g的信息,留下有g的信息,这就是特征提取,起到作用就是提取g这个特征。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/689611
推荐阅读
相关标签
  

闽ICP备14008679号