当前位置:   article > 正文

卷积神经网络(CNN)入门笔记_cnn 卷积层 入门

cnn 卷积层 入门

学习资料:
邱锡鹏-神经网络与深度学习课程
邱锡鹏《神经网络与深度学习》

一、 卷积

1. 一维卷积

1.1 卷积定义

  • 常用于信号处理,用于计算信号的延迟累积
  • 假设信号发生器每个时刻t产生一个信号 x t x_t xt,即输入信号序列 x = { x 1 , x 2 , …   } x=\{x_1,x_2,\dots\} x={x1,x2,};信号衰减率为 w t w_t wt,即滤波器 w = { w 1 , w 2 , … , w K } w=\{w_1,w_2,\dots,w_K\} w={w1,w2,,wK}(滤波器长度为 K K K),则在t时刻收到的信号 y t y_t yt为当前时刻产生的信号和以前时刻延迟信号的叠加
    y t = ∑ k = 1 K w k x t − k + 1 (1) y_t=\sum_{k=1}^Kw_kx_{t-k+1} \tag{1} yt=k=1Kwkxtk+1(1)
  • w k w_k wk:滤波器(Filter),也称为卷积核(Convolution Kernel)
  • 信号序列 x \bm{x} x和滤波器 w \bm{w} w的卷积定义为
    y = w ∗ x (2) \bm{y=w*x} \tag{2} y=wx(2)

1.2 卷积性质

  • 输入信号长度为 N N N,卷积核长度为 K K K,则输出信号长度为 N − K + 1 N-K+1 NK+1

1.3 卷积作用

  • 实现对序列信号的近似微分
    • 一阶微分
      • 原始形式: f ′ ( x ) = lim ⁡ ε → 0 f ( x + ε ) − f ( x ) ε f'(x)=\lim\limits_{\varepsilon\rightarrow0}\frac{f(x+\varepsilon)-f(x)}{\varepsilon} f(x)=ε0limεf(x+ε)f(x)
      • 令滤波器 w = [ 1 / 2 , 0 , − 1 / 2 ] w=[1/2,0,-1/2] w=[1/2,0,1/2],近似信号序列的一阶微分: x ′ ( t ) = x ( t + 1 ) − x ( t − 1 ) 2 x'(t)=\frac{x(t+1)-x(t-1)}{2} x(t)=2x(t+1)x(t1)
    • 二阶微分
      • 令滤波器 w = [ 1 , − 2 , 1 ] w=[1,-2,1] w=[1,2,1],近似信号序列的二阶微分: x ′ ′ ( t ) = x ( t + 1 ) + x ( t − 1 ) − 2 x ( t ) x''(t)=x(t+1)+x(t-1)-2x(t) x(t)=x(t+1)+x(t1)2x(t)
  • 低通滤波/高通滤波
    • 检测信号中的低频信息: w = [ 1 / 3 , 1 / 3 , 1 / 3 ] w=[1/3,1/3,1/3] w=[1/3,1/3,1/3]
    • 检测信号中的高频信息: w = [ 1 , − 2 , 1 ] w=[1,-2,1] w=[1,2,1]

1.4 卷积扩展

  • 滑动步长 S S S(Stride):指卷积核在滑动时的时间间隔。

在这里插入图片描述   增加滑动步长=减少输出序列的长度

  • 零填充 P P P(Zero Padding):在输入向量两端进行补零

在这里插入图片描述
  增加零填充=增大输出序列的长度

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/689557
推荐阅读
相关标签