当前位置:   article > 正文

【四】零基础入门深度学习:卷积神经网络基础之池化和Relu

卷积、relu/池化

(给机器学习算法与Python学习加星标,提升AI技能) 

作者 | 孙高峰 百度深度学习技术平台部资深研发工程师 

内容来源 | 百度飞桨深度学习集训营 

本文转自飞桨PaddlePaddle

前期内容

【一】零基础入门深度学习:用numpy实现神经网络训练

【二】零基础入门深度学习:用一个案例掌握深度学习方法

【三】零基础入门深度学习:卷积神经网络基础之初识卷积


今天为大家带来的是卷积神经网络基础之池化和Relu。

池化(Pooling)

池化是使用某一位置的相邻输出的总体统计特征代替网络在该位置的输出,其好处是当输入数据做出少量平移时,经过池化函数后的大多数输出还能保持不变。比如:当识别一张图像是否是人脸时,我们需要知道人脸左边有一只眼睛,右边也有一只眼睛,而不需要知道眼睛的精确位置,这时候通过约化某一片区域的像素点来得到总体统计特征会显得很有用。由于池化之后特征图会变得更小,如果后面连接的是全连接层,能有效的减小神经元的个数,节省存储空间并提高计算效率。如 图10 所示,将一个 的区域池化成一个像素点。通常有两种方法,平均池化和最大池化。


图10:池化

  • 如图10(a):平均池化。这里使用大小为 的池化窗口,每次移动的步长也为2,对池化窗口内的元素数值取平均,得到相应的输出特征图的像素值。

  • 如图10(b):最大池化。对池化窗口覆盖区域内的元素取最大值,得到输出特征图的像素值。当池化窗口在图片上滑动时,会得到整张输出特征图。池化窗口的大小称为池化大小,用 表示。在卷积神经网络中用的比较多的是窗口大小为 ,步长也为2的池化。

与卷积核类似,池化窗口在图片上滑动时,每次移动的步长称为步幅,当宽和高方向的移动大小不一样时,分别用 表示。也可以对需要进行池化的图片进行填充,填充方式与卷积类似,假设在第一行之前填充 行,在最后一行后面填充 行。在第一列之前填充 列,在最后一列之后填充 列,则池化层的输出特征图大小为:

在卷积神经网络中,通常使用 大小的池化窗口,步幅也使用2,填充为0,则输出特征图的尺寸为:

通过这种方式的池化,输出特征图的高和宽都减半,但通道数不会改变。

ReLU激活函数

前面介绍的网络结构中,普遍使用Sigmoid函数做激活函数。在神经网络发展的早期,Sigmoid函数用的比较多,而目前用的较多的激活函数是ReLU。这是因为Sigmoid函数在反向传播过程中,容易造成梯度的衰减。让我们仔细观察Sigmoid函数的形式,就能发现这一问题。

Sigmoid激活函数定义如下:

ReLU激活函数的定义如下:

下面的程序画出了Sigmoid和ReLU函数的曲线图:

  1. 1# ReLU和Sigmoid激活函数示意图
  2. 2import numpy as np
  3. 3import matplotlib.pyplot as plt
  4. 4import matplotlib.patches as patches
  5. 5
  6. 6plt.figure(figsize=(105))
  7. 7
  8. 8# 创建数据x
  9. 9x = np.arange(-10100.1)
  10. 10
  11. 11# 计算Sigmoid函数
  12. 12s = 1.0 / (1 + np.exp(0. - x))
  13. 13
  14. 14# 计算ReLU函数
  15. 15y = np.clip(x, a_min=0., a_max=None)
  16. 16
  17. 17#####################################
  18. 18# 以下部分为画图代码
  19. 19f = plt.subplot(121)
  20. 20plt.plot(x, s, color= r )
  21. 21currentAxis=plt.gca()
  22. 22plt.text(-9.00.9, r $y=Sigmoid(x)$ , fontsize=13)
  23. 23currentAxis.xaxis.set_label_text( x , fontsize=15)
  24. 24currentAxis.yaxis.set_label_text( y , fontsize=15)
  25. 25
  26. 26f = plt.subplot(122)
  27. 27plt.plot(x, y, color= g )
  28. 28plt.text(-3.09, r $y=ReLU(x)$ , fontsize=13)
  29. 29currentAxis=plt.gca()
  30. 30currentAxis.xaxis.set_label_text( x , fontsize=15)
  31. 31currentAxis.yaxis.set_label_text( y , fontsize=15)
  32. 32
  33. 33plt.show()
  34. 34

- 梯度消失现象

在神经网络里面,将经过反向传播之后,梯度值衰减到接近于零的现象称作梯度消失现象。

从上面的函数曲线可以看出,当x为较大的正数的时候,Sigmoid函数数值非常接近于1,函数曲线变得很平滑,在这些区域Sigmoid函数的导数接近于零。当x为较小的负数的时候,Sigmoid函数值非常接近于0,函数曲线也很平滑,在这些区域Sigmoid函数的导数也接近于0。只有当x的取值在0附近时,Sigmoid函数的导数才比较大。可以对Sigmoid函数求导数,结果如下所示:

从上面的式子可以看出,Sigmoid函数的导数 最大值为 。前向传播时, ;而在反向传播过程中,x的梯度等于y的梯度乘以Sigmoid函数的导数,如下所示:

使得x的梯度数值最大也不会超过y的梯度的

由于最开始是将神经网络的参数随机初始化的,x很有可能取值在数值很大或者很小的区域,这些地方都可能造成Sigmoid函数的导数接近于0,导致x的梯度接近于0;即使x取值在接近于0的地方,按上面的分析,经过Sigmoid函数反向传播之后,x的梯度不超过y的梯度的 ,如果有多层网络使用了Sigmoid激活函数,则比较靠前的那些层梯度将衰减到非常小的值。

ReLU函数则不同,虽然在 的地方,ReLU函数的导数为0。但是在 的地方,ReLU函数的导数为1,能够将y的梯度完整的传递给x,而不会引起梯度消失。

总结

本文重点展开讲解了卷积神经网络里面的常用模块,如池化和Relu。

配套视频

https://aistudio.baidu.com/aistudio/course/introduce/888

  1. 推荐阅读
  2. 李宏毅机器学习完整笔记发布,AI界「最热视频博主」中文课程笔记全开源
  3. 反转!“阿里员工招小三进公司”造谣者公开道歉,阿里回应:我们不任人宰割编排
  4. GitHub标星 7.7 万+的中文资源,新老司机各取所需
  5. 标星11.7K,用 Python 登录主流网站......
  6. 趣味Python | 223 段代码助你从入门到大师

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/75128
推荐阅读
相关标签
  

闽ICP备14008679号