当前位置:   article > 正文

Sigmoid激活函数和ReLU激活函数的区别:_sigmoid和relu区别

sigmoid和relu区别
Sigmoid激活函数和ReLU激活函数的区别:
特性Sigmoid 激活函数ReLU 激活函数
梯度弥散只有在0附近的时候有比较好的激活性,在正负饱和区,其梯度都接近于0,导致梯度弥散在大于0的部分梯度为常数,不会出现梯度弥散
单侧抑制不具有单侧抑制功能在输入负值时输出0,神经元不被激活,有单侧抑制功能。使得网络稀疏,提高了计算效率。
稀疏激活性不具有稀疏激活性1.深度神经网络中的神经元具有稀疏激活性,当网络深度增加N层,理论上激活率将降低2的N次方倍
2.比 Sigmoid 更符合生物学神经激活机制。在做一个分类网络的时候,和目标相关的特征往往只有少数几个。
计算速度要进行浮点四则运算由简单的if-else语句实现,导数计算更快
公式
公式解释Relu其实就是个取最大值的函数
函数图像
导数

 

 

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号