当前位置:   article > 正文

激活函数ReLU与Leaky ReLU的区别 (1)_leakyrelu和relu的区别

leakyrelu和relu的区别

1、ReLU(Rectified Line Unit,ReLU):修正线性单元,神经网络中常用的激活函数。ReLU的输入是x,当x>0, 其梯度不为0, 可用于权重更新;当x<0, 其梯度为0, 权重无法更新,后续训练中处于静默状态(学习速率变慢,神经元处于不学习状态)。

函数图像

表达式

(1)前向过程:ReLU(x)=max(0,x) 

(2)后向传播:

a) 将ReLU看作神经网络中的一层,设第\l层输出是xl, 然后输入ReLU激活函数后输出是xl+1

b)设损失函数L关于第l层输出xl的偏导是

δl=Lxl=Lxl+1xl+1xl=δl+1ReLU(xl))xl=δl+1{1 if xl>00 if xl<=0={δl+1 if xl>00 if xl<=0

2、Leaky Relu:(与Relu的不同之处在于负轴保留了非常小的常数leak,使得输入信息小于0时,信息没有完全丢掉,进行了相应的保留),即ReLU在取值小于零部分没有梯度,LeakyReLU在取值小于0部分给一个很小的梯度

函数图像

表达式

(1)前向过程:

Leaky Relu(x) = \begin{Bmatrix} x,\: \; \: \, x>0 & \\ leak*x,\: \; \: \, x<=0& \end{matrix}

leak是小数,例如leak=0.1

(2)后向传播:

a) 将Leaky ReLU看作神经网络中的一层,设第\l层输出是xl, 然后输入Leaky ReLU激活函数后输出是xl+1

b)设损失函数L关于第l层输出xl的偏导是

δl=Lxl=Lxl+1xl+1xl=δl+1LeakyReLU(xl))xl=δl+1{1 if xl>0leak if xl<=0={δl+1 if xl>0leakδl+1 if xl<=0

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/156588
推荐阅读
相关标签
  

闽ICP备14008679号