当前位置:   article > 正文

深度学习之激活函数——ELU

深度学习之激活函数——ELU

ELU

指数线性单元(ELU),全称Exponential Linear Units,使用了指数作为激活函数的一部分。

函数表达式

f ( x ) = { α ( e x − 1 ) , x ≤ 0 x , x > 0 f(x)=

{α(ex1),x0x,x>0
f(x)={α(ex1),x0x,x>0

函数图像

请添加图片描述

在图像上, x > 0 x>0 x>0部分与ReLU相似,而在 x < 0 x<0 x<0部分与sigmoid/tanh相似

函数特性

ELU激活函数上所有点都是连续且可微的( α = 1 \alpha =1 α=1),所以不存在梯度消失和梯度爆炸的问题。ELU在 x > 0 x>0 x>0部分与ReLU相似,而在 x < 0 x<0 x<0部分与sigmoid/tanh相似,这样就能很好的结合两者的优点。理论上,ELU要好于ReLU,但是实际上,并没有证据表明ELU总是优于ReLU。

优点:
  • 相比于ReLU、sigmoid、tanh激活函数,其训练时间更短、精确度也更高。因为其在原点处函数连续,这样能够加快函数收敛
  • 没有dead relu神经元死亡问题
缺点:
  • 计算速度较慢,因为涉及到非线性的运算,但是其较快的收敛速度会对其进行一定程度上的弥补

的弥补

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/596077
推荐阅读
相关标签
  

闽ICP备14008679号