赞
踩
整流线性单元(ReLU),全称Rectified linear unit,是现代神经网络中最常用的激活函数,大多数前馈神经网络都默认使用该激活函数。
f ( x ) = m a x { 0 , x } f(x)=max\{0,x\} f(x)=max{0,x}
当 x < 0 x<0 x<0时,函数值为0;当 x > 0 x>0 x>0时,函数值为 f ( x ) = x f(x)=x f(x)=x
在现阶段的使用过程中,依然是ReLU激活函数效果最好。我们可以这样去理解ReLU的作用:当 x > 0 x>0 x>0时,这时候函数值是与 x x x正相关的,我们希望当检测特征信号越强时,得到的结果越强;而当 x x x为负值时,说明该特征对结果有负面影响,我们不需要负面信号,那么所有信号结果都转化为0。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。