赞
踩
引用API:tensorflow.nn.leaky_relu(x)
Leaky Relu激活函数 f(x)=max(ax,x)f(x)=max(ax,x) Leaky Relu激活函数引入一个固定斜率a,具有Relu激活函数所有的优点,但并不保证效果比Relu激活函数好 优点:跟Relu激活函数想比,输入值小于0也可以进行参数更新,不会造成神经元 死亡 缺点:输出非0均值,收敛慢