赞
踩
激活函数就是给神经网络引入非线性的,以此来模拟复杂的非线性关系
sigmoid
软饱和:导数极限情况下为0
硬饱和:导数在确定数值为0
梯度消失问题至今仍然存在,但被新的优化方法有效缓解了,例如DBN中的分层预训练,Batch Normalization的逐层归一化,Xavier和MSRA权重初始化等代表性技术。
输出非0中心化,解决了梯度消失,计算速度很快,收敛快于sigmoid、tanh,但存在某些神经元可能永远不会被激活,导致相应的参数永远不能被更新,可以设置小的学习率
Leaky ReLU
为了解决Relu存在某些神经元永远不会被激活的问题,提出了将ReLU的前半段设为0.02x0.02x而非0
ELU:输出近似0中心化
总结:
建议使用ReLU函数,但是要注意初始化和learning rate的设置;可以尝试用Leaky ReLU或ELU函数;不建议使用tanh,尤其是Sigmoid函数;
另外,选用激活函数的时候主要关注以下几点:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。