赞
踩
每个激活函数的输入都是一个数字,然后对其进行某种固定的数学操作。激活函数给神经元引入了非线性因素,如果不用激活函数的话,无论神经网络有多少层,输出都是输入的线性组合。
激活函数的发展经历了Sigmoid -> Tanh -> ReLU -> Leaky ReLU ->
Maxout这样的过程,还有一个特殊的激活函数Softmax,因为它只会被用在网络中的最后一层,用来进行最后的分类和归一化。
输入实数值并将其“挤压”到0到1范围内,适合输出为概率的情况。
面试点:
Tanh解决了Sigmoid的输出非0中心的问题,但仍然存在饱和问题。
为了防止饱和,现在主流的做法会在激活函数前多做一步Batch Normalization,尽可能保证每一层网络的输入呈均值较小、0中心的分布。
相较于sigmoid和tanh函数,ReLU对于随机梯度下降的收敛有巨大的加速作用;sigmoid和tanh在求导时含有指数运算,而ReLU求导几乎不存在任何计算量。
对比sigmoid类函数主要变化是:
存在问题:
ReLU单元比较脆弱并且可能“死掉”,而且是不可逆的,因此导致了数据多样化的丢失。通过合理设置学习率,会降低神经元“死掉”的概率。解释:什么是死亡?假设非常小的数值,放在Relu之后,那么几乎为0,那么在更新的过程中,也是为0,也就是死亡了。
Softmax是Sigmoid的扩展,当类别数k=2时,Softmax回归退化为Logistic回归。
1、为什么用Softmax怎么不用Hardmax?反向传播有什么不同?(阿里面试中问过)
2、激活函数的作用
3、Relu比Sigmoid的效果好在哪里?
4、为什么用relu就不用sigmoid了
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。