赞
踩
目录
我们看百度百科对激活函数的定义:
激活函数(Activation Function),就是在人工神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。
激活函数(Activation functions)对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说具有十分重要的作用。它们将非线性特性引入到我们的网络中。
可以看出,激活函数主要的两个特性:
比如线性函数:f(x)=x+1
添加一个绝对值的激活函数:|fx|=|x+1|
如果把x表示特征,y=x+1表示神经网络的一个处理层,y越大表示特征越明显;
显然,添加绝对值激活函数后,x越小和越大的特征,越被强化。
我们看下激活函数在神经网络中的位置:
激活函数在上一层隐藏层的输出和下一层隐藏层输入之前。经过激活函数之后,上一层隐藏层的输出就被“掰弯”了。
Sigmoid 是常用的非线性的激活函数,它的数学形式如下:
图像如下:
特点:
它能够把输入的连续实值变换为0和1之间的输出。如果是非常大的负数,那么输出就是0;如果是非常大的正数,输出就是1。可以用来做二分类。
缺点:
tanh的数学形式如下:
图像如下:
特点:
缺点:
relu函数是一个取最大值函数,是目前最常用的激活函数,数学形式:
图像如下:
特点:
缺点:
prelu函数是一个缓解relu神经元消亡问题的函数,数学形式:
α表示超参数,一般是取0~1之间的数,这个参数可以通过反向传播学习得到。
图像如下:
特点:
当x>=0是,y=x;当x<0时,y=αx;因此能缓解relu函数神经元死亡的问题,其他特性和relu一样。
softmax用于多分类神经网络输出,数学形式如下:
即某个分类的概率0<f(x)<1;所有分类的概率之和为1。
激活函数的选择要在了解每个激活函数的基础上,结合实际场景和经验得到,但整体会遵循以下原则:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。