当前位置:   article > 正文

各种激活函数的计算公式、图像以及实现代码_激活函数代码

激活函数代码

         激活函数已经成为神经网络中非常重要的一部分,随着各种类型的神经网络模型被人们开发出来,各种激活函数也应运而生,在不同的场景中,取得良好的效果。本文跟据著名的YOLO系列目标检测模型的源码 AlexeyAB Darknet,整理出目前神经网络模型中应用最广泛的20种激活函数,对它们的计算公式、图像特点进行介绍,并使用python代码实现这些激活函数的计算。

1、stair激活函数

        如图1所示,stair激活函数的图像就像阶梯一样。它的计算公式如下:

stair(x)=\left\{\begin{matrix} \left \lfloor x/2 \right \rfloor& (mod(\left \lfloor x \right \rfloor,2)=0)\\ (x+\left \lfloor x \right \rfloor)+\left \lfloor x/2 \right \rfloor&(mod(\left \lfloor x \right \rfloor,2)\neq 0) \end{matrix}\right.

式子中,\left \lfloor x \right \rfloor表示不大于x的整数,mod\left ( \left \lfloor x \right \rfloor,2 \right )表示对2取余数。 

图1 stair激活函数

 代码实现如下:

  1. def stair(x):
  2. n=math.floor(x)
  3. if n%2==0:
  4. return math.floor(x/2.0)
  5. else:
  6. return (x-n)+math.floor(x/2.0)

2、hardtan激活函数

        如图2所示,hardtan激活函数是通过以直代曲近似实现tan函数,其计算公式如下:

hardtan(x)=\left\{\begin{matrix} -1.0 &(x<-1.0) \\ 1.0 &(x>1.0) \\ x & (other)\end{matrix}\right.

图2 hardtan激活函数

代码实现如下:

  1. def hardtan(x):
  2. if x<-1.0:
  3. return -1.0
  4. elif x>1.0:
  5. return 1.0
  6. else:
  7. return x

3、linear激活函数

        linear激活函数是线性激活函数,输入x输出也是x,其函数图像如图3所示。

图3 线性激活函数

 代码实现:

  1. def linear(x):
  2. return x

4、logistic激活函数

        logistic激活函数又叫sigmoid激活函数,如图4所示,logistic函数可以结果映射到0到1之间。其计算公式如下:

logistic(x)=\frac{1.0}{1.0+e^{-x}}

图4 logistic激活函数

 代码实现如下:

  1. def logistic(x):
  2. return 1.0/(1.0+math.exp(-x))

5、loggy激活函数

        如图5所示,loggy的函数图像跟logistic有点相似,也是把输出映射到0到1之间。其计算公式如下:

loggy(x)=\frac{2.0}{1+e^{-x}}-1

图5 loggy激活函数

 代码实现:

  1. def loggy(x):
  2. return 2.0/(1.0+math.exp(-x))-1.0

6、relu激活函数

        relu激活函数为线性整流函数,目的是把小于0的数截取掉,其函数图像如图6所示,其计算公式如下:

relu(x)=\left\{\begin{matrix} 0 & (x<0)\\ x & (x\geqslant 0) \end{matrix}\right.

图6 relu激活函数

 代码实现如下:

  1. def relu(x):
  2. return x*(x>0)

7、relu6激活函数

        relu6和relu一样,也是线性整流函数,不同的是他对大于6的数进行了截断,其函数图像如图7所示,其计算公式如下:

relu6(x)=\left\{\begin{matrix} 0.0 & (x<0)\\ 6.0& (x>6)\\ x& (0\leq x\leq 6) \end{matrix}\right.

图7 relu6激活函数

 代码实现如下:

  1. def relu6(x):
  2. if x<0:
  3. return 0.0
  4. elif x>6:
  5. return 6.0
  6. else:
  7. return x

8、elu激活函数

        elu激活函数的图像如图8所示,其计算公式如下:

elu(x)=\left\{\begin{matrix} x & (x\geq 0)\\ e^{x}& (x<0) \end{matrix}\right.

图8 elu激活函数

 代码实现:

  1. def elu(x):
  2. return (x>=0)*x+(x<0)*(math.exp(x)-1.0)

9、selu激活函数

        selu激活函数如图9所示,其计算公式如下:

selu(x)=\left\{\begin{matrix} 1.0507*x& (x\geq 0)\\ 1.0507* 1.6732* (e^{x}-1.0)& (x<0) \end{matrix}\right.

图9 selu激活函数

 代码实现:                                                                                                                                        

  1. def selu(x):
  2. return (x>=0)*1.0507*x+(x<0)*1.0507*1.6732*(math.exp(x)-1.0)

10、relie激活函数

                相比于relu激活函数,relie激活函数对于小于零的数据并不会直接截取为0,二是乘以一个小的系数,这个系数为0.01。其函数图像如图10所示,其计算公式如下:

relie(x)=\left\{\begin{matrix} 0.01*x & (x<0)\\ x& (x\geq 0) \end{matrix}\right.

图10 relie激活函数

 代码实现:

  1. def relie(x):
  2. if x>0:
  3. return x
  4. else:
  5. return 0.01*x

11、ramp激活函数

        如图11所示为ramp激活函数,其计算公式如下:

ramp(x)=\left\{\begin{matrix} x+0.1* x & (x>0)\\ 0.1*x& (x\leq 0) \end{matrix}\right.

图11 ramp激活函数

代码实现:

  1. def ramp(x):
  2. return x*(x>0)+0.1*x

12、leaky激活函数

        如图12所示为leaky激活函数的图像,它与relie函数有点像,它的斜率系数要比relie激活函数要大,其计算公式如下:

leaky(x)=\left\{\begin{matrix} x & (x\geq 0)\\ 0.1* x& (x<0) \end{matrix}\right.

图12 leaky激活函数

 代码实现如下:

  1. def leaky(x):
  2. if x<0:
  3. return 0.1*x
  4. else:
  5. return x

13、tanh激活函数

        tanh激活函数的图像如图13所示,它的取值范围是[-1,1],其计算公式如下:

tanh(x)=\frac{2.0}{1.0+e^{-2* x}}-1

图13 tanh激活函数

 代码实现:

  1. def tanh(x):
  2. return 2.0/(1.0+math.exp(-2.0*x))-1.0

14、gelu激活函数

        gelu激活函数的图像如图14所示,其计算公式如下:

gelu(x)=0.5* x(1.0+tanh(0.797885*x+0.035677*x^{3.0}))

式中,tanh为上文提到过的激活函数。

图14 gelu激活函数

代码实现如下:

  1. def gelu(x):
  2. return 0.5*x*(1.0+math.tanh(0.797885*x+0.035677*math.pow(x,3.0)))

15、softplus激活函数

        softplus激活函数的图像如图15所示,其计算公式如下:

softplus(x,threshold)=\left\{\begin{matrix} x& (x>threshold)\\ e^{x}& (x<-threshold) \end{matrix}\right.

图15 softplus激活函数

 代码实现:

  1. def softplus(x,threshold):
  2. if x>threshold:
  3. return x
  4. elif x<-threshold:
  5. return math.exp(x)
  6. else:
  7. return math.log(math.exp(x)+1.0)

 16、plse激活函数

        图16位plse激活函数的图像,其计算公式如下:

plse(x)=\left\{\begin{matrix} 0.01*(x+4.0) &(x<-4) \\ 0.01*(x-4.0)+1.0&(x>4) \\ 0.125*x+0.5& (-4\leq x\leq 4) \end{matrix}\right.

图16 plse激活函数

 代码实现:

  1. def plse(x):
  2. if x<-4:
  3. return 0.01*(x+4.0)
  4. elif x>4:
  5. return 0.01*(x-4.0)+1.0
  6. else:
  7. return 0.125*x+0.5

17、lhtan激活函数

        图17是lhtan激活函数的图像,其计算公式为:

lhtan(x)=\left\{\begin{matrix} 0.001*x & (x<0)\\ 0.001*(x-1.0)+1.0&(x>1) \\ x& (0\leq x\leq 1) \end{matrix}\right.

图17 lhtan激活函数

 

代码实现:

  1. def lhtan(x):
  2. if x<0:
  3. return 0.001*x
  4. elif x>1:
  5. return 0.001*(x-1.0)+1.0
  6. else:
  7. return x

18、swish激活函数

        图18是swish激活函数的图像,其计算公式如下:

swish(x)=x*logistic(x)

式中,logistic为上文所提到的激活函数,也叫sigmoid激活函数。

图18 swish激活函数

 代码实现:

  1. def logistic(x):
  2. return 1.0/(1.0+math.exp(-x))
  3. def swish(x):
  4. return x*logistic(x)

19、mish激活函数

        mish激活函数的图像如图19所示,其计算公式如下:

mish(x)=x*tanh(softplus(x,20.0))

式中tanh,softplus均为上文描述过的激活函数。

图19 mish激活函数

 代码实现如下:

  1. def softplus(x,threshold):
  2. if x>threshold:
  3. return x
  4. elif x<-threshold:
  5. return math.exp(x)
  6. else:
  7. return math.log(math.exp(x)+1.0)
  8. def tanh(x):
  9. return 2.0/(1.0+math.exp(-2.0*x))-1.0
  10. def mish(x):
  11. return x*tanh(softplus(x,20.0))

20、hardmish激活函数

        hardmish激活函数为mish激活函数的近似形式,它的图像如图20所示,其计算公式如下:

hardmish(x)=\left\{\begin{matrix} x & (x>0)\\ x*x*0.5+x&(-2< x\leq 0) \\ 0& (x\leq -2) \end{matrix}\right.

图20 hardmish激活函数

 代码实现:

  1. def hardmish(x):
  2. if x>0:
  3. return x
  4. elif x>-2:
  5. return x*x*0.5+x
  6. else:
  7. return 0

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/333728
推荐阅读
相关标签
  

闽ICP备14008679号