赞
踩
Sigmoid函数计算公式
sigmoid:x取值范围(-∞,+∞),值域是(0, 1)。
这是sigmoid函数的一个重要性质。
图像
代码
- # -*- coding: utf-8 -*-
- """
- @author: tom
- """
-
- import numpy
- import math
- import matplotlib.pyplot as plt
-
- def sigmoid(x):
- a = []
- for item in x:
- a.append(1.0/(1.0 + math.exp(-item)))
- return a
-
- x = numpy.arange(-10, 10, 0.1)
- y = sigmoid(x)
- plt.plot(x,y)
- plt.show()
当x为0时,Sigmoid函数值为0.5。随着x的增大,对应的Sigmoid值将逼近于1;而随着x的减小,Sigmoid值将逼近于0。两种坐标尺度下的Sigmoid函数图。上图的横坐标为-5到5,这时的曲线变化较为平滑;下图横坐标的尺度足够大,可以看到,在x = 0点处Sigmoid函数看起来很像阶跃函数,如果横坐标刻度足够大(上图中的下图),Sigmoid函数看起来很像一个阶跃函数。
对于分类问题,需要找到一个单调可微函数将真实值与广义线性回归模型的预测值联系起来,这个函数就是Logistic函数,或者称Sigmoid函数。(单位阶跃函数不连续,且瞬间跳跃的过程很难处理)
原因参考https://zhuanlan.zhihu.com/p/59137998
Logistic/Sigmoid函数是一个常见的S型函数,适合于提供概率的估计以及依据这些估计的二进制响应;由于其单调递增、反函数单调递增、任意阶可导等性质,且可以将变量映射到(0, 1)之间,在逻辑回归、神经网络中有着广泛的应用。
优点:
缺点:
tanh为双曲正切函数,过(0,0)点。相比Sigmoid函数,更倾向于用tanh函数
x取值范围(-∞,+∞),值域是(-1, 1)。
又因为
所以
即:
或者
优点:
缺点:
图像
代码
- import math
- import matplotlib.pyplot as plt
- import numpy as np
- import mpl_toolkits.axisartist as axisartist
-
- # Tanh 激活函数
- class Tanh:
- # 原函数
- def forward(self, x):
- return (np.exp(x) - np.exp(-x)) / (np.exp(x) + np.exp(-x))
- # 导数
- def backward(self, outx):
- tanh = (np.exp(outx) - np.exp(-outx)) / (np.exp(outx) + np.exp(-outx))
- return 1 - math.pow(tanh, 2)
-
- # 画图
- def Axis(fig, ax):
- #将绘图区对象添加到画布中
- fig.add_axes(ax)
- # 隐藏坐标抽
- ax.axis[:].set_visible(False)
- # new_floating_axis 创建新的坐标
- ax.axis["x"] = ax.new_floating_axis(0, 0)
- # 给 x 轴创建箭头线,大小为1.0
- ax.axis["x"].set_axisline_style("->", size = 1.0)
- # 给 x 轴箭头指向方向
- ax.axis["x"].set_axis_direction("top")
- # 同理,创建 y 轴
- ax.axis["y"] = ax.new_floating_axis(1, 0)
- ax.axis["y"].set_axisline_style("->", size = 1.0)
- ax.axis["y"].set_axis_direction("right")
-
- # 返回间隔均匀的100个样本,计算间隔为[start, stop]。
- x = np.linspace(-10, 10, 100)
- y_forward = []
- y_backward = []
-
- def get_list_forward(x):
- for i in range(len(x)):
- y_forward.append(Tanh().forward(x[i]))
- return y_forward
-
- def get_list_backward(x):
- for i in range(len(x)):
- y_backward.append(Tanh().backward(x[i]))
- return y_backward
-
- y_forward = get_list_forward(x)
- y_backward = get_list_backward(x)
-
- #创建画布
- fig = plt.figure(figsize=(12, 12))
-
- #创建绘图对象ax
- ax = axisartist.Subplot(fig, 111)
- Axis(fig, ax)
-
- # 设置x, y轴范围
- plt.ylim((-2, 2))
- plt.xlim((-10, 10))
-
- # 原函数,forward function
- plt.plot(x, y_forward, color='red', label='$f(x) = tanh(x)$')
- plt.legend()
-
- # 导数, backward function
- plt.plot(x, y_backward, label='f(x)\' = 1-(tanh)^2')
- plt.legend()
-
- plt.show()
公式如下:
图形图像:对于输入的x以0为分界线,左侧的均为0,右侧的为y=x这条直线
优点:
缺点:
ReLU函数是从生物学角度,模拟出脑神经元接收信号更加准确的激活模型。相比于Sigmoid函数,具有以下优点:
在ReLU函数的基础上,对x≤0的部分进行修正;目的是为了解决ReLU激活函数中容易存在的”死神经元”情况的;不过实际场景中:效果不是太好。
指数线性激活函数,同样属于对ReLU激活函数的x≤0部分的转换进行指数修正,而不是和Leaky ReLU中的线性修正。
参考:https://arxiv.org/pdf/1302.4389.pdf
可以看作是在深度学习网络中加入一层激活函数层,包含一个参数k,拟合能力特别强。特殊在于:增加了k个神经元进行激活,然后输出激活值最大的值。
优点:
缺点:
激活值 out = f(W.X+b); f是激活函数。’.’在这里代表內积; 那么当我们对(i+1)层使用maxout(设定k=5)然后再输出的时候,情况就发生了改变
此时网络形式上就变成上面的样子,用公式表现出来就是:
也就是说第(i+1)层的激活值计算了5次,可我们明明只需要1个激活值,那么我们该怎么办?其实上面的叙述中已经给出了答案,取这5者的最大值来作为最终的结果。
总结一下,maxout明显增加了网络的计算量,使得应用maxout的层的参数个数成k倍增加,原本只需要1组就可以,采用maxout之后就需要k倍了。
假设h(x)是一个激活函数。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。