赞
踩
人工神经网络(Artificial Neural Network,ANN),通常简称为神经网络,它是机器学习当中独树一帜的,最强大的强学习器没有之一。
人脑通过构建复杂的网络可以进行逻辑,语言,图像的学习,而传统机器学习算法不具备和人类相似的学习能力。机器学习研究者们相信,模拟大脑结构可以让机器的学习能力更上一层楼,于是人工神经网络算法应运而生,现在基本都简称为”神经网络“。有了神经网络,基于其算法延申出来的机器学习分枝学科——深度学习也从此走入了人们的视野,成为所有让世人惊叹的人工智能技术的根基。在深度学习中,我们使用圆来表示神经元,使用线表示数据流动的方向。
了解神经网络,可以从线性回归算法开始。线性回归算法是机器学习中最简单的回归类算法,多元线性回归指的就是一个样本有多个特征的线性回归问题。对于一个有个特征的样本 而言,它的回归结果可以写作一个几乎人人熟悉的方程:
z
i
^
=
b
+
w
1
x
i
1
+
w
2
x
i
2
+
.
.
.
+
w
n
x
i
n
\hat{z_i} = b + w_1x_{i1} + w_2x_{i2} + ... +w_nx_{in}
zi^=b+w1xi1+w2xi2+...+wnxin
w
w
w和
b
b
b被统称为模型的参数,其中
b
b
b被称为截距(intercept),也叫做偏差(bias),
w
1
w
n
w_1~w_n
w1 wn被称为回归系数(regression coefficient),也叫作权重(weights)。这个表达式,其实就和我们小学时就无比熟悉的
y
=
a
x
+
b
y = ax+b
y=ax+b是同样的性质。其中
y
y
y是我们的目标变量,也就是标签。
现在假设,我们的数据只有2个特征,则线性回归方程可以写作如下结构:
z
^
=
b
+
x
1
w
1
+
x
2
w
2
\hat{z} = b + x_1w_1 + x_2w_2
z^=b+x1w1+x2w2
此时,我们只要对模型输入特征
x
1
x_1
x1和
x
2
x_2
x2的取值,就可以得出对应的预测值
z
^
\hat{z}
z^ 。在上一节中我们提到,神经网络的预测过程是从神经元左侧输入特征,让神经元处理数据,并从右侧输出预测结果。这个过程和我们刚才说到的线性回归输出预测值的过程是一 致的。如果我们使用一个神经网络来表达线性回归上的过程,则可以有:
在神经网络中,竖着排列在一起的一组神经元叫做“一层网络”,所以线性回归的网络直观看起来有两层,两层神经网络通过写有参数的线条相连。我们从左侧输入常数 1 1 1和特征取值 x 1 x_1 x1, x 2 x_2 x2,再让它们与相对应的参数相乘,就可以得到 b b b, w 1 x 1 w_1x_1 w1x1, w 2 x 2 w_2x_2 w2x2三个结果。这三个结果通过连接到下一层神经元的直线,被输入下一层神经元。我们在第二层的神经元中将三个乘积进行加和(使用符号 ∑ \sum ∑表示),就可以得到加和结果 z ^ \hat{z} z^,即 b + x 1 w 1 + x 2 w 2 b + x_1w_1 + x_2w_2 b+x1w1+x2w2,这个值正是我们的预测值。可见,线性回归方程与上面的神经网络图达到的效果是一模一样的。
在上述过程中,左侧的是神经网络的输入层(input layer)。输入层由众多承载数据用的神经元组成,数据从这里输入,并流入处理数据的神经元中。在所有神经网络中,输入层永远只有一层,且每个神经元上只能承载一个特征或一个常量。现在的二元线性回归只有两个特征,所以输入层上只需要三个神经元,包括两个特征和一个常量,其中这里的常量仅仅是被用来乘以偏差用的。对于没有偏差的线性回归来说,我们可以不设置常量1。
右侧的是输出层(output layer)。输出层由大于等于一个神经元组成,我们总是从这一层来获取预测结果。输出层的每个神经元上都承载着单个或多个功能,可以处理被输入神经元的数据。在线性回归中,这个功能就是“加和”,当我们把加和替换成其他的功能,就能够形成各种不同的神经网络。
在神经元之间相互连接的线表示了数据流动的方向,就像人脑神经细胞之间相互联系的“轴突”。在人脑神经细胞中,轴突控制电子信号流过的强度,在人工神经网络中,神经元之间的连接线上的权重也代表了”信息可通过的强度“。最简单的例子是,当 w 1 w_1 w1为0.5时,在特征 x 1 x_1 x1上的信息就只有0.5倍能够传递到下一层神经元中,因为被输入到下层神经元中去进行计算的实际值是 0.5 x 0.5x 0.5x。相对的,如果 w 1 w_1 w1是2.5,则会传递2.5倍的 x 1 x_1 x1上的信息。
到此,我们已经了解了线性回归的网络是怎么一回事,它是最简单的回归神经网络,同时也是最简单的神经网络。类似于线性回归这样的神经网络,被称为单层神经网络。
单层神经网络
从直观来看,线性回归的网络结构明明有两层,为什么线性回归被叫做“单层神 经网络”呢?实际上,在描述神经网络的层数的时候,我们不考虑输入层。输入层是每个神经网络都必须存在的一层,任意两个神经网络之间的不同之处就在输入层之后的所有层。所以,我们把输入层之后只有一层的神经网络称为单层神经网络。
#首先使用numpy来创建数据
import numpy as np
X = np.array([[0,0],[1,0],[0,1],[1,1]])
z_reg = np.array([-0.2, -0.05, -0.05, 0.1])
X
X.shape
z_reg
#定义实现简单线性回归的函数
def LinearR(x1,x2):
w1, w2, b = 0.15, 0.15,-0.2 #给定一组系数w和b
z = x1*w1 + x2*w2 + b #z是系数*特征后加和的结果
return z
LinearR(X[:,0],X[:,1])
可以看到,只要能够给到适合的w和b,回归神经网络其实非常容易实现。从这样的一个简单回归神经网络,我们很容易就可以把它推广到分类模型上。
sigmoid函数
在过去我们学习逻辑回归时,我们了解到sigmoid函数可以帮助我们将线性回归连续型的结果转化为0-1之间的概率值,从而帮助我们将回归类算法转变为分类算法逻辑回归。对于神经网络来说我们也可以使用相同的方法。首先先来复习一下Sigmoid函数的的公式和性质:
Sigmoid函数是一个
S
S
S型的函数,当自变量
z
z
z趋近正无穷时,因变量
g
(
z
)
g(z)
g(z)趋近于
1
1
1, 而当
z
z
z趋近负无穷时,
g
(
z
)
g(z)
g(z)趋近于
0
0
0,因此它能够将任何实数映射到
(
0
,
1
)
(0,1)
(0,1)区间,使其可用于将任意值函数转换为更适合二分类的函数。通常来说,自变量往往是回归类算法(如线性回归)的结果。将回归类算法的连续型数值压缩到
(
0
,
1
)
(0,1)
(0,1)之间后,我们使用阈值
0.5
0.5
0.5来将其转化为分类。即当
g
(
z
)
g(z)
g(z)大于0.5时,我们认为样本
z
i
z_i
zi对应的分类结果为
1
1
1类,反之则为
0
0
0类。
g
(
z
)
=
1
1
+
e
−
z
g(z) = \frac{1}{1+ e^{-z}}
g(z)=1+e−z1
来看下面这组数据。很容易注意到,这组数据和上面的回归数据的特征 ( x 1 , x 2 ) (x_1,x_2) (x1,x2)是完全一致的,只不过标签 y y y由连续型结果转变为了分类型。这一组分类的规律是这样的:当两个特征都为 1 1 1的时候标签就为 1 1 1,否则标签就为 0 0 0。这一组特殊的数据被我们称之为“与门”(AND GATE),这里的“与”正是表示“特征一与特征二都是 1 1 1”的含义。
#重新定义数据中的标签 y_and = [0,0,0,1] #根据sigmoid公式定义sigmoid函数 def sigmoid(z): return 1/(1 + np.exp(-z)) def AND_sigmoid(x1,x2): w1, w2, b = 0.15, 0.15,-0.2 #给定的系数w和b不变 z = x1*w1 + x2*w2 + b o = sigmoid(z) #使用sigmoid函数将回归结果转换到(0,1)之间 y = [int(x) for x in o >= 0.5] #根据阈值0.5,将(0,1)之间的概率转变 为分类0和1 return o, y #o:sigmoid函数返回的概率结果 #y:对概率结果按阈值进行划分后,形成的0和1,也就是分类标签 o, y_sigm = AND_sigmoid(X[:,0],X[:,1]) y_sigm == y_and
此时, − b -b −b就是一个阈值,我们可以使用任意字母来替代它,比较常见的是字母 θ \theta θ。当然,不把它当做阈值,依然保留 w 1 x 1 + w 2 x 2 + b w_1x_1 + w_2x_2 +b w1x1+w2x2+b与0进行比较的关系也没有任何问题。和sigmoid一样,我们也可以使用阶跃函数来处理”与门“的数据:
def AND(x1,x2):
w1, w2, b = 0.15, 0.15, -0.23 #和sigmoid相似的w和b
z = x1*w1 + x2*w2 + b
y = [int(x) for x in z >= 0]
return y
AND(X[:,0],X[:,1])
y_and
阶跃函数和sigmoid都可以完成二分类的任务。在神经网络的二分类中, g ( z ) g(z) g(z)几乎默认是sigmoid函数,少用阶跃函数,这是由神经网络的解法决定的.
在了解二分类后,我们可以继续将神经网络推广到多分类。逻辑回归通过Many-vs-Many(多对多)和Onevs-Rest(一对多)模式来进行多分类。其中,OvR是指将多个标签类别中的一类作为类别 1 1 1,其他所有类别作为类别 0 0 0,分别建立多个二分类模型,综合得出多分类结果的方法。MvM是指把好几个标签类作为 1 1 1,剩下的几个标签类别作为 0 0 0,同样分别建立多个二分类模型来得出多分类结果的方法。这两种方法非常有效,尤其是在逻辑回归做多分类的问题上能够解决很多问题,但是对于神经网络却不奏效。理由非常简单:
Softmax函数是深度学习基础中的基础,它是神经网络进行多分类时,默认放在输出层中处理数据的函数。假设现在神经网络是用于三分类数据,且三个分类分别是苹果,柠檬和百香果,序号则分别是分类 1、分类2和分类3。则使用softmax函数的神经网络的模型会如下所示:
与二分类一样,我们从网络左侧输入特征,从右侧输出概率,且概率是通过线性回归的结果
z
z
z外嵌套softmax函数来进行计算。在二分类时,输出层只有一个神经元,只输出样本对于正类别的概率(通常是标签为
1
1
1的概率),而softmax的输出层有三个神经元,分别输出该样本的真实标签是苹果、柠檬或百香果的概率。在多分类中,神经元的个数与标签类别的个数是一致的,如果是十分类,在输出层上就会存在十个神经元,分别输出十个不同的概率。此时,样本的预测标签就是所有输出的概率
σ
1
\sigma_1
σ1,
σ
2
\sigma_2
σ2,
σ
3
\sigma_3
σ3中最大的概率对应的标签类别。
那每个概率是如何计算出来的呢?来看Softmax函数的公式:
σ
k
=
S
o
f
t
m
a
x
(
z
k
)
=
e
z
k
∑
K
e
z
\sigma_k = Softmax(z_k) = \frac{e^{z_k}}{\sum^K e^z}
σk=Softmax(zk)=∑Kezezk
其中 e e e为自然常数(约为2.71828), z z z与sigmoid函数中的一样,表示回归类算法(如线性回归)的结果。 K K K表示该数据的标签中总共有 K K K个标签类别,如三分类时 K = 3 K=3 K=3 ,四分类时 K = 4 K=4 K=4 。 k k k表示标签类别 k k k类。很容易可以看出,Softmax函数的分子是多分类状况下某一个标签类别的回归结果的指数函数,分母是多分类状况下所有标签类别的回归结果的指数函数之和,因此Softmax函数的结果代表了样本的结果为类别 k k k的概率。
举个例子,当我们有三个分类,分别是苹果,梨,百香果的时候,样本
i
i
i被分类为百香果的概率
σ
百香果
\sigma_{百香果}
σ百香果为:
σ
百香果
=
σ
百香果
σ
苹果
+
σ
梨
+
σ
百香果
\sigma_{百香果} = \frac{\sigma_{百香果}}{\sigma_{苹果}+\sigma_{梨}+\sigma_{百香果}}
σ百香果=σ苹果+σ梨+σ百香果σ百香果
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。