赞
踩
首先感谢博主:Jack-Cui
主页:http://blog.csdn.net/c406495762
Logistic回归博文地址:
https://blog.csdn.net/c406495762/article/details/77723333
https://blog.csdn.net/c406495762/article/details/77851973#%E4%B8%80-%E5%89%8D%E8%A8%80
这篇博文对书上的内容很形象的进行了表达,通俗易懂,用自己的实例来进行讲解,比书上讲的清楚太多,于是我才开始了学习,感激不尽,真心推荐。
我这篇博文大多从它的博文中摘抄,但也是我一个字一个敲出来的,算法我也是自己算过的,算是学完它的博文的一个总结吧,如果还看不明白的可以直接看他的吧。
明天我会继续按照它的博客学习。
进入正题。
Logistic回归也就是逻辑回归,是许多分类算法中的一员。通常,Logistic回归用于二分类问题,例如预测明天是否会下雨。当然它也可以用于多分类问题,不过为了简单起见,本文暂先讨论二分类问题。首先,让我们来了解一下,什么是Logistic回归。
回归定义:假设现在有一些数据点,我们利用一条直线对这些点进行拟合(该线称为最佳拟合直线),这个拟合过程就叫回归。例如下图:
Logistic回归是一种二分类算法,它利用的是Sigmoid函数(是一种阶跃函数)阈值在[0,1]这个特性。
Logistic回归进行分类的主要思想是:根据现有数据对分类边界线建立回归公式,以此进行分类。
其实,Logistic本质上是一个基于条件概率的判别模型。所以想要了解Logistic回归,我们必须先看一看Sigmoid函数,也可以称他为Logistic函数。公式如下:
整合成一个公式(书P74),如下图所示:
两种尺度坐标下的Sigmoid函数如下图所示:
回到Sigmoid函数,其中z是一个矩阵,θ是参数列向量(要求解的),x是样本列向量(给定的数据集)。θ^T表示矩阵θ的转置矩阵。g(z)函数实现了任意实数到[0,1]的映射,这样我们的数据集([x0,x1,…,xn]),不管是大于1或者小于0,都可以映射到[0,1]区间进行分类。hθ(x)给出了输出为1的概率。比如当hθ(x)=0.7,那么说明有70%的概率输出为1。输出为0的概率是输出为1的补集,也就是30%。
如果我们有合适的参数列向量θ([θ0,θ1,…θn]^T),以及样本列向量x([x0,x1,…,xn]),那么我们对样本x的分类就可以通过上面的式子计算出一个概率,如果这个概率大于0.5,我们就可以说样本是正样本,概率小于0.5,我们就可以说样本是负样本。
举个例子,对于"垃圾邮件判别问题",对于给定的邮件(样本),我们定义非垃圾邮件为正类,垃圾邮件为负类。我们通过计算出的概率值即可判定邮件是否是垃圾邮件。
那么问题来了!如何得到合适的参数向量θ?
根据sigmoid函数的特性,我们可以做出如下假设:
上式即为在已知样本x和参数θ的情况下,样本x属于正样本(y=1)和负样本(y=0)的条件概率。理想状态下,根据上述公式,求出各个点的概率均为1,也就是完全分类都正确。但是考虑到实际情况,样本点的概率越接近于1,其分类效果越好。比如一个样本属于正样本的概率为0.51,那么我们就可以说明这个样本属于正样本。另一个样本属于正样本的概率为0.99,那么我们也可以说明这个样本属于正样本。但是显然,第二个样本概率更高,更具说服力。我们可以把上述两个概率公式合二为一:
合并出来的Cost,我们称之为代价函数。当y等于1时,(1-y)项(第二项)为0;当y等于0时,y项(第一项)为0。为了简化问题,我们对整个表达式求对数,(将指数问题对数化是处理数学问题常见的方法):
这个代价函数,是对于一个样本而言的。给定一个样本,我们就可以通过这个代价函数求出,样本所属类别的概率,而这个概率越大越好,所以也就是求解这个代价函数的最大值。
既然概率出来了,那么最大似然估计也该出场了。假定样本与样本之间相互独立,那么整个样本集生成的概率即为所有样本生成概率的乘积,再将公式对数化,便可得到如下公式:
其中,m为样本的总数量,y(i)表示第i个样本的类别,x(i)表示第i个样本,需要注意的是θ是多维向量,x(i)也是多维向量。
综上所述,满足J(θ)的最大的θ值,即是我们需要求解的模型。
怎么求解使得J(θ)最大的θ值呢?因为是求最大值,所以我们需要使用梯度上升算法。如果面对的问题是求解使J(θ)最小的θ值,那么我们就需要使用梯度下降算法。面对我们这个问题,如果使J(θ) := -J(θ),那么问题就从求极大值转换成求极小值了,使用的算法就从梯度上升算法变成了梯度下降算法,它们的思想都是相同的,学会其一,就也会了另一个。本文使用梯度上升算法进行求解。
那到底什么是梯度上升算法呢?J(θ)太复杂,我们先看个简单的求极大值的例子:
在高中数学中,有函数:
求这个函数的极值?
显然,我们知道这个函数的α<0,开口向下,所以存在一个极大值,图像如下:
我们可以对函数进行求一阶导,有:
然后令这个导数为0,即可以求得当x=2时为函数f(x)的极大值,极大值f(2)=4。
但这只是一个简单的例子,现实情况遇到的函数远比这个复杂,就算我们求出了函数的导数,也很难精确计算出函数的极值。此时我们可以用迭代的方法,就像爬坡一样,一点一点逼近极值。这种寻找最佳拟合参数的方法,就是最优化算法。爬坡这个动作用数学公式表示即为:
其中α是学习频率(learning rate),也就是步长,可以控制迭代更新的幅度,效果图如下:
比如从(0,0)开始,迭代路径就是1->2->3->4->…->n,直到求出的x为函数极大值的近似值,停止迭代。我们可以编写代码来实现。
# -*- coding:UTF-8 -*- """ 函数说明:梯度上升算法测试函数 求函数f(x) = -x^2 + 4x的极大值 """ def Gradient_Ascent_test(): def f_prime(x_old): #f(x)的导数 return -2 * x_old + 4 x_old = -1 #初始值,给一个小于x_new的值 x_new = 0 #梯度上升算法初始值,即从(0,0)开始 alpha = 0.01 #步长,也就是学习速率,控制更新的幅度 presision = 0.00000001 #精度,也就是更新阈值 while abs(x_new - x_old) > presision: x_old = x_new x_new = x_old + alpha * f_prime(x_old) #上面提到的公式 print(x_new) #打印最终求解的极值近似值 if __name__ == '__main__': Gradient_Ascent_test()
结果如下:
由结果我们可以看出,这个值已经非常接近我们的真实极值2了。这个过程,就是梯度上升算法。
那么同理,J(θ)这个函数的极值,也可以这么求解。
公式如下:
从上小节可知J(θ)为:
sigmoid函数为:
那么,现在只需要求出J(θ)的偏导,就可以利用梯度上升算法,求解J(θ)的极大值了。
那么现在开始求解J(θ)对θ的偏导,求解如下(数学推导):
其中:
再由:
可得:
最后:
综上所述:
所以,梯度上升迭代公式为:
知道了,梯度上升迭代公式,我们就可以自己编写代码,计算最佳拟合参数了。
数据集可以去Jack-Cui博主的GitHub上下载,地址为:https://github.com/Jack-Cherish/Machine-Learning/blob/master/Logistic/testSet.txt
数据集如下:
这些数据是两维数据,因此可以将数据集在一个二维平面上展示出来。我们可以将第一列数据(X1)看做x轴上的值,第二列数据(X2)看做y轴上的值。而最后一列数据即为分类标签。根据标签的不同,对这些点进行分类。
我们可以先把数据集在平面上进行显示,代码将正样本与负样本分别用红色与绿色代替
这部分代码如下所示:
# -*- coding:UTF-8 -*- import matplotlib.pyplot as plt import numpy as np """ 函数说明:加载数据 Returns: dataMat - 数据列表 labelMat - 标签列表 """ def loadDataSet(): dataMat = [] #创建数据列表 labelMat = [] #创建标签列表 fr = open('testSet.txt') #打开文件 for line in fr.readlines(): #逐行读取 lineArr = line.strip().split() #去回车,放入列表 dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])]) #添加数据 labelMat.append(int(lineArr[2])) #添加标签 fr.close() #关闭文件 return dataMat, labelMat #返回 """ 函数说明:绘制数据集 """ def plotDataSet(): dataMat, labelMat = loadDataSet() #加载数据集 dataArr = np.array(dataMat) #转换成numpy的array数组 n = np.shape(dataMat)[0] #数据个数 xcord1 = []; ycord1 = [] #正样本 xcord2 = []; ycord2 = [] #负样本 for i in range(n): #根据数据集标签进行分类 if int(labelMat[i]) == 1: xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2]) #1为正样本 else: xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2]) #0为负样本 fig = plt.figure() ax = fig.add_subplot(111) #添加subplot ax.scatter(xcord1, ycord1, s = 20, c = 'red', marker = 's',alpha=.5)#绘制正样本 ax.scatter(xcord2, ycord2, s = 20, c = 'green',alpha=.5) #绘制负样本 plt.title('DataSet') #绘制title plt.xlabel('x'); plt.ylabel('y') #绘制label plt.show() #显示 if __name__ == '__main__': plotDataSet()
结果如下所示:
从上图中可以看出数据的分布情况。
假设Sigmoid函数的输入记为z,那么z=w0x0 + w1x1 + w2x2,即可将数据分割开。其中,x0为全是1的向量,x1为数据集的第一列数据,x2为数据集的第二列数据。
令z=0,则0=w0 + w1x1 + w2x2。横坐标为x1,纵坐标为x2。这个方程未知的参数为w0,w1,w2,也就是我们需要求的回归系数(最优参数)。
在编写代码之前,回顾一下梯度上升迭代公式:
将上述公式矢量化:
根据矢量化的公式,编写代码如下:
# -*- coding:UTF-8 -*- import numpy as np """ 函数说明:加载数据 Returns: dataMat - 数据列表 labelMat - 标签列表 """ def loadDataSet(): dataMat = [] #创建数据列表 labelMat = [] #创建标签列表 fr = open('testSet.txt') #打开文件 for line in fr.readlines(): #逐行读取 lineArr = line.strip().split() #去回车,放入列表 dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])]) #添加数据 labelMat.append(int(lineArr[2])) #添加标签 fr.close() #关闭文件 return dataMat, labelMat #返回 """ 函数说明:sigmoid函数 Parameters: inX - 数据 Returns: sigmoid函数 """ def sigmoid(inX): return 1.0 / (1 + np.exp(-inX)) """ 函数说明:梯度上升算法 Parameters: dataMatIn - 数据集 classLabels - 数据标签 Returns: weights.getA() - 求得的权重数组(最优参数) """ def gradAscent(dataMatIn, classLabels): dataMatrix = np.mat(dataMatIn) #转换成numpy的mat labelMat = np.mat(classLabels).transpose() #转换成numpy的mat,并进行转置 m, n = np.shape(dataMatrix) #返回dataMatrix的大小。m为行数,n为列数。 alpha = 0.001 #移动步长,也就是学习速率,控制更新的幅度。 maxCycles = 500 #最大迭代次数 weights = np.ones((n,1))#创建一个全1矩阵,行数训练数据集的列数,列数为1 for k in range(maxCycles): h = sigmoid(dataMatrix * weights) #梯度上升矢量化公式 error = labelMat - h weights = weights + alpha * dataMatrix.transpose() * error return weights.getA() #将矩阵转换为数组,返回权重数组 if __name__ == '__main__': dataMat, labelMat = loadDataSet() print(gradAscent(dataMat, labelMat))
结果如下:
可知,我们已经求解出了回归系数[w0,w1,w2]
通过求解出的参数,我们就可以确定不同类别数据之间的分隔线,画出决策边界。
我们已经解出了一组回归系数,它确定了不同类别数据之间的分隔线。现在开始绘制这个分隔线,编写代码如下:
# -*- coding:UTF-8 -*- import matplotlib.pyplot as plt import numpy as np """ 函数说明:加载数据 Returns: dataMat - 数据列表 labelMat - 标签列表 """ def loadDataSet(): dataMat = [] #创建数据列表 labelMat = [] #创建标签列表 fr = open('testSet.txt') #打开文件 for line in fr.readlines(): #逐行读取 lineArr = line.strip().split() #去回车,放入列表 dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])]) #添加数据 labelMat.append(int(lineArr[2])) #添加标签 fr.close() #关闭文件 return dataMat, labelMat #返回 """ 函数说明:sigmoid函数 Parameters: inX - 数据 Returns: sigmoid函数 """ def sigmoid(inX): return 1.0 / (1 + np.exp(-inX)) """ 函数说明:梯度上升算法 Parameters: dataMatIn - 数据集 classLabels - 数据标签 Returns: weights.getA() - 求得的权重数组(最优参数) """ def gradAscent(dataMatIn, classLabels): dataMatrix = np.mat(dataMatIn) #转换成numpy的mat labelMat = np.mat(classLabels).transpose() #转换成numpy的mat,并进行转置 m, n = np.shape(dataMatrix) #返回dataMatrix的大小。m为行数,n为列数。 alpha = 0.001 #移动步长,也就是学习速率,控制更新的幅度。 maxCycles = 500 #最大迭代次数 weights = np.ones((n,1)) for k in range(maxCycles): h = sigmoid(dataMatrix * weights) #梯度上升矢量化公式 error = labelMat - h weights = weights + alpha * dataMatrix.transpose() * error return weights.getA() #将矩阵转换为数组,返回权重数组 """ 函数说明:绘制数据集 Parameters: weights - 权重参数数组 """ def plotBestFit(weights): dataMat, labelMat = loadDataSet() #加载数据集 dataArr = np.array(dataMat) #转换成numpy的array数组 n = np.shape(dataMat)[0] #数据个数 xcord1 = []; ycord1 = [] #正样本 xcord2 = []; ycord2 = [] #负样本 for i in range(n): #根据数据集标签进行分类 if int(labelMat[i]) == 1: xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2]) #1为正样本 else: xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2]) #0为负样本 fig = plt.figure() ax = fig.add_subplot(111) #添加subplot ax.scatter(xcord1, ycord1, s = 20, c = 'red', marker = 's',alpha=.5)#绘制正样本 ax.scatter(xcord2, ycord2, s = 20, c = 'green',alpha=.5) #绘制负样本 x = np.arange(-3.0, 3.0, 0.1) y = (-weights[0] - weights[1] * x) / weights[2] ax.plot(x, y) plt.title('BestFit') #绘制title plt.xlabel('X1'); plt.ylabel('X2') #绘制label plt.show() if __name__ == '__main__': dataMat, labelMat = loadDataSet() weights = gradAscent(dataMat, labelMat) plotBestFit(weights)
结果如下图所示:
这个分类结果相当不错,从上图可以看出,只分错了几个点而已。但是,尽管例子简单切数据集很小,但是这个方法却需要大量的计算(300次乘法)。因此下篇文章将对改算法稍作改进,从而减少计算量,使其可以应用于大数据集上。
对梯度上升算法和改进的随机梯度上升算法进行了对比,总结了各自的优缺点。
梯度上升算法在每次更新回归系数(最优参数)时,都需要遍历整个数据集。之前写的梯度上升算法:
def gradAscent(dataMatIn, classLabels):
dataMatrix = np.mat(dataMatIn) #转换成numpy的mat
labelMat = np.mat(classLabels).transpose() #转换成numpy的mat,并进行转置
m, n = np.shape(dataMatrix) #返回dataMatrix的大小。m为行数,n为列数。
alpha = 0.01 #移动步长,也就是学习速率,控制更新的幅度。
maxCycles = 500 #最大迭代次数
weights = np.ones((n,1))
for k in range(maxCycles):
h = sigmoid(dataMatrix * weights) #梯度上升矢量化公式
error = labelMat - h
weights = weights + alpha * dataMatrix.transpose() * error
return weights.getA(),weights_array #将矩阵转换为数组,返回权重数组
假设,我们使用的数据集一共有100个样本。那么,dataMatrix就是一个1003的矩阵。每次计算h的时候,都要计算dataMatrixweights这个矩阵乘法运算,要进行1003次乘法运算和1002次加法运算。同理,更新回归系数(最优参数)weights时,也需要用到整个数据集,要进行矩阵乘法运算。总而言之,该方法处理100个左右的数据集时尚可,但如果有数十亿样本和成千上万的特征,那么该方法的计算复杂度就太高了。
所以需要对原有算法进行改进,我们每次更新回归系数(最优参数)时,能否不用所有样本?一次只用一个样本点去更新回归系数?这样就可以有效的减少计算量了,这种方法就叫做随机梯度上升算法。
直接看代码:
def stocGradAscent1(dataMatrix, classLabels, numIter=150):
m,n = np.shape(dataMatrix) #返回dataMatrix的大小。m为行数,n为列数。
weights = np.ones(n) #参数初始化
for j in range(numIter):
dataIndex = list(range(m))
for i in range(m):
alpha = 4/(1.0+j+i)+0.01 #降低alpha的大小,每次减小1/(j+i)。
randIndex = int(random.uniform(0,len(dataIndex))) #随机选取样本
h = sigmoid(sum(dataMatrix[randIndex]*weights)) #选择随机选取的一个样本,计算h
error = classLabels[randIndex] - h #计算误差
weights = weights + alpha * error * dataMatrix[randIndex] #更新回归系数
del(dataIndex[randIndex]) #删除已经使用的样本
return weights #返回
该算法第一个改进之处在于,alpha在每次迭代的时候都会调整,并且,虽然alpha会随着迭代次数不断减小,但永远不会减小到0,因为这里还存在一个常数项。必须这样做的原因是为了保证在多次迭代之后新数据仍然具有一定的影响。如果需要处理的问题是动态变化的,那么可以适当加大上述常数项,来确保新的值获得更大的回归系数。另一点值得注意的是,在降低alpha的函数中,alpha每次减少1/(j+i),其中j是迭代次数,i是样本点的下标。
第二个改进的地方在于更新回归系数(最优参数)时,只使用一个样本点,并且选择的样本点是随机的,每次迭代不使用已经用过的样本点。这样的方法,就有效地减少了计算量,并保证了回归效果。
代码如下:
# -*- coding:UTF-8 -*- from matplotlib.font_manager import FontProperties import matplotlib.pyplot as plt import numpy as np import random """ 函数说明:加载数据 Returns: dataMat - 数据列表 labelMat - 标签列表 """ def loadDataSet(): dataMat = [] #创建数据列表 labelMat = [] #创建标签列表 fr = open('testSet.txt') #打开文件 for line in fr.readlines(): #逐行读取 lineArr = line.strip().split() #去回车,放入列表 dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])]) #添加数据 labelMat.append(int(lineArr[2])) #添加标签 fr.close() #关闭文件 return dataMat, labelMat #返回 """ 函数说明:sigmoid函数 Parameters: inX - 数据 Returns: sigmoid函数 """ def sigmoid(inX): return 1.0 / (1 + np.exp(-inX)) """ 函数说明:绘制数据集 Parameters: weights - 权重参数数组 """ def plotBestFit(weights): dataMat, labelMat = loadDataSet() #加载数据集 dataArr = np.array(dataMat) #转换成numpy的array数组 n = np.shape(dataMat)[0] #数据个数 xcord1 = []; ycord1 = [] #正样本 xcord2 = []; ycord2 = [] #负样本 for i in range(n): #根据数据集标签进行分类 if int(labelMat[i]) == 1: xcord1.append(dataArr[i,1]); ycord1.append(dataArr[i,2]) #1为正样本 else: xcord2.append(dataArr[i,1]); ycord2.append(dataArr[i,2]) #0为负样本 fig = plt.figure() ax = fig.add_subplot(111) #添加subplot ax.scatter(xcord1, ycord1, s = 20, c = 'red', marker = 's',alpha=.5)#绘制正样本 ax.scatter(xcord2, ycord2, s = 20, c = 'green',alpha=.5) #绘制负样本 x = np.arange(-3.0, 3.0, 0.1) y = (-weights[0] - weights[1] * x) / weights[2] ax.plot(x, y) plt.title('BestFit') #绘制title plt.xlabel('X1'); plt.ylabel('X2') #绘制label plt.show() """ 函数说明:改进的随机梯度上升算法 Parameters: dataMatrix - 数据数组 classLabels - 数据标签 numIter - 迭代次数 Returns: weights - 求得的回归系数数组(最优参数) """ def stocGradAscent1(dataMatrix, classLabels, numIter=150): m,n = np.shape(dataMatrix) #返回dataMatrix的大小。m为行数,n为列数。 weights = np.ones(n) #参数初始化 for j in range(numIter): dataIndex = list(range(m)) for i in range(m): alpha = 4/(1.0+j+i)+0.01 #降低alpha的大小,每次减小1/(j+i)。 randIndex = int(random.uniform(0,len(dataIndex))) #随机选取样本 h = sigmoid(sum(dataMatrix[randIndex]*weights)) #选择随机选取的一个样本,计算h error = classLabels[randIndex] - h #计算误差 weights = weights + alpha * error * dataMatrix[randIndex] #更新回归系数 del(dataIndex[randIndex]) #删除已经使用的样本 return weights #返回 if __name__ == '__main__': dataMat, labelMat = loadDataSet() weights = stocGradAscent1(np.array(dataMat), labelMat) plotBestFit(weights)
结果如下:可以看到分类效果也是不错的。
但是在这个分类的结果中,我们看不出迭代次数与回归系数的关系,也就是不能直观的看到每个回归方法的收敛情况,所以,编写程序绘制出回归系数与迭代次数的关系曲线。
直接看代码:
# -*- coding:UTF-8 -*- from matplotlib.font_manager import FontProperties import matplotlib.pyplot as plt import numpy as np import random """ 函数说明:加载数据 Returns: dataMat - 数据列表 labelMat - 标签列表 """ def loadDataSet(): dataMat = [] #创建数据列表 labelMat = [] #创建标签列表 fr = open('testSet.txt') #打开文件 for line in fr.readlines(): #逐行读取 lineArr = line.strip().split() #去回车,放入列表 dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])]) #添加数据 labelMat.append(int(lineArr[2])) #添加标签 fr.close() #关闭文件 return dataMat, labelMat #返回 """ 函数说明:sigmoid函数 Parameters: inX - 数据 Returns: sigmoid函数 """ def sigmoid(inX): return 1.0 / (1 + np.exp(-inX)) """ 函数说明:梯度上升算法 Parameters: dataMatIn - 数据集 classLabels - 数据标签 Returns: weights.getA() - 求得的权重数组(最优参数) weights_array - 每次更新的回归系数 """ def gradAscent(dataMatIn, classLabels): dataMatrix = np.mat(dataMatIn) #转换成numpy的mat labelMat = np.mat(classLabels).transpose() #转换成numpy的mat,并进行转置 m, n = np.shape(dataMatrix) #返回dataMatrix的大小。m为行数,n为列数。 alpha = 0.01 #移动步长,也就是学习速率,控制更新的幅度。 maxCycles = 500 #最大迭代次数 weights = np.ones((n,1)) weights_array = np.array([]) for k in range(maxCycles): h = sigmoid(dataMatrix * weights) #梯度上升矢量化公式 error = labelMat - h weights = weights + alpha * dataMatrix.transpose() * error weights_array = np.append(weights_array,weights) weights_array = weights_array.reshape(maxCycles,n) return weights.getA(),weights_array #将矩阵转换为数组,并返回 """ 函数说明:改进的随机梯度上升算法 Parameters: dataMatrix - 数据数组 classLabels - 数据标签 numIter - 迭代次数 Returns: weights - 求得的回归系数数组(最优参数) weights_array - 每次更新的回归系数 """ def stocGradAscent1(dataMatrix, classLabels, numIter=150): m,n = np.shape(dataMatrix) #返回dataMatrix的大小。m为行数,n为列数。 weights = np.ones(n) #参数初始化 weights_array = np.array([]) #存储每次更新的回归系数 for j in range(numIter): #150 ,遍历数据集次数 dataIndex = list(range(m)) for i in range(m): #100 回归系数更新次数为100*j alpha = 4/(1.0+j+i)+0.01 #降低alpha的大小,每次减小1/(j+i)。 randIndex = int(random.uniform(0,len(dataIndex))) #随机选取样本 h = sigmoid(sum(dataMatrix[randIndex]*weights)) #选择随机选取的一个样本,计算h error = classLabels[randIndex] - h #计算误差 weights = weights + alpha * error * dataMatrix[randIndex] #更新回归系数 weights_array = np.append(weights_array,weights,axis=0) #添加回归系数到数组中 del(dataIndex[randIndex]) #删除已经使用的样本 weights_array = weights_array.reshape(numIter*m,n) #改变维度 print(len(weights_array)) return weights,weights_array #返回 """ 函数说明:绘制回归系数与迭代次数的关系 Parameters: weights_array1 - 回归系数数组1 weights_array2 - 回归系数数组2 """ def plotWeights(weights_array1,weights_array2): #设置汉字格式 font = FontProperties(fname=r"c:\windows\fonts\simsun.ttc", size=14) #将fig画布分隔成1行1列,不共享x轴和y轴,fig画布的大小为(13,8) #当nrow=3,nclos=2时,代表fig画布被分为六个区域,axs[0][0]表示第一行第一列 fig, axs = plt.subplots(nrows=3, ncols=2,sharex=False, sharey=False, figsize=(20,10)) x1 = np.arange(0, len(weights_array1), 1) #绘制w0与迭代次数的关系 axs[0][0].plot(x1,weights_array1[:,0]) axs0_title_text = axs[0][0].set_title(u'改进的随机梯度上升算法:回归系数与迭代次数关系',FontProperties=font) axs0_ylabel_text = axs[0][0].set_ylabel(u'W0',FontProperties=font) plt.setp(axs0_title_text, size=20, weight='bold', color='black') plt.setp(axs0_ylabel_text, size=20, weight='bold', color='black') #绘制w1与迭代次数的关系 axs[1][0].plot(x1,weights_array1[:,1]) axs1_ylabel_text = axs[1][0].set_ylabel(u'W1',FontProperties=font) plt.setp(axs1_ylabel_text, size=20, weight='bold', color='black') #绘制w2与迭代次数的关系 axs[2][0].plot(x1,weights_array1[:,2]) axs2_xlabel_text = axs[2][0].set_xlabel(u'迭代次数',FontProperties=font) axs2_ylabel_text = axs[2][0].set_ylabel(u'W2',FontProperties=font) plt.setp(axs2_xlabel_text, size=20, weight='bold', color='black') plt.setp(axs2_ylabel_text, size=20, weight='bold', color='black') x2 = np.arange(0, len(weights_array2), 1) #绘制w0与迭代次数的关系 axs[0][1].plot(x2,weights_array2[:,0]) axs0_title_text = axs[0][1].set_title(u'梯度上升算法:回归系数与迭代次数关系',FontProperties=font) axs0_ylabel_text = axs[0][1].set_ylabel(u'W0',FontProperties=font) plt.setp(axs0_title_text, size=20, weight='bold', color='black') plt.setp(axs0_ylabel_text, size=20, weight='bold', color='black') #绘制w1与迭代次数的关系 axs[1][1].plot(x2,weights_array2[:,1]) axs1_ylabel_text = axs[1][1].set_ylabel(u'W1',FontProperties=font) plt.setp(axs1_ylabel_text, size=20, weight='bold', color='black') #绘制w2与迭代次数的关系 axs[2][1].plot(x2,weights_array2[:,2]) axs2_xlabel_text = axs[2][1].set_xlabel(u'迭代次数',FontProperties=font) axs2_ylabel_text = axs[2][1].set_ylabel(u'W2',FontProperties=font) plt.setp(axs2_xlabel_text, size=20, weight='bold', color='black') plt.setp(axs2_ylabel_text, size=20, weight='bold', color='black') plt.show() if __name__ == '__main__': dataMat, labelMat = loadDataSet() weights1,weights_array1 = stocGradAscent1(np.array(dataMat), labelMat) weights2,weights_array2 = gradAscent(dataMat, labelMat) plotWeights(weights_array1, weights_array2)
看到结果如下所示:
前面三个是使用改进后的随机梯度上升算法,可以看到前面的迭代次数是14000,比改进前的迭代次数还要多啊?其实不是的,是因为我们改进的算法里有嵌套for循环,第一个才是真正的迭代次数,也就是150次,内for循环是更新回归系数用的,因为每使用一次样本就会更新一下回归系数,所以,迭代150次就相当于更新回归系数150*100=15000次,也就是说迭代150次,更新1.5万次回归系数。从左侧改进后的梯度上升算法中可以看出,其实在更新2000次回归系数的时候,已经趋于收敛了,也就是相当于遍历整个数据集20次的时候,回归系数已收敛,训练完成。
再让我们看看上图右侧的梯度上升算法回归效果,梯度上升算法每次更新回归系数都要遍历整个数据集。从图中可以看出,当迭代次数为300多次的时候,回归系数才收敛。凑个整,就当它在遍历整个数据集300次的时候已经收敛好了。
没有对比就没有伤害,改进的随机梯度上升算法,在遍历数据集的第20次开始收敛。而梯度上升算法,在遍历数据集的第300次才开始收敛。想像一下,大量数据的情况下,谁更牛逼?
本次实战内容,将使用Logistic回归来预测患疝气病的马的存活问题。
原始数据集http://archive.ics.uci.edu/ml/datasets/Horse+Colic
这里的数据包含了368个样本和28个特征。这种病不一定源自马的肠胃问题,其他问题也可能引发马疝病。该数据集中包含了医院检测马疝病的一些指标,有的指标比较主观,有的指标难以测量,例如马的疼痛级别。另外需要说明的是,除了部分指标主观和难以测量外,该数据还存在一个问题,数据集中有30%的值是缺失的。下面将首先介绍如何处理数据集中的数据缺失问题,然后再利用Logistic回归和随机梯度上升算法来预测病马的生死。
数据中的缺失值是一个非常棘手的问题,很多文献都致力于解决这个问题。那么,数据缺失究竟带来了什么问题?假设有100个样本和20个特征,这些数据都是机器收集回来的。若机器上的某个传感器损坏导致一个特征无效时该怎么办?它们是否还可用?答案是肯定的。因为有时候数据相当昂贵,扔掉和重新获取都是不可取的,所以必须采用一些方法来解决这个问题。下面给出了一些可选的做法:
预处理数据做两件事:
原始的数据集经过处理,保存为两个文件:horseColicTest.txt和horseColicTraining.txt。下载请从书中提供的资料网址自行下载已经处理好的“干净”可用的数据,或参考博主Jack-Cui分享的资料,地址:
有了这些数据集,我们只需要一个Logistic分类器,就可以利用该分类器来预测病马的生死问题了。
我们先用自己写的改进的随机梯度上升算法进行预测。
使用Logistic回归方法进行分类不需要做很多工作,所需要的只是把测试集上的每个特征向量乘以最优化方法得来的回归系数,再将乘积结果求和,最后输入到Sigmoid函数中即可,如果Sigmoid返回值大于0.5就预测类别为1,小于0.5就预测为0。
直接看到代码如下所示:
# -*- coding:UTF-8 -*- import numpy as np import random """ 函数说明:sigmoid函数 Parameters: inX - 数据 Returns: sigmoid函数 """ def sigmoid(inX): return 1.0 / (1 + np.exp(-inX)) """ 函数说明:改进的随机梯度上升算法 Parameters: dataMatrix - 数据数组 classLabels - 数据标签 numIter - 迭代次数 Returns: weights - 求得的回归系数数组(最优参数) """ def stocGradAscent1(dataMatrix, classLabels, numIter=150): m,n = np.shape(dataMatrix) #返回dataMatrix的大小。m为行数,n为列数。 weights = np.ones(n) #参数初始化 #存储每次更新的回归系数 for j in range(numIter): dataIndex = list(range(m)) for i in range(m): alpha = 4/(1.0+j+i)+0.01 #降低alpha的大小,每次减小1/(j+i)。 randIndex = int(random.uniform(0,len(dataIndex))) #随机选取样本 h = sigmoid(sum(dataMatrix[randIndex]*weights)) #选择随机选取的一个样本,计算h error = classLabels[randIndex] - h #计算误差 weights = weights + alpha * error * dataMatrix[randIndex] #更新回归系数 del(dataIndex[randIndex]) #删除已经使用的样本 return weights #返回 """ 函数说明:分类函数 Parameters: inX - 特征向量 weights - 回归系数 Returns: 分类结果 """ def classifyVector(inX, weights): prob = sigmoid(sum(inX*weights)) if prob > 0.5: return 1.0 else: return 0.0 """ 函数说明:使用Python写的Logistic分类器做预测 """ def colicTest(): frTrain = open('horseColicTraining.txt') #打开训练集 frTest = open('horseColicTest.txt') #打开测试集 trainingSet = []; trainingLabels = [] for line in frTrain.readlines(): currLine = line.strip().split('\t') lineArr = [] for i in range(len(currLine)-1): lineArr.append(float(currLine[i])) trainingSet.append(lineArr) trainingLabels.append(float(currLine[-1])) trainWeights = stocGradAscent1(np.array(trainingSet), trainingLabels, 500) #使用改进的随即上升梯度训练 errorCount = 0; numTestVec = 0.0 for line in frTest.readlines(): numTestVec += 1.0 currLine = line.strip().split('\t') lineArr =[] for i in range(len(currLine)-1): lineArr.append(float(currLine[i])) if int(classifyVector(np.array(lineArr), trainWeights))!= int(currLine[-1]): errorCount += 1 errorRate = (float(errorCount)/numTestVec) * 100 #错误率计算 print("测试集错误率为: %.2f%%" % errorRate) if __name__ == '__main__': colicTest()
我们看到结果如下:
我们在运行中,发现耗时是有点长的,并且错误率也高,并且每次运行的错误率也是不同的,错误率高的时候可能达到40%多。为啥这样?首先,因为数据集本身有30%的数据缺失,这个是不能避免的。另一个主要原因是,我们使用的是改进的随机梯度上升算法,因为数据集本身就很小,就几百的数据量。用改进的随机梯度上升算法显然不合适。让我们再试试梯度上升算法,看看它的效果如何?
直接看代码:
# -*- coding:UTF-8 -*- import numpy as np import random """ 函数说明:sigmoid函数 Parameters: inX - 数据 Returns: sigmoid函数 """ def sigmoid(inX): return 1.0 / (1 + np.exp(-inX)) """ 函数说明:梯度上升算法 Parameters: dataMatIn - 数据集 classLabels - 数据标签 Returns: weights.getA() - 求得的权重数组(最优参数) """ def gradAscent(dataMatIn, classLabels): dataMatrix = np.mat(dataMatIn) #转换成numpy的mat labelMat = np.mat(classLabels).transpose() #转换成numpy的mat,并进行转置 m, n = np.shape(dataMatrix) #返回dataMatrix的大小。m为行数,n为列数。 alpha = 0.01 #移动步长,也就是学习速率,控制更新的幅度。 maxCycles = 500 #最大迭代次数 weights = np.ones((n,1)) for k in range(maxCycles): h = sigmoid(dataMatrix * weights) #梯度上升矢量化公式 error = labelMat - h weights = weights + alpha * dataMatrix.transpose() * error return weights.getA() #将矩阵转换为数组,并返回 """ 函数说明:使用Python写的Logistic分类器做预测 """ def colicTest(): frTrain = open('horseColicTraining.txt') #打开训练集 frTest = open('horseColicTest.txt') #打开测试集 trainingSet = []; trainingLabels = [] for line in frTrain.readlines(): currLine = line.strip().split('\t') lineArr = [] for i in range(len(currLine)-1): lineArr.append(float(currLine[i])) trainingSet.append(lineArr) trainingLabels.append(float(currLine[-1])) trainWeights = gradAscent(np.array(trainingSet), trainingLabels) #使用改进的随即上升梯度训练 errorCount = 0; numTestVec = 0.0 for line in frTest.readlines(): numTestVec += 1.0 currLine = line.strip().split('\t') lineArr =[] for i in range(len(currLine)-1): lineArr.append(float(currLine[i])) if int(classifyVector(np.array(lineArr), trainWeights[:,0]))!= int(currLine[-1]): errorCount += 1 errorRate = (float(errorCount)/numTestVec) * 100 #错误率计算 print("测试集错误率为: %.2f%%" % errorRate) """ 函数说明:分类函数 Parameters: inX - 特征向量 weights - 回归系数 Returns: 分类结果 """ def classifyVector(inX, weights): prob = sigmoid(sum(inX*weights)) if prob > 0.5: return 1.0 else: return 0.0 if __name__ == '__main__': colicTest()
运行结果如下:
我们发现,算法的耗时是比随机梯度上升要短的,且错误率比较低,多运行几遍错误率也是比较稳定的。但使用随机梯度上升算法反而得不偿失。所以我们可以得出以下结论:
对应的,在Sklearn中,我们就可以根据数据情况选择优化算法,比如数据较小的时候,我们使用liblinear,数据较大时,我们使用sag和saga。
sklearn.linear_model模块提供了很多模型供我们使用,比如Logistic回归、Lasso回归、贝叶斯脊回归等,可见需要学习的东西还有很多很多。我们使用LogisticRegressioin。
参数就不一一列举了,具体的使用可以参考上面的网址。
直接看代码:
# -*- coding:UTF-8 -*- from sklearn.linear_model import LogisticRegression """ 函数说明:使用Sklearn构建Logistic回归分类器 """ def colicSklearn(): frTrain = open('horseColicTraining.txt') #打开训练集 frTest = open('horseColicTest.txt') #打开测试集 trainingSet = []; trainingLabels = [] testSet = []; testLabels = [] for line in frTrain.readlines(): currLine = line.strip().split('\t') lineArr = [] for i in range(len(currLine)-1): lineArr.append(float(currLine[i])) trainingSet.append(lineArr) trainingLabels.append(float(currLine[-1])) for line in frTest.readlines(): currLine = line.strip().split('\t') lineArr =[] for i in range(len(currLine)-1): lineArr.append(float(currLine[i])) testSet.append(lineArr) testLabels.append(float(currLine[-1])) classifier = LogisticRegression(solver='liblinear',max_iter=10).fit(trainingSet, trainingLabels) test_accurcy = classifier.score(testSet, testLabels) * 100 print('正确率:%f%%' % test_accurcy) if __name__ == '__main__': colicSklearn()
看下结果:
正确率又提高了,我们可以试着更改solver参数,比如设置为sag,使用随机平均梯度下降算法,看看效果。
我们发现出了警告:
显而易见,警告是因为算法还没有收敛。更改max_iter=5000,再运行代码:
可以看到,对于我们这样的小数据集,sag算法需要迭代上千次才收敛,而liblinear只需要不到10次。
还是那句话,我们需要根据数据集情况,选择最优化算法。
Logistic回归的优点与缺点
Logistic回归的一般过程:
Logistic回归的目的是寻找一个非线性函数Sigmoid的最佳拟合参数,求解过程可以由最优化算法完成。
改进的一些最优化算法,比如sag。它可以在新数据到来时就完成参数更新,而不需要重新读取整个数据集来进行批量处理。
机器学习的一个重要问题就是如何处理缺失数据。这个问题没有标准答案,取决于实际应用中的需求。现有一些解决方案,每种方案都各有优缺点。
我们需要根据数据的情况,这是Sklearn的参数,以期达到更好的分类效果。
Logistic回归是机器学习分类算法的一种,用于决策测试数据属于哪一类。首先回归它是一种数据点直线拟合算法,Logistic回归是一种二分类算法,也就是在两个类别中输出测试数据属于哪一个类别。像这样的输出0或1的函数,首先会想到单位阶跃函数,但是单位阶跃函数的跳变速度是非常快的,在这个时间段,我们很难处理,所以我们可以用一个叫Sigmoid函数(它也可以输出0或1)来对这个过程进行分析。然后看到Sigmoid函数,令为g(z)由他的公式可以知道我们只需要控制他的输入量z,就可以改变输出的值,这个值决定了最终输出的结果,如果大于0.5,分类器判定输出结果为1,否则分类为0,输出值越大越好。看到这个输出值越大越好,那就直接联想到极大值,求这个Sigmoid的极大值,可以使用梯度上升的方式进行,然而梯度上升之前我们需要找到一个相对于全局样本的代价函数,Sigmoid函数中的输入集x与θ集都为已知,然后将式子转化一下,成了上面的J(θ),我们如果可以算出J(θ)的极大值,也就可以进行分类操作了,但现在是输入集x已知,但θ集未知,所以要找到J(θ)的极大值,必须在这之前找到能使J(θ)最大的θ集参数,也就是回归系数。我们需要根据确定好代价函数,算出梯度上升迭代公式,进行梯度上升,即可对数据集进行迭代出最佳回归系数。在找到这个系数之后,就可以求得sigmoid函数值,从而对所输出的值进行判断,也就是对样本一一进行分类,然后我们还需要一个评定算法的好坏的机制,也就是测试算法的错误率,我们根据测试数据,把用机器分类出来的结果与测试集的结果进行比较,如果预测错误,那么就计数一次,最后再计算出我们分类器的错误率。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。