当前位置:   article > 正文

线性回归原理及实现(一):最小二乘法_线性回归最小二乘法 玉米

线性回归最小二乘法 玉米

        线性回归到底要干什么,顾名思义很简单,即在已有数据集上通过构建一个线性的模型来拟合该数据集特征向量的各个分量之间的关系,对于需要预测结果的新数据,我们利用已经拟合好的线性模型来预测其结果。关于线性回归的方法,现在使用得比较广泛的就是梯度下降和最小二乘法;我打算把最小二乘法和梯度下降分两篇博客来写,这篇就来说一说我对线性回归及最小二乘法的理解以及原理实现。

        线性模型在二维空间中就是一条直线,在三维空间是一个平面,高维空间的线性模型不好去描述长什么样子;如果这个数据集能够用一个线性模型来拟合它的数据关系,不管是多少维的数据,我们构建线性模型的方法都是通用的。之前看吴恩达机器学习视频,第一节课讲的就是线性回归算法,课程里面提到了一个非常简单的案例:房屋估价系统。房屋估价系统问题就是当知道房屋面积、卧室个数与房屋价格的对应关系之后,在得知一个新的房屋信息后如何得到对应的新房屋价格,如果我们将房屋面积用x1表示,卧室个数用x2表示,即房屋价格h(x)可以被表示为房屋面积与卧室个数的一维线性方程:

这就是我们所说的线性模型,当然这个案例中只有房屋面积和卧室个数两个特征分量作,现实情况下我们要拟合的模型可能有相当多的特征分量,那么线性模型中对应的权重值θ也会有相同多的数量。为了方便表示我们使用矩阵和向量来表示这些数据:

向量θ(长度为n)中每一个分量都是估计表达式函数h(x)中一个参数,矩阵X(m*n)表示由数据集中每一个样本的特征向量所组成的矩阵。其实这样一个看起来很简单的式子,它的本质经常就是一个规模极其庞大的线性方程组。如果我们用向量Y(长度为m)来表示数据集的实际值,如果用实际值来建立一个方程组,参数向量θ中的每一个值就是我们要求的未知量;大多数情况下建立的是一个超定方程组(没有确定的解),这个时候我们只能求出超定方程组的最优解。通过建立一个损失函数来衡量估计值和实际之间的误差的大小,我们将最小化损失函数作为一个约束条件来求出参数向量的最优解

函数J(θ)即为损失函数,它计算出数据集中每一个样例的估计值和实际值的平方差并求取平均。然后就是我们的最小二乘法登场了,最小二乘法通过数学推导(后面给出证明)可以直接得到一个标准方程,这个标准方程的解就是最优的参数向量。

最小二乘法通过数学推导出标准方程的过程其实非常简单,知乎上有一篇博客https://zhuanlan.zhihu.com/p/22474562写得很详细,这里借鉴一下:

***********************************************************************************************

 

我们定义观测结果y和预测结果y'之间的差别为Rss(和上文提到的J(θ)是一个意思):

Rss = \sum_{i=1}^{n}({y_i-y_i'} )^2= \sum_{i=1}^{n}({y_i-h(x_i)} )^2 = (y-h(X))^T*(y-h(X))

 

设若参数的矩阵为\theta,则h(X)=\theta*X

 

那么Rss  = (y-h(X))^T*(y-h(X)) =  (y-X*\theta)^T*(y-X*\theta)

 

按照我们的定义,这个Rss的意思是y和y'之间的差,那么当Rss无限趋近于0的时候,则y≈y',即我们求得的预测结果就等于实际结果。

 

于是,令Rss等于某一极小值\delta,则(y-X*\theta)^T*(y-X*\theta) ==\delta

 

对参数\theta求导,得:

\frac{d}{d(\theta)}(y-X*\theta)^T*(y-X*\theta)== 2X^T*(y-X*\theta)==0

 

展开,得2X^T*y==2*X^T*X*\theta

 

进而就可以得到\theta ==(X^T*X)^{-1}*X^T*y

 

于是我们就得到正规方程了。

***********************************************************************************************

通过正规方程计算得到最优的参数向量之后,就可以确定线性回归方程了,预测只需要将特征向量代入到回归方程之中,就可以计算出估计值了。

既然弄清了原理,那么实现就会显得非常简单;考虑到这个算法过程中使用矩阵乘法的次数很多,所以我使用了python语言以及调用numpy库来实现线性回归的算法,这里使用了sklearn库中的波士顿房价数据集,代码如下

  1. # coding=utf-8
  2. import numpy as np
  3. import copy
  4. from sklearn.datasets import load_boston#导入博士顿房价数据集
  5. class LinerRegression:
  6. M_x = [] #
  7. M_y = [] #
  8. M_theta = [] # 参数向量
  9. trained = False
  10. def __init__(self):
  11. pass
  12. def regression(self, data, target):
  13. self.M_x = np.mat(data)
  14. # 每个向量添加一个分量1,用来对应系数θ0
  15. fenliang = np.ones((len(data), 1))
  16. self.M_x = np.hstack((self.M_x, fenliang))
  17. self.M_y = np.mat(target)
  18. M_x_T = self.M_x.T # 计算X矩阵的转置矩阵
  19. self.M_theta = (M_x_T * self.M_x).I * M_x_T * self.M_y.T# 通过最小二乘法计算出参数向量
  20. self.trained = True
  21. def predict(self, vec):
  22. if not self.trained:
  23. print("You haven't finished the regression!")
  24. return
  25. M_vec = np.mat(vec)
  26. fenliang = np.ones((len(vec), 1))
  27. M_vec = np.hstack((M_vec, fenliang))
  28. estimate = np.matmul(M_vec,self.M_theta)
  29. return estimate
  30. if __name__ == '__main__':
  31. # 从sklearn的数据集中获取相关向量数据集data和房价数据集target
  32. data, target = load_boston(return_X_y=True)
  33. lr = LinerRegression()
  34. lr.regression(data, target)
  35. # 提取一批样例观察一下拟合效果
  36. test = data[::51]
  37. M_test = np.mat(test)
  38. real = target[::51]#实际数值real
  39. estimate=np.array(lr.predict(M_test))#回归预测数值estimate
  40. #打印结果
  41. for i in range(len(test)):
  42. print("实际值:",real[i]," 估计值:",estimate[i,0])

运行结果如下:

  1. 实际值: 24.0 估计值: 30.00384337701234
  2. 实际值: 20.5 估计值: 23.972222848686908
  3. 实际值: 18.6 估计值: 19.79013683546172
  4. 实际值: 19.4 估计值: 17.28601893611827
  5. 实际值: 50.0 估计值: 43.189498436968506
  6. 实际值: 20.9 估计值: 21.69580886553699
  7. 实际值: 33.4 估计值: 35.56226856966656
  8. 实际值: 21.7 估计值: 22.7180660747829
  9. 实际值: 17.2 估计值: 13.707563692104959
  10. 实际值: 20.0 估计值: 18.512476092919883

绝大多数样例通过线性回归模型预测的结果与真实结果十分接近,但是存在有一定的误差,可以接受。

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/天景科技苑/article/detail/751080
推荐阅读
相关标签
  

闽ICP备14008679号