当前位置:   article > 正文

线性回归模型_一个自变量多个因变量线性回归模型

一个自变量多个因变量线性回归模型

之前的线性回归模型预测波士顿房价的主要是利用Python的库函数来,也就是调包的。试考完了,就开始从头学了。这个逻辑似乎有点奇怪,不过因为平时做实验都是调包总觉得味同嚼蜡,不够味道。

回到正题。线性回归是利用线性函数对自变量与因变量建立线性组合关系的回归分析。

一个自变量对应一个因变量,则是一元线性回归;多个自变量则是多元线性回归

也就是使得输入数据集D中的数据x满足f_\theta(\textbf{x})=\sum_{i=0}^{n}\theta_ix_i=\textbf{$\theta$}^T\textbf{x}其中\theta_i就是线性回归模型的参数(超参数)。

线性回归的目标就是使得\forall(\textbf{x}^{(i)},y^{(i)})\in D, f_\theta(x^{(i)})\simeq y^{(i)} 恒成立。

不过,在计算过程中总会有数据不是完全满足线性的要求,但是又要使得尽可能多的数据符合线性回归模型,使得预测值f_\theta(\textbf{x}^{(i)})尽可能接近真实值y^{(i)}

于是就要求有损失函数,来使得输入数据利用线性回归模型预测更加准确。主要的做法就是利用方差来计算预测值与真实值之间的“差距”,尽可能降低方差,也就是选取输入数据中更加符合线性关系的数据来构建线性回归模型。

损失函数Loss:J(\theta)=\frac{1}{2m}\sum_{i=1}^{m}[f_\theta(x^{(i)})-y^{(i)}]^2  (此处2n是方便求导),

也就是求\theta = arg \min \limits_{\theta}J(\theta)

具体计算就是利用梯度下降的方法来计算:\theta_j := \theta_j - \alpha \frac{\partial}{\partial \theta_j}J(\theta).

其中α为学习率,用来表示迭代时α的更新速度。这样每次迭代就使得的Loss越来越小,即收敛。

这里选用MBGD(Mini Batch Gradient Descent)批尺寸梯度下降算法。

m为 data size,n 为Mini Batch size,则上述梯度下降公式计算如下:

MBGD算法的基本思想:将训练集随机样本划分成n个等分小样本,每次迭代遍历每个小样本,计算小批量样本的梯度平均值,并根据计算的平均值调整超参数θ。

Python代码部分:

MBGD算法

  1. def MBGD(self,alpha,batch_size):
  2. """
  3. 这是利用MBGD算法进行一次迭代调整参数的函数
  4. :param alpha: 学习率
  5. :param batch_size: 小样本规模
  6. """
  7. # 首先将数据集随机打乱,减小数据集顺序对参数调优的影响
  8. shuffle_sequence = self.Shuffle_Sequence()
  9. self.InputData = self.InputData[shuffle_sequence]
  10. self.Result = self.Result[shuffle_sequence]
  11. # 遍历每个小批量样本
  12. for start in np.arange(0, len(shuffle_sequence), batch_size):
  13. # 判断start+batch_size是否大于数组长度,
  14. # 防止最后一组小样本规模可能小于batch_size的情况
  15. end = np.min([start + batch_size, len(shuffle_sequence)])
  16. # 获取训练小批量样本集及其标签
  17. mini_batch = shuffle_sequence[start:end]
  18. Mini_Train_Data = self.InputData[mini_batch]
  19. Mini_Train_Result = self.Result[mini_batch]
  20. # 定义梯度增量数组
  21. gradient_increasment = []
  22. # 对小样本训练集进行遍历,利用每个小样本的梯度增量的平均值对模型参数进行更新
  23. for (data,result) in zip(Mini_Train_Data,Mini_Train_Result):
  24. # 计算每组input_data的梯度增量,并放入梯度增量数组
  25. g = (result - data.dot(self.Theta)) * data
  26. gradient_increasment.append(g)
  27. # 按列计算每组小样本训练集的梯度增量的平均值,并改变其形状
  28. avg_g = np.average(gradient_increasment, 0)
  29. avg_g = avg_g.reshape((len(avg_g), 1))
  30. # 更新模型参数theta
  31. self.Theta = self.Theta + alpha * avg_g

MBGD训练

  1. def train_MBGD(self,iter,batch_size,alpha):
  2. """
  3. 这是利用MBGD算法迭代优化的函数
  4. :param iter: 迭代次数
  5. :param batch_size: 小样本规模
  6. :param alpha: 学习率
  7. """
  8. # 定义训练损失数组,记录每轮迭代的训练数据集的训练损失
  9. Cost = []
  10. # 开始进行迭代训练
  11. for i in range(iter):
  12. # 利用学习率alpha,结合MBGD算法对模型进行训练
  13. self.MBGD(alpha,batch_size)
  14. # 记录每次迭代的训练损失
  15. Cost.append(self.Cost())
  16. Cost = np.array(Cost)
  17. return Cost

对训练数据进行测试:

  1. def test(self,test_data):
  2. """
  3. 这是对测试数据集的线性回归预测函数
  4. :param test_data: 测试数据集
  5. """
  6. # 定义预测结果数组
  7. predict_result = []
  8. # 对测试数据进行遍历
  9. for data in test_data:
  10. # 预测每组data的结果
  11. predict_result.append(self.predict(data))
  12. predict_result = np.array(predict_result)
  13. return predict_result

对测试数据进行预测

  1. def predict(self,data):
  2. """
  3. 这是对一组测试数据预测的函数
  4. :param data: 测试数据
  5. """
  6. # 对测试数据加入1维特征,以适应矩阵乘法
  7. tmp = [1.0]
  8. tmp.extend(data)
  9. data = np.array(tmp)
  10. # 计算预测结果,计算结果形状为(1,),为了分析数据的方便
  11. # 这里只返矩阵的第一个元素
  12. predict_result = data.dot(self.Theta)[0]
  13. return predict_result

参考资料:

[1]《机器学习入门——基于数学原理的Python实战》

[2]https://github.com/Daipuwei/Introduction-to-Machine-Learning-Based-on-Mathematical-Principles-with-Python/tree/master/

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/127971
推荐阅读
相关标签
  

闽ICP备14008679号