当前位置:   article > 正文

吴恩达2022机器学习专项课程(一) 第二周课程实验:多元线性回归(Lab_02)

吴恩达2022机器学习专项课程(一) 第二周课程实验:多元线性回归(Lab_02)

1.训练集

使用Numpy数组存储数据集。
在这里插入图片描述

2.打印数组

打印两个数组的形状和数据。
在这里插入图片描述

3.初始化w,b

为了演示,w,b预设出接近最优解的值。w是一个一维数组,w个数对应特征个数。
在这里插入图片描述

4.非向量化计算多元线性回归函数

使用for循环,计算每个w和x的乘积。
在这里插入图片描述
在这里插入图片描述

5.向量化计算多元线性回归函数

使用Numpy的dot方法,一行代码实现每个w和x的乘积。
在这里插入图片描述
在这里插入图片描述

5.向量化计算多元线性回归的成本函数

每一组训练样本的预测值,都使用np.dot()+b。
在这里插入图片描述

6.计算多元线性回归的成本函数的梯度

第一层循环,计算每组训练样本的误差。第二层循环,遍历并计算每组训练样本的n个特征。
在这里插入图片描述

  • 第二层循环有点绕,只需要记住,我们要计算多个w,有几个特征列,就要计算几个w。如果有4个特征列,则需要通过公式,分别计算并更新w1,w2,w3,w4。dj_dw数组保存的就是这4个w。dj_dw里最终保存的内容,是计算一次梯度后,w1,w2,w3,w4的值是多少。X[i,j]对应第i行训练样本里的第j个特征。
    在这里插入图片描述

7.运行梯度下降函数

这里的w是向量化操作,w的第一个元素减去α乘以dj_dw的第一个元素,然后更新到w的第一个元素。
里面的计算可以形象化为: [w1 - (alpha * dj_dw[0]), w2 - (alpha * dj_dw2[1])…]
在这里插入图片描述

8.运行梯度下降

执行梯度下降计算出w,b,使用w,b,通过训练集计算预测,发现与训练集的真实数据误差较大。
在这里插入图片描述

9.可视化迭代次数和成本函数

第一张图,迭代一开始,注意Y轴,成本函数的值就迅速降到750以下,。
第二张图细化了第一张图的直线部分,注意Y轴,迭代一开始,成本函数696开始缓慢下降,下降幅度变小。
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/384245
推荐阅读
相关标签
  

闽ICP备14008679号