当前位置:   article > 正文

吴恩达2022机器学习专项课程(一)7.3 逻辑回归的梯度下降 & 实验:逻辑回归的梯度下降(C1_W3_Lab06)

吴恩达2022机器学习专项课程(一)7.3 逻辑回归的梯度下降 & 实验:逻辑回归的梯度下降(C1_W3_Lab06)

逻辑回归的梯度下降算法公式

多元线性回归一样,有几个特征,就要同时计算几个wj。
在这里插入图片描述

计算梯度下降的导数项

在这里插入图片描述

逻辑回归和线性回归的梯度下降算法区别

从梯度下降算法的形式上看,似乎没有区别。但是用于计算的f(x)函数不同,因此它们是不同的算法。
在这里插入图片描述

逻辑回归和线性回归在梯度下降算法的通用之处

检测梯度下降收敛

检测梯度下降收敛的方法一致,详见5.7(检测梯度下降是否收敛)。

向量化操作

都可以向量化操作,详见课后实验代码。

特征缩放

都可以使用特征缩放,加快逻辑回归的梯度下降。

实验

创建训练集并绘制散点图

在这里插入图片描述

计算梯度下降的导数项

  • 公式
    在这里插入图片描述
  • 计算过程解析详见第二周课后实验的Lab02。
    在这里插入图片描述
  • 调用函数,执行一次梯度下降。在这里插入图片描述

运行梯度下降

  • 公式在这里插入图片描述
  • 根据公式编写函数
    在这里插入图片描述
  • 调用函数,计算出w,b。在这里插入图片描述

根据w,b构建决策边界

决策边界能够很好的将训练集的数据分类,证明计算出的w,b很合适。
在这里插入图片描述

可视化理解成本函数和梯度下降迭代(单特征)

  • 点击右上方等高线图,可以修改w,b,然后点击右下角的橘色按钮运行梯度下降,观察四张图的变化。
    可视化方式帮助用户理解逻辑回归的成本函数,以及如何通过梯度下降算法找到能够最小化成本函数的参数值
  • w,b离等高线图越远,模型预测效果越差,因此左上方的逻辑回归模型对于每个训练集数据的损失越大。在这里插入图片描述

总结

本节主要讲述了如何计算逻辑回归的梯度下降,并演示了如何用Python实现。逻辑回归和线性回归的梯度下降算法很相似,但因为它们的f(x)不同,因此也是不同的算法。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/537266
推荐阅读
相关标签
  

闽ICP备14008679号