当前位置:   article > 正文

吴恩达2022机器学习专项课程(一) 4.5 线性回归的梯度下降

吴恩达2022机器学习专项课程(一) 4.5 线性回归的梯度下降

问题预览/关键词

  1. 本节内容
  2. 梯度下降公式
  3. 梯度下降公式的推导过程
  4. 梯度下降在线性回归误差平方成本函数的收敛
  5. 梯度下降在多曲面的收敛

笔记

1.本节内容

给线性回归模型的误差平方成本函数执行梯度下降。

2.梯度下降公式

线性回归下误差成本函数的梯度下降公式。在这里插入图片描述

3.梯度下降公式的推导过程

J对w求导的过程。在这里插入图片描述
J对b求导的过程。在这里插入图片描述

4.误差平方成本函数

3.5课节展示的倒扣碗状,是线性回归的误差平方成本函数,也叫做凸函数,只有一个最小值。因此对这个函数执行梯度下降,只要学习率选择合适,梯度下降总是在全局最小值的时刻收敛。在这里插入图片描述

5.多曲面

3.5课节展示的多曲面形状,是其它类型的成本函数,有多个局部最小值,因此梯度下降的收敛情况不同。在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/351204
推荐阅读
相关标签
  

闽ICP备14008679号