赞
踩
前面几篇文章里面我们介绍了求解线性回归模型第一个算法 梯度下降算法
,梯度下降算法最核心的是找到一个学习速率α,通过不断的迭代最终找到θ0 ... θn, 使得J(θ)值最小。
今天我们要介绍一个解决线性回归模型新的算法 正规方程
对于函数f(x) = ax^2 + bx + c 而言,要求其最小值,是对其求导数并且设置导数值为0.
我们知道,多维特征变量的线性回归模型中,代价函数表达式,如下图所示
扩展到n+1个参数θ0 ... θn,求函数J(θ)也可以对每个参数求导并另导数为0
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。