赞
踩
线性:利用算法生成的模型是一条直线。
回归:让数据聚集到一个特定的模型中。
线性回归:如果模型是一条直线,就是让数据靠近这条直线。
自我理解:
是一个回归算法,其中,回归指的是预测一个连续的,没有间断的值(可以想象成一条直线)
公式:y = w0x0 + w1x1 + … + wnxn 其中,w指的是权重值,我们有时候用theta来代替,n指的是特征的数量,比如我们预测房价,特征有房屋面积, 卧室数量,那么n=2,x0 = 1, 这个是为了计算时方便。w0是截距,也就是如果y是一条之间,截距就是这条直线和y相交是:从0到交点的距离。….wn指的是系数,也即是每一个特征对应的权重(如果某一 个特征对输出值y的影响较大,那么这个权重值就高,反之就低)
线性回归的求解步骤(如何运用这个公式):
第一步:初始化w0…wn的值
第二步:把我们的训练数据,带入这个公式里,求出y_hat(), 这个y_hat就是我们的预测值;我们的目的是为了让预测值无限接近于真实值
第三步:求损失函数:一个公式来衡量预测值和真实值的差距,在线性回归中,这个函数叫做 MSE(均方误差)
第四步:设法让损失函数最低。让损失函数最低的方法有很多种,最常用的就是梯度下降。梯度下降的意义:对于损失函数来说,在某一个很小的区间范围之内,让权重值,顺着损失函数下降的方向移动那么一小步。
小扩展:
梯度下降公式:其中, a表示的是学习率
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。