赞
踩
线性回归和逻辑回归是机器学习中的两种算法,它们的目的都是在已知的数据中,建立模型,然后预测/分类新的数据。
将y作为因变量,x作为自变量,得到方程:
当给定参数
上图中有两条直线看起来都可以拟合数据点,那么我们要选择哪条直线呢?此时就需要一个评判标准来选择哪条直线是最合适的。这个评判标准就是损失函数。
机器学习中的回归问题常用的损失函数是残差平方和,即SSE(Sum of Squares for Error),也叫欧氏距离。表达式如下:
即真实值和预测值间的差值。当损失函数值最小时,
一元二次方程图像如下所示:
上式中存在两个未知数,因此为二元二次方程,其三维图像如下所示:
对于这类凸函数,局部最优解即为全局最优解。使用最小二乘法计算得到
以上举的例子是一维的例子(x只有一个),如果有两个特征,就是二元线性回归,要拟合的就是二维空间中的一个平面。如果有多个特征,那就是多元线性回归:
对于多元线性回归问题,通常不能通过另导数等于零的方式计算得到极值,因为深度学习中的模型很复杂,计算量很大。从计算机的角度来讲,求极值是利用梯度下降法。
参考文章:https://blog.csdn.net/jiaoyangwm/article/details/81139362
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。