当前位置:   article > 正文

机器学习常用模型-线性回归模型详解(简单易懂)

机器学习常用模型-线性回归模型详解(简单易懂)

机器学习

线性回归模型是机器学习常用模型之一,机器学习的本质就是以数据为驱动,自主的从数据中寻找规律的方法,机器学习有如下特点:

  • 更少的人为假设和定义
  • 更灵活的应用
  • 更高的准确度

常见的机器学习方法包括非监督式学习监督式学习半监督式学习强化学习优化

回归

根据已有的数据建立因变量Y与自变量X定量(函数)关系的模型
y = f ( x 1 , x 2 , . . . x n ) y = f(x_{1},x_{2},...x_{n}) y=f(x1,x2,...xn)

线性回归模型函数关系: y = a x + b y=ax+b y=ax+b

非线性回归模型函数关系: y = a x 2 + b x + c y=ax^{2}+bx+c y=ax2+bx+c

回归的应用例子:

  • 在同一城区根据房屋面积预测房价
  • 根据人均GDP预测人均寿命

线性回归模型

在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数,线性回归模型函数关系: y = a x + b y=ax+b y=ax+b

线性回归是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。这是因为线性依赖于其未知参数的模型比非线性依赖于其未知参数的模型更容易拟合,而且产生的估计的统计特性也更容易确定。

线性回归模型求解方法

1.最小二乘法

最小二乘法本质是最小化均方误差,其只适用于线性回归模型求解

均方误差 L o s s = ∑ ( y ‾ − y ) 2 Loss=\sum(\overline{y}-y)^2 Loss=(yy)2,其中 y ‾ = a x + b \overline{y}=ax+b y=ax+b

分别令 ∂ L o s s ∂ a = 0 \frac {\partial Loss}{\partial a}=0 aLoss=0 ∂ L o s s ∂ b = 0 \frac {\partial Loss}{\partial b}=0 bLoss=0

求解参数 a a a b b b

2.梯度下降法

梯度下降法对于回归模型求解具有普适性

损失函数 g ( a , b ) = 1 2 n ∑ ( y ‾ − y ) 2 g(a,b)=\frac {1}{2n}\sum(\overline{y}-y)^2 g(a,b)=2n1(yy)2,其中 y ‾ = a x + b \overline{y}=ax+b y=ax+b

搜索方法: J = f ( p ) J=f(p) J=f(p) = > => => p i + 1 = p i − a ∂ f ( p i ) ∂ p i p_{i+1} =p_{i}-a\frac {\partial f(p_{i})}{\partial p_{i}} pi+1=piapif(pi),其中a为学习速率,通常设置为0.001-0.1

通过多次迭代求得符合条件的a和b

a n e w = a o l d − a ∂ g ( a , b ) ∂ a a_{new} =a_{old}-a\frac {\partial g(a,b)}{\partial a} anew=aoldaag(a,b)
b n e w = b o l d − a ∂ g ( a , b ) ) ∂ b b_{new} =b_{old}-a\frac {\partial g(a,b))}{\partial b} bnew=boldabg(a,b))

项目实战

Python建立多因子线性回归模型预测房价见文章:https://blog.csdn.net/weixin_43308610/article/details/123359324

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/373221
推荐阅读
相关标签
  

闽ICP备14008679号