当前位置:   article > 正文

机器学习笔记——正则化、欠拟合与过拟合_simp和正则化

simp和正则化
欠拟合(underfitting)

高偏差(high bias),曲线不能很好的拟合训练数据。

过拟合(overfitting)

高方差(high variance),通常因为过多的特征导致,曲线能够很准确的拟合训练数据,但是不能泛化到新的数据。

这里写图片描述

解决过拟合问题的方法
  • 减少特征变量数目

    人工选择保留的特征、模型选择算法

  • 正则化

    保留所有特征,但降低θj的数量级

正则化

当假设函数出现过拟合现象,我们可以通过提高某些系数的代价来降低他们的权重值。
比如:
对于假设函数θ0+θ1x+θ2x2+θ3x3+θ4x4,我们想降低θ3x3θ4x4对假设函数的影响,使其更加逼近于一个二次函数,在不舍弃这些特征或者更换假设函数的形式的前提下,可以通过改造代价函数,通过增加θ3θ4在代价函数的代价值,使θ3 θ4趋近于0,达到我们的目的。
如将代价函数修改为这里写图片描述,当最小化代价函数时,θ3 θ4趋向于0
定义新的代价函数这里写图片描述λ是正则化参数,表示这些θ参数膨胀的成本。
使用正则化的代价函数,可以解决过拟合问题,但也要注意λ的取值,过大会出现欠拟合,过小仍不能解决过拟合问题。

线性回归正则化

梯度下降中应用正则化,修改梯度下降的迭代更新公式,除θ0之外的θ值更新时需要加上λmθj,即

Repeat {    θ0:=θ0α 1m i=1m(hθ(x(i))y(i))x0(i)    θj:=θjα [(1m i=1m(hθ(x(i))y(i))xj(i))+λmθj]          j{1,2...n}}

进一步得到 θj:=θj(1αλm)α 1m i=1m(hθ(x(i))y(i))xj(i), 1λm总是小于1,能够直观地看到 θj被缩小。

正规方程正则化修改

θ=(XTX+λL)1XTywhere  L=[0111]

L为n+1阶方阵。
当样本数量m小于特征数量n时,会出现 XTX不可逆的现象,在使用正则化正规方程计算时,当 λ>0 XTX+λL成为可逆矩阵,因此正则化也帮助解决了某些不可逆的问题。

逻辑回归正则化

正则化代价函数
这里写图片描述

注意:
在正则化时没有对偏置项正则化,不包含θ0

梯度下降更新公式修改

Repeat {    θ0:=θ0α 1m i=1m(hθ(x(i))y(i))x0(i)    θj:=θjα [(1m i=1m(hθ(x(i))y(i))xj(i))+λmθj]          j{1,2...n}}

J(θ)θj=(1m i=1m(hθ(x(i))y(i))xj(i))+λmθj

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/688184
推荐阅读
相关标签
  

闽ICP备14008679号