当前位置:   article > 正文

吴恩达机器学习系列二(分类问题 / 正则化)_分类问题规则化

分类问题规则化

分类问题(Logistic回归模型)

Logistic函数 / Sigmoid函数

h θ ( x ) = 1 1 + e − θ T x h_{\theta}(x)=\frac{1}{1+e^{-\theta^{T} x}} hθ(x)=1+eθTx1

在这里插入图片描述

h θ ( x ) h_{\theta}(x) hθ(x):输入某个x,当y为1时的概率估计

举例:

如果在这里插入图片描述

h θ ( x ) = 0.7 h_{\theta}(x)=0.7 hθ(x)=0.7

那么肿瘤有70%的可能性为恶性肿瘤

h θ ( x ) = P ( y = 1 ∣ x ; θ ) h_{\theta}(x)=P(y=1|x;\theta) hθ(x)=P(y=1x;θ) 在给定x的条件下y=1的概率,这个概率的参数是θ

决策界限

Logistic 回归

h θ ( x ) = g ( θ T x ) h_{\theta}(x)=g(\theta^{T}x) hθ(x)=g(θTx)

g ( z ) = 1 1 + e − z g(z)=\frac{1}{1+e^{-z}} g(z)=1+ez1

θ T x < 0 \theta^{T}x<0 θTx<0 z < 0 z<0 z<0)时, h θ ( x ) h_{\theta}(x) hθ(x)<0.5,此时预测y=0

决策边界: h θ ( x ) = 0.5 h_{\theta}(x)=0.5 hθ(x)=0.5时对应的直线

在这里插入图片描述
首先用训练集数据拟合 θ \theta θ,之后就可以确定决策边界

代价函数

Logistic回归的代价函数:

J ( θ ) = 1 m ∑ i = 1 m C o s t ( h θ ( x ( i ) ) , y ( i ) ) J(\theta)=\frac{1}{m}\sum ^{m}_{i=1}Cost(h_{\theta}(x^{(i)}),y^{(i)}) J(θ)=m1i=1mCost(hθ(x

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/663600
推荐阅读
相关标签
  

闽ICP备14008679号