赞
踩
在机器学习中,逻辑回归是一种用于二分类问题的线性回归的扩展。逻辑回归的成本函数是用来评估模型预测结果与实际结果之间差异的函数
逻辑回归的成本函数是交叉熵损失(Cross-Entropy Loss)的一种形式,它由两部分组成:正例的损失和负例的损失
损失(loss)函数定义为:
loss
(
y
,
y
^
)
=
−
y
log
(
y
^
)
−
(
1
−
y
)
log
(
1
−
y
^
)
\text{loss}(y, \hat{y}) = -y \log(\hat{y}) - (1 - y) \log(1 - \hat{y})
loss(y,y^)=−ylog(y^)−(1−y)log(1−y^)
其中:
逻辑函数(也称为sigmoid函数)定义为:
y
^
=
σ
(
z
)
=
1
1
+
e
−
z
\hat{y} = \sigma(z) = \frac{1}{1 + e^{-z}}
y^=σ(z)=1+e−z1
其中:
将上述损失函数应用于整个训练集,得到成本函数(Cost Function):
J
(
θ
)
=
1
m
∑
i
=
1
m
loss
(
y
(
i
)
,
y
^
(
i
)
)
J(\theta) = \frac{1}{m} \sum_{i=1}^{m} \text{loss}(y^{(i)}, \hat{y}^{(i)})
J(θ)=m1i=1∑mloss(y(i),y^(i))
其中:
import numpy as np
%matplotlib widget
import matplotlib.pyplot as plt
from lab_utils_common import plot_data, sigmoid, dlc
plt.style.use('./deeplearning.mplstyle')
我们从决策边界实验中使用的数据集开始
X_train = np.array([[0.5, 1.5], [1,1], [1.5, 0.5], [3, 0.5], [2, 2], [1, 2.5]]) #(m,n)
y_train = np.array([0, 0, 0, 1, 1, 1]) #(m,)
我们将使用一个辅助函数来绘制这些数据。标签为声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。