赞
踩
公式如下:
L ( θ ) = ∏ i = 1 m P ( y i ∣ x i ; θ ) = ∏ i = 1 m ( h θ ( x i ) ) y i ( 1 − h θ ( x i ) ) 1 − y i L(\theta) = \prod_{i=1}^m P(y_i | x_i; \theta) = \prod_{i=1}^m (h_\theta(x_i))^{y_i} (1 - h_\theta(x_i))^{1 - y_i} L(θ)=i=1∏mP(yi∣xi;θ)=i=1∏m(hθ(xi))yi(1−hθ(xi))1−yi
L ( θ ) L(\theta) L(θ):似然函数,表示给定参数 θ \theta θ 的情况下,观测到数据的概率。
∏ i = 1 m \prod_{i=1}^m ∏i=1m:累乘符号,表示从 i = 1 i = 1 i=1 到 i = m i = m i=m 的所有项的乘积。
P ( y i ∣ x i ; θ ) P(y_i | x_i; \theta) P(yi∣xi;θ):在给定输入 x i x_i xi 和参数 θ \theta θ 的情况下,输出 y i y_i yi 的概率。
h θ ( x i ) h_\theta(x_i) hθ(xi):逻辑回归模型的预测函数,给定输入 x i x_i xi 和参数 θ \theta θ 的情况下,预测输出 y i = 1 y_i = 1 yi=1 的概率。通常表示为:
h θ ( x i ) = 1 1 + e − θ T x i h_\theta(x_i) = \frac{1}{1 + e^{-\theta^T x_i}} hθ(xi)=1+e−θTxi1
y i y_i yi:第 i i i 个样本的实际标签,取值为0或1。
1 − y i 1 - y_i 1−yi:第 i i i 个样本实际标签的补集。
似然函数:
条件概率:
联合概率:
对数似然:
在实际计算中,通常会取对数来简化计算。取对数之后,乘积会变成和,对数似然函数为:
log L ( θ ) = ∑ i = 1 m [ y i log ( h θ ( x i ) ) + ( 1 − y i ) log ( 1 − h θ ( x i ) ) ] \log L(\theta) = \sum_{i=1}^m [y_i \log(h_\theta(x_i)) + (1 - y_i) \log(1 - h_\theta(x_i))] logL(θ)=i=1∑m[yilog(hθ(xi))+(1−yi)log(1−hθ(xi))]
我们有如下的似然函数(Likelihood function):
L ( θ ) = ∏ i = 1 m P ( y i ∣ x i ; θ ) = ∏ i = 1 m ( h θ ( x i ) ) y i ( 1 − h θ ( x i ) ) 1 − y i L(\theta) = \prod_{i=1}^m P(y_i | x_i; \theta) = \prod_{i=1}^m (h_\theta(x_i))^{y_i} (1 - h_\theta(x_i))^{1 - y_i} L(θ)=i=1∏mP(yi∣xi;θ)=i=1∏m(hθ(xi))yi(1−hθ(xi))1−yi
我们需要将其转换成对数似然函数(Log-Likelihood function)。
由于对数具有将乘积转化为和的性质,即 log ( a ⋅ b ) = log ( a ) + log ( b ) \log(a \cdot b) = \log(a) + \log(b) log(a⋅b)=log(a)+log(b),我们对似然函数取对数:
log L ( θ ) = log ( ∏ i = 1 m ( h θ ( x i ) ) y i ( 1 − h θ ( x i ) ) 1 − y i ) \log L(\theta) = \log \left( \prod_{i=1}^m (h_\theta(x_i))^{y_i} (1 - h_\theta(x_i))^{1 - y_i} \right) logL(θ)=log(i=1∏m(hθ(xi))yi(1−hθ(xi))1−yi)
将累乘号 ∏ \prod ∏ 转换为累加号 ∑ \sum ∑:
log L ( θ ) = ∑ i = 1 m log ( ( h θ ( x i ) ) y i ( 1 − h θ ( x i ) ) 1 − y i ) \log L(\theta) = \sum_{i=1}^m \log \left( (h_\theta(x_i))^{y_i} (1 - h_\theta(x_i))^{1 - y_i} \right) logL(θ)=i=1∑mlog((hθ(xi))yi(1−hθ(xi))1−yi)
对数的另一个性质是 log ( a b ) = b ⋅ log ( a ) \log(a^b) = b \cdot \log(a) log(ab)=b⋅log(a),我们将其应用于每一项:
log L ( θ ) = ∑ i = 1 m [ y i log ( h θ ( x i ) ) + ( 1 − y i ) log ( 1 − h θ ( x i ) ) ] \log L(\theta) = \sum_{i=1}^m \left[ y_i \log(h_\theta(x_i)) + (1 - y_i) \log(1 - h_\theta(x_i)) \right] logL(θ)=i=1∑m[yilog(hθ(xi))+(1−yi)log(1−hθ(xi))]
上面的公式就是对数似然函数:
l ( θ ) = log L ( θ ) = ∑ i = 1 m [ y i log ( h θ ( x i ) ) + ( 1 − y i ) log ( 1 − h θ ( x i ) ) ] l(\theta) = \log L(\theta) = \sum_{i=1}^m \left[ y_i \log(h_\theta(x_i)) + (1 - y_i) \log(1 - h_\theta(x_i)) \right] l(θ)=logL(θ)=i=1∑m[yilog(hθ(xi))+(1−yi)log(1−hθ(xi))]
将似然函数转换为对数似然函数的过程利用了对数的基本性质:对数将乘法转换为加法,并将指数转换为乘法。这种转换简化了复杂的乘积运算,使得梯度计算和优化问题变得更容易处理。对数似然函数在机器学习算法中尤为常用,尤其是逻辑回归中,用于最大化似然估计(MLE)。
该公式描述了逻辑回归的似然函数,表示在给定参数 θ \theta θ 的情况下,观测到数据集的概率。理解这些符号和公式的含义是逻辑回归的重要基础,进一步的优化和参数估计都是基于这个似然函数进行的。通过最大化似然函数或最小化负对数似然函数,我们可以找到最优的参数 θ \theta θ。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。