赞
踩
有监督学习可以分为两类:判别模型和生成模型
,我们所熟悉的神经网络,支持向量机和logistic regression,决策树等都是判别模型。而朴素贝叶斯和隐马尔可夫模型则属于生成式模型
判别式模型由数据直接学习 P ( y ∣ x ) P(y|x) P(y∣x)来预测 y y y
生成式模型先对联合概率 P ( x , y ) P(x,y) P(x,y)建模(由数据学习联合概率分布 P ( x , y ) P(x,y) P(x,y)),由此求得 P ( y ∣ x ) P(y|x) P(y∣x)
以分类问题为例,我们会对每个类别建一个模型,有多少个类别,就建立多少个模型。
生成式模型: P ( Y ∣ X ) = P ( X , Y ) P ( X ) P(Y|X)=\frac{P(X,Y)}{P(X)} P(Y∣X)=P(X)P(X,Y) (贝叶斯公式)
典型的生成式模型有,朴素贝叶斯模型、隐马尔可夫模型(HMM)
为什么朴素贝叶斯是生成式模型?
我的笔记:朴素贝叶斯原理
因为朴素贝叶斯是这样计算的, P ( Y ∣ X ) = P ( X , Y ) P ( X ) P(Y|X)=\frac{P(X,Y)}{P(X)} P(Y∣X)=P(X)P(X,Y),它仍然是想办法算 P ( x , y ) P(x,y) P(x,y),只不过这个联合分布没法直接算,因为 x i x_i xi与 y y y不独立,所以 P ( x 1 , x 2 , . . x n , y ) ≠ P ( x 1 ) P ( x 2 ) ⋯ P ( y ) P(x_1,x_2,..x_n,y)\neq P(x_1)P(x_2)\cdots P(y) P(x1,x2,..xn,y)=P(x1)P(x2)⋯P(y)。
为了解决联合分布没法算的问题,朴素贝叶斯先是利用贝叶斯定理对公式进行了转换
P
(
Y
∣
X
)
=
P
(
X
,
Y
)
P
(
X
)
=
P
(
X
∣
Y
)
P
(
Y
)
P
(
X
)
P(Y|X)=\frac{P(X,Y)}{P(X)}=\frac{P(X|Y)P(Y)}{P(X)}
P(Y∣X)=P(X)P(X,Y)=P(X)P(X∣Y)P(Y),然后假设不同
x
i
x_i
xi关于
y
y
y条件独立,因此
P
(
Y
∣
X
)
=
P
(
X
,
Y
)
P
(
X
)
=
P
(
X
∣
Y
)
P
(
Y
)
P
(
X
)
=
P
(
x
1
∣
Y
)
P
(
x
2
∣
Y
)
⋯
P
(
x
n
∣
Y
)
P
(
Y
)
P
(
X
)
P(Y|X)=\frac{P(X,Y)}{P(X)}=\frac{P(X|Y)P(Y)}{P(X)}=\frac{P(x1|Y)P(x2|Y)\cdots P(x_n|Y)P(Y)}{P(X)}
P(Y∣X)=P(X)P(X,Y)=P(X)P(X∣Y)P(Y)=P(X)P(x1∣Y)P(x2∣Y)⋯P(xn∣Y)P(Y)
此时所有的概率都是可以算的(用对应的频率替代)
本小节内容摘自知乎 Microstrong 的文章
不管是生成式模型还是判别式模型,它们最终的判断依据都是条件概率 P ( Y ∣ X ) P(Y|X) P(Y∣X),但是生成式模型先计算了联合概率 P ( X , Y ) P(X,Y) P(X,Y),再由贝叶斯公式计算得到条件概率。因此,生成式模型可以体现更多数据本身的分布信息,其普适性更广。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/318122
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。