赞
踩
终于到了贝叶斯估计这章了,贝叶斯估计在我心中一直是很重要的地位,不过发现书中只用了不到10页介绍这一章,深度内容后,发现贝叶斯估计的基础公式确实不多,但是由于正态分布在生活中的普遍性,贝叶斯估计才应用的非常多吧!
默认输入变量用 X X X表示,输出变量用 Y Y Y表示
概率公式描述:
P ( X = x ) P(X=x) P(X=x):表示当 X = x X=x X=x时的概率
P ( X = x ∣ Y = c k ) P(X=x|Y=c_k) P(X=x∣Y=ck):表示当 Y = c k Y=c_k Y=ck时, X = x X=x X=x的概率
贝叶斯法则: P ( Y i ∣ X ) = P ( X ∣ Y i ) P ( Y i ) ∑ j P ( X ∣ Y j ) P ( Y j ) P(Y_i|X)=\frac{P(X|Y_i)P(Y_i)}{\sum_j{P(X|Y_j)P(Y_j)}} P(Yi∣X)=∑jP(X∣Yj)P(Yj)P(X∣Yi)P(Yi)
先验概率(prior probability)是指根据以往经验和分析得到的概率,如全概率公式,它往往作为"由因求果"问题中的"因"出现的概率。
后验概率是信息理论的基本概念之一。在一个通信系统中,在收到某个消息之后,接收端所了解到的该消息发送的概率称为后验概率。
比如你抛了10次硬币,7次正面朝上,接下来问你正面朝上的概率是多少,你说70%,此时这个就是先验概率,它是我们从“以往”的经验中积累得到的。
通俗解释:先估计一下模型的参数,然后计算得到实验结果的概率,概率越大,那么这个参数就可能越接近真实值。
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | |
---|---|---|---|---|---|---|---|---|---|
X ( 1 ) X^{(1)} X(1) | 1 | 1 | 1 | 2 | 2 | 2 | 3 | 3 | 3 |
X ( 2 ) X^{(2)} X(2) | S | S | M | L | L | S | S | M | L |
Y Y Y | 1 | 1 | 1 | -1 | -1 | 1 | -1 | -1 | -1 |
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。