赞
踩
最近在学习李烨老师的机器学习入门课,看到HMM感觉还是有些吃力,故结合《统计学习方法》和以下几篇博客的介绍,个人在此总结,部分过程可能非常琐碎,主要还是书上的内容加了一些我的理解思路,仅为方便理解。 ### 还在整理记录中。。。
(参考了以下几篇博客)https://blog.csdn.net/xueyingxue001/article/details/52396494
https://zhuanlan.zhihu.com/p/27056207
HMM的三个基本问题,分别是概率计算问题、预测问题和学习问题。
概率计算问题是,给定模型 λ \lambda λ和观测序列O=( o 1 , o 2 , . . . , o T o_{1},o_{2},...,o_{T} o1,o2,...,oT),计算在模型 λ \lambda λ下,该观测序列O出现的概率 P ( O ∣ λ ) P(O|\lambda) P(O∣λ)。
直接计算法的思路是列举所有可能的状态序列,求每个状态序列与该观测序列的联合概率,然后对所有可能的状态序列求和。
I是观测序列 I = ( i 1 , i 2 , . . . , i T ) I=(i_{1},i_{2},...,i_{T}) I=(i1,i2,...,iT) ①
O和I的联合概率 P ( O , I ∣ λ ) = P ( O ∣ I , λ ) ∗ P ( I ∣ λ ) P(O,I|\lambda)=P(O|I,\lambda)*P(I|\lambda) P(O,I∣λ)=P(O∣I,λ)∗P(I∣λ) ②
某个观测序列出现的概率是 P ( I ∣ λ ) = π i 1 a i 1 i 2 . . . a i T − 1 i T P(I|\lambda)=\pi_{i1}a_{i1i2}...a_{iT-1iT} P(I∣λ)=πi1ai1i2...aiT−1iT ③
而在给定模型和状态序列时,观测序列的概率是 P ( O ∣ I , λ ) = b i 1 ( o 1 ) b i 2 ( o 2 ) . . . b i T ( o T ) P(O|I,\lambda)=b_{i1}(o_{1})b_{i2}(o_{2})...b_{iT}(o_{T}) P(O∣I,λ)=bi1(o1)bi2(o2)...biT(o
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。