当前位置:   article > 正文

隐马尔科夫 前后向算法 个人理解_隐马尔可夫后向算法不理解

隐马尔可夫后向算法不理解

最近在学习李烨老师的机器学习入门课,看到HMM感觉还是有些吃力,故结合《统计学习方法》和以下几篇博客的介绍,个人在此总结,部分过程可能非常琐碎,主要还是书上的内容加了一些我的理解思路,仅为方便理解。 ### 还在整理记录中。。。
(参考了以下几篇博客)https://blog.csdn.net/xueyingxue001/article/details/52396494
https://zhuanlan.zhihu.com/p/27056207

HMM的三个基本问题,分别是概率计算问题、预测问题和学习问题。
概率计算问题是,给定模型 λ \lambda λ和观测序列O=( o 1 , o 2 , . . . , o T o_{1},o_{2},...,o_{T} o1,o2,...,oT),计算在模型 λ \lambda λ下,该观测序列O出现的概率 P ( O ∣ λ ) P(O|\lambda) P(Oλ)

直接计算法的思路是列举所有可能的状态序列,求每个状态序列与该观测序列的联合概率,然后对所有可能的状态序列求和。
I是观测序列 I = ( i 1 , i 2 , . . . , i T ) I=(i_{1},i_{2},...,i_{T}) I=(i1,i2,...,iT)
O和I的联合概率 P ( O , I ∣ λ ) = P ( O ∣ I , λ ) ∗ P ( I ∣ λ ) P(O,I|\lambda)=P(O|I,\lambda)*P(I|\lambda) P(O,Iλ)=P(OI,λ)P(Iλ)
某个观测序列出现的概率是 P ( I ∣ λ ) = π i 1 a i 1 i 2 . . . a i T − 1 i T P(I|\lambda)=\pi_{i1}a_{i1i2}...a_{iT-1iT} P(Iλ)=πi1ai1i2...aiT1iT
而在给定模型和状态序列时,观测序列的概率是 P ( O ∣ I , λ ) = b i 1 ( o 1 ) b i 2 ( o 2 ) . . . b i T ( o T ) P(O|I,\lambda)=b_{i1}(o_{1})b_{i2}(o_{2})...b_{iT}(o_{T}) P(OI,λ)=bi1(o1)bi2(o2)...biT(o

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/533237
推荐阅读
相关标签
  

闽ICP备14008679号