当前位置:   article > 正文

机器学习-周志华-个人练习13.3_机器学习第13章答案

机器学习第13章答案

13.3 假设数据由混合专家(mixture of experts)模型生成,即数据是基于k个成分混合而得的概率密度生成:

(13.22)p(xθ)=i=1kαip(xθi)

其中, θ={θ1,θ2,,θk}是模型参数, p(xθi)是第 i 个混合成分的概率密度,混合系数 αi0,i=1kαi=1。假设每个混合成分对应一个类别,但每个类别可能包含多个混合成分。试推导相应的生成式半监督学习算法。


首先,我们假定:

  • 数据X 包含M=l+u 个样本:X={xj},j=1,,M
  • 所有样本中共有|C|个类别:cj表示样本的类别,cjC
  • 混合模型含有N个混合成分,{mj=i},i=1,,N表示样本xj可能的混合成分,θi表示对应混合成分的模型参数,则相应模型可以表示为f(xjθi)=p(xjmj=i,θi)=p(xjθi)

则与书上公式(13.4)类似,在此处:

LL(DlDu)=(xi,cj)Dllnp(xj,cjθ)+xiDulnp(xjθ)=(xi,cj)Dllni=1Nαip(cjxj,mj=i,θi)p(xjmj=i,θi)+xiDulni=1Nαip(xjmj=i,θi)(1)=(xi,cj)Dllni=1Nαip(cjxj,mj=i,θi)f(xjθi)+xiDulni=1Nαif(xjθi)

接下来介绍一下题目中所说的 每个类别可包含多个混合成分的混合模型的具体表示。

首先,我们知道:

(2)p(mj=ixj)=αip(xjθi)i=1Nαip(xjθi)

根据( D. J. Miller and H. S. Uyar, 1996)的观点,主要有两种混合方法:

划分混合模型(The “Partitioned” Mixture Model, PM):
混合组分与各个类别具有硬划分的关系,即MiCk,其中Mi代表混合组分i,也就是说各个类别是由特定的混合组分组合而成,Ck代表类别k具有的混合组分形成的集合,混合模型后验概率为:

(3)p(cj=kxj)=i=1MiCkNαip(xjθi)i=1Nαip(xjθi)

广义混合模型(The Generalized Mixture Model, GM):
每个混合组分i{1,,K}都有可能是形成某个类别k的一个混合成分,定义

(4)p(cjmj,xj)=p(cjmj)=βcjmj
,其中第二项成立是因为 βcjmj与具体的 xj取值无关。在此基础上可知,混合模型后验概率为:

(5)p(cjxj)=i=1N(αip(xjθi))βcjii=1Nαip(xjθi)

显然,令 GM中真正属于 cj的混合成分 i 均为 βcji=1,其他 βcji=0,则此时广义混合模型退化为 PM

在这里,我们采用GM ,采用高斯分布作为混合成分,来推导EM算法的更新参数。
显然,此时:

(*)f(xjθi)=p(xjθi)=p(xjμi,Σi)

(1)变为:
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/487470
推荐阅读
相关标签
  

闽ICP备14008679号