当前位置:   article > 正文

如何画lda投影结果_FlyAI小课堂:隐含狄利克雷分布(LDA)(6)

lda分析图的绘制

4bbe1f057d365ca2dc29d5f4b6a42ae9.png

9ba6a61f08814d8295746b437805faf0.png

在开始学习之前推荐大家可以多在FlyAI竞赛服务平台多参加训练和竞赛,以此来提升自己的能力。FlyAI是为AI开发者提供数据竞赛并支持GPU离线训练的一站式服务平台。每周免费提供项目开源算法样例,支持算法能力变现以及快速的迭代算法模型。

目录

  1. LDA概述
  2. 基础知识
  3. LDA主题模型
  4. 总结

一句话简述:2003年提出的,LDA是一种无监督的词袋式隐含主题模型,LDA给出文档属于每个主题的概率分布,同时给出每个主题上词的概率分布。在文本主题识别、文本分类、文本相似度计算和文章相似推荐等方面都有应用。

一、LDA概述

  在机器学习领域,LDA是两个常用模型的简称:线性判别分析(Linear Discriminant Analysis)和 隐含狄利克雷分布(Latent Dirichlet Allocation)。本文的LDA仅指代Latent Dirichlet Allocation. LDA 在主题模型中占有非常重要的地位,常用来文本分类。

  LDA是基于贝叶斯模型的,涉及到贝叶斯模型离不开"先验分布","数据(似然)"和"后验分布"三块。在贝叶斯学派中有:先验分布 + 数据(似然)= 后验分布

  这点其实很好理解,因为这符合我们人的思维方式,比如你对好人和坏人的认知,先验分布为:100个好人和100个的坏人,即你认为好人坏人各占一半,现在你被2个好人(数据)帮助了和1个坏人骗了,于是你得到了新的后验分布为:102个好人和101个的坏人。现在你的后验分布里面认为好人比坏人多了。这个后验分布接着又变成你的新的先验分布,当你被1个好人(数据)帮助了和3个坏人(数据)骗了后,你又更新了你的后验分布为:103个好人和104个的坏人。依次继续更新下去

二、基础知识

2.1 词袋模型

LDA 采用词袋模型。所谓词袋模型,是将一篇文档,我们仅考虑一个词汇是否出现,而不考虑其出现的顺序。在词袋模型中,"我喜欢你"和"你喜欢我"是等价的。与词袋模型相反的一个模型是n-gram,n-gram考虑了词汇出现的先后顺序。

2.2 二项分布

伯努利分布是只有两种可能结果的单次随机试验,二项分布(Binomial distribution)是n重伯努利试验成功次数的离散概率分布,即为X ~ B(n, p). 概率密度公式为:

c63f20e4b0ef4241746b246738367983.png

2.3 二项分布与Beta分布

beta分布可以看作一个概率的概率分布,当你不知道一个东西的具体概率是多少时,它可以给出所有概率出现的可能性大小。

我们希望这个先验分布和数据(似然)对应的二项分布集合后,得到的后验分布在后面还可以作为先验分布!就像上面例子里的"102个好人和101个的坏人",它是前面一次贝叶斯推荐的后验分布,又是后一次贝叶斯推荐的先验分布。也即是说,我们希望先验分布和后验分布的形式应该是一样的,这样的分布我们一般叫共轭分布。在我们的例子里,我们希望找到和二项分布共轭的分布。二项分布共轭的分布其实就是Beta分布。Beta分布的表达式为:

1f41fd71e0ccebae2d4d159aa1320f82.png

其中 是Gamma函数,满足 Γ(x) = (x − 1)!

仔细观察Beta分布和二项分布,可以发现两者的密度函数很相似,区别仅仅在前面的归一化的阶乘项。那么它如何做到先验分布和后验分布的形式一样呢?后验分布 P (p|n, k, α, β)推导如下:

f1913a79b4872f57f17fb645439ccfab.png

将上面最后的式子归一化以后,得到我们的后验概率为:

484b8d8f9f8a4412fe873a1d8da8c4e3.png

可见我们的后验分布的确是Beta分布,而且我们发现:

db5d8139dda16f9a995c24c312886dac.png

这个式子完全符合我们在上一节好人坏人例子里的情况,我们的认知会把数据里的好人坏人数分别加到我们的先验分布上,得到后验分布,Beta分布 Beta(p|α, β)的期望:

3a904b1c7889990fb8aac953c570e6d1.png

由于上式最右边的乘积对应Beta分布Beta(p|α + 1, β) ,因此有

369efd818745d0c9cc67e5c8dc3b6978.png

这样我们的期望可以表达为:

6385a71f3e4e4ad9f4b0b350397160d7.png

这个结果也很符合我们的思维方式。

2.4 多项分布

多项式分布(Multinomial Distribution)是二项式分布的推广。二项式做n次伯努利实验,规定了每次试验的结果只有两个,如果现在还是做n次试验,只不过每次试验的结果可以有多k个,且k个结果发生的概率互斥且和为1,则发生其中一个结果X次的概率就是多项式分布。概率密度函数为:

c4567966c61348cf9b2e3716f920b62f.png

2.5. 多项分布与Dirichlet 分布

现在我们回到上面好人坏人的问题,假如我们发现有第三类人,不好不坏的人,这时候我们如何用贝叶斯来表达这个模型分布呢?之前我们是二维分布,现在是三维分布。由于二维我们使用了Beta分布和二项分布来表达这个模型,则在三维时,以此类推,我们可以用三维的Beta分布来表达先验后验分布,三项的多项分布来表达数据(似然)。

三项的多项分布好表达,我们假设数据中的第一类有 m1个好人,第二类有 m2个坏人,第三类为m3=n-m1-m2 个不好不坏的人,对应的概率分别为p1, p2, p3 = 1 − p1 − p2 ,则对应的多项分布为:

178cfb98b67b2cbe680190a572ea89b7.png

那三维的Beta分布呢?超过二维的Beta分布我们一般称之为狄利克雷(以下称为Dirichlet )分布。也可以说Beta分布是Dirichlet 分布在二维时的特殊形式。从二维的Beta分布表达式,我们很容易写出三维的Dirichlet分布如下:

a30e0e2c83862442a3ef10c43d7cf512.png

同样的方法,我们可以写出4维,5维,。。。以及更高维的Dirichlet 分布的概率密度函数。为了简化表达式,我们用向量来表示概率和计数, 。

一般意义上的K维Dirichlet 分布表达式为:

fca3e0af8dbd2e07e0bba71636f1d3d0.png

多项分布和Dirichlet 分布也满足共轭关系,这样我们可以得到和上一节类似的结论:

6adcf04e86d6fd3e6948c1c97ed72979.png

对于Dirichlet 分布的期望,也有和Beta分布类似的性质:

1130d16a6b607c62e8d7ee56791dfbf5.png

三、LDA主题模型

3.1 LDA的特点:

  1. 它是一种无监督的贝叶斯模型
  2. 是一种主题模型,它可以将文档集中的每篇文档按照概率分布的形式给出。
  3. 是一种无监督学习,在训练时不需要手工标注的训练集,需要的是文档集和指定主题的个数。
  4. 是一种典型的词袋模型,它认为一篇文档是由一组词组成的集合,词与词之间没有顺序和先后关系。

3.1 LDA的简单理解

同一主题下,某个词出现的概率,以及同一文档下,某个主题出现的概率,两个概率的乘积,可以得到某篇文档出现某个词的概率,我们在训练的时候,只需要调整这两个分布。具体如下图所示

29e486da1775bfba36b61a4807293270.png

LDA生成文档的流程如下:

  1. 按照先验概率p(di)选择一篇文档di
  2. 从Dirichlet分布α中取样生成文档di的主题分布θi,主题分布θi由超参数为α的Dirichlet分布生成
  3. 从主题的多项式分布θi中取样生成文档di第 j 个词的主题zi,j
  4. 从Dirichlet分布β中取样生成主题zi,j对应的词语分布ϕzi,j,词语分布ϕzi,j由参数为β的Dirichlet分布生成
  5. 从词语的多项式分布ϕzi,j中采样最终生成词语ωi,j

3.2 LDA的数学理解

bc82622c028e310b42888935fb948465.png

1)上图从:

文档主题的先验分布(狄利克雷分布)和每一个主题的多项式分布

LDA假设文档主题的先验分布是Dirichlet分布,即对于任一文档d , 其主题分布 为:

ccb5d2522de03194ce04f91f9d26b598.png

其中α 为分布的超参数,是一个K维向量。K代表文档中主题词的个数。

对于数据中任一一篇文档 d中的第 n个词,我们可以从主题分布 中得到它的主题编号 的分布为:

99e6c2e1429dc8a9496a93adf37b5d3e.png

理解LDA主题模型的主要任务就是理解上面的这个模型。这个模型里,我们有 M个文档主题的Dirichlet分布,而对应的数据有M个主题编号的多项分布。

24f85d379148a038f7a93279ea730c45.png

就组成了Dirichlet-multi共轭,可以使用前面提到的贝叶斯推断的方法得到基于Dirichlet分布的文档主题后验分布。

如果在第d个文档中,第k个主题的词的个数为: , 则对应的多项分布的计数可以表示为

621ad35f877b5d326a7062a76a1a870c.png

利用Dirichlet-multi共轭,得到 的后验分布为:

e21c91045d9e667d315e499be7658ae7.png

2)上图从 :

主题中词的先验分布(狄利克雷分布)和每一个词的多项式分布。

LDA假设主题中词的先验分布是Dirichlet分布,即对于任一主题 k , 其词分布为:

e975719dc97b132b7b5598caa68fa1c7.png

其中,η 为分布的超参数,是一个V 维向量。 V代表词汇表里所有词的个数

而对于该主题编号,得到我们看到的词 的概率分布为

504b0025f01be3a57e796af4d79eabce.png

同样的道理,对于主题与词的分布,我们有 个主题与词的Dirichlet分布,而对应的数据有 个主题编号的多项分布

9b21504ebea39413bfc07711bec4e3c2.png

就组成了Dirichlet-multi共轭,可以使用前面提到的贝叶斯推断的方法得到基于Dirichlet分布的主题词的后验分布。

如果在第k个主题中,第v个词的个数为:: , 则对应的多项分布的计数可以表示为

6237300258a4bbb0b90efedffa6e2ccc.png

利用Dirichlet-multi共轭,得到 的后验分布为:

94cf140f7875dea447c055b0adf786df.png

由于主题产生词不依赖具体某一个文档,因此文档主题分布和主题词分布是独立的。理解了上面这M+K组Dirichlet-multi共轭,就理解了LDA的基本原理了

具体的LDA模型求解采用Gibbs采样算法,现成的库可以用gensim,gensim.models.ldamodel.LdaModel()类可以生成LDA模型。

四、总结

LDA可以看作是由四个概率分布组成的(两个狄利克雷分布和多项式分布),也可以看作是两个狄利克雷-多项式共轭分布组成的。所以这四个概率分布如下:

  1. 第一个狄利克雷分布生成主题分布模型,且该主题分布模型服从多项式分布(相当于主题分布有多种)
  2. 第一个多项式分布用来生成某一个主题(获得某一个确定的主题分布之后就可以获得确定的主题)
  3. 第二个狄利克雷分布生成词分布模型,且该词服从多项式分布(相当于词分布有多种)
  4. 第二个多项式分布用来生成某一个词(获得某一个确定的词分布之后就可以获得确定的词,该确定的词分布是和确定的主题有关的)

4.1 补充说明:

1) LDA后可以继续对不同文本进行基于隐含主题的分类,聚类等

2)文档-主题分布和主题-词分布是独立的,也就是说,主题-词分布并不依赖某一个具体的文档,而对应的是语料集中的主题词分布。所以这里没有表述成"这篇文档的主题词分布".

3)P(文档-主题)是狄利克雷分布,采样确定文档,得到P(主题)是多项式分布,对P(主题)进行采样得到确定的主题z;

P(主题-词)是狄利克雷分布,根据已经确定的z,得到P(词)是多项式分布,对P(词)进行采样得到确定的词w

4)对于任何一个文档d,在先验分布Dir(a)采样得到θd(这里是一个K维向量,代表每个主题的概率),由这些概率得到主题分布(多项式分布),再由这个多项式分布采样得到第n个词的主题编号Zd,n(这个主题编号为一个值,而不是向量形式)

对于任何一个主题t,而在先验分布Dir(η)中采样得到βt(一个V维度向量,代表每个词的概率),由这些概率得到词分布(多项式分布),这样假设一共K个主题,β就一共有K个。现在有了文档d的第n个词的主题编号Zd,n(他属于K个β中的一个)对应就可以生成文档d的第n个词

4.2 常见疑惑

1)"第d个文档中,第k个主题的词的个数为:n(k)d" 中n(k)d如何计算得到呢。

答:文档d中的主题分布符合Dirichlet分布,然后Gibbs采样得到各个主题的概率,进一步根据文档d中词的总数N,乘以概率得到每个主题的词的个数

2)可以把LDA理解为朴素贝叶斯模型的一种加强吗?能简要介绍下二者的区别和各自优缺点吗?

答:两个算法都用到了一些贝叶斯学派的理论。如果LDA是用Gibbs采样求解,那么只用到了很少的贝叶斯学派的理论,如果是LDA变分推断算法,那么就完全是贝叶斯学派的思路了。

两者的共性就是都用到了贝叶斯的先验分布,后验分布和似然的概念。两者都经常用于NLP文本分析。

不过一个用于监督学习的分类,另一个用于非监督学习的主题模型寻找,要解决的问题差异还是很大的。

3)现在语料里面有很多不同领域的语料,我想对语料进行分类,比如说政治领域 体育领域 社会领域 然后学习的过程中将这些个领域信息成为先验知识 我该如何去加这个约束呢?

答:LDA的主题模型是隐含的主题,并不能直接将主题映射成你自己定义的政治领域 体育领域 社会领域等。所以你是没有办法直接加这个LDA约束的,建议尝试标记数据,用分类模型来解决你的问题

参考文献

【1】beta分布:https://blog.csdn.net/a358463121/article/details/52562940

文本主题模型之LDA(一) LDA基础​www.cnblogs.com
01682d5532fe66c9fc17c13856fb6443.png

更多精彩内容请访问FlyAI-AI竞赛服务平台;为AI开发者提供数据竞赛并支持GPU离线训练的一站式服务平台;每周免费提供项目开源算法样例,支持算法能力变现以及快速的迭代算法模型。

挑战者,都在FlyAI!!!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/195615?site
推荐阅读
相关标签
  

闽ICP备14008679号