当前位置:   article > 正文

词之间的相关性--点互信息PMI算法_词点互信息 pmi

词点互信息 pmi

1. PMI介绍

点互信息算法是为了计算两个词语之间的相关性,公式如下:
PMI ⁡ (  word  1 ,  word  2 ) = log ⁡ 2 [ p (  word  1  &   word  2 ) p (  word  1 ) p (  word  2 ) ] \operatorname{PMI}\left(\text { word }_{1}, \text { word }_{2}\right)=\log _{2}\left[\frac{\mathrm{p}\left(\text { word }_{1} \text { \& } \text { word }_{2}\right)}{\mathrm{p}\left(\text { word }_{1}\right) \mathrm{p}\left(\text { word }_{2}\right)}\right] PMI( word 1, word 2)=log2[p( word 1)p( word 2)p( word 1 &  word 2)]

  • p(word1 & word2)代表的是两个单词同时出现的概率(两个单词同时出现的次数/总词数的平方)
  • p(word1)是word1出现的概率(word1出现的次数/总词数)
  • p(word2)是word2出现的概率(word1出现的次数/总词数)

结果:

  • PMI > 0;两个词语是相关的;值越大,相关性越强

  • PMI = 0;两个词语是统计独立的,不相关也不互斥

  • PMI < 0;两个词语是不相关的,互斥的

2. PMI应用

(1) 新词发现(判断一个词是否为词)
参考 pmi新词发现

(2)情感倾向点互信息算法(SO-PMI)
选用一组褒义词(Pwords)跟一组贬义词(Nwords)作为基准词。若把一个词语word1跟Pwords的点间互信息减去word1跟Nwords的点间互信息会得到一个差值,就可以根据该差值判断词语word1的情感倾向
S O (  phrase  ) = P M I (  phrase, ‘excellent’)  − P M I (  phrase, ‘poor’) 

SO( phrase )=PMI( phrase, ‘excellent’) PMI( phrase, ‘poor’) 
SO( phrase )=PMI( phrase, ‘excellent’) PMI( phrase, ‘poor’) 

  • SO(phrase)>0 正面倾向,是褒义词

  • SO(phrase)=0 为中性词

  • SO(phrase)<0 为贬义词

参考

点互信息算法

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/239082
推荐阅读
相关标签
  

闽ICP备14008679号