当前位置:   article > 正文

文本分类特征选择方法_文本分类中特征集怎么选出来的

文本分类中特征集怎么选出来的

1DF(DocumentFrequency) 文档频率

DF:统计特征词出现的文档数量,用来衡量某个特征词的重要性

2MI(MutualInformation) 互信息法

互信息法用于衡量特征词与文档类别直接的信息量。

如果某个特征词的频率很低,那么互信息得分就会很大,因此互信息法倾向"低频"的特征词。相对的词频很高的词,得分就会变低,如果这词携带了很高的信息量,互信息法就会变得低效。

3(Information Gain) 信息增益法

通过某个特征词的缺失与存在的两种情况下,语料中前后信息的增加,衡量某个特征词的重要性。

4CHI(Chi-square) 卡方检验法

利用了统计学中的"假设检验"的基本思想:首先假设特征词与类别直接是不相关的

如果利用CHI分布计算出的检验值偏离阈值越大,那么更有信心否定原假设,接受原假设的备则假设:特征词与类别有着很高的关联度。

5WLLR(Weighted LogLikelihood Ration)加权对数似然

6WFOWeightedFrequency and Odds)加权频率和可能性

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/140935
推荐阅读
相关标签
  

闽ICP备14008679号