当前位置:   article > 正文

TF-IDF:自动提取关键词_tfidf关键词提取

tfidf关键词提取

目录:

  • 一、TF-IDF基础知识
    • 1.TF-IDF
    • 2.举例介绍
  • 二、TF-IDF调用两个方法
    • 1.CountVectorizer
    • 2.TfidfTransformer
    • 3.别人示例

一、TF-IDF基础知识

  1.TF-IDF


        TF-IDF(Term Frequency-InversDocument Frequency)是一种常用于信息处理和数据挖掘的加权技术。该技术采用一种统计方法,根据字词的在文本中出现的次数和在整个语料中出现的文档频率来计算一个字词在整个语料中的重要程度。它的优点是能过滤掉一些常见的却无关紧要本的词语,同时保留影响整个文本的重要字词。计算方法如下面公式所示。

                                                                  
        其中,式中tfidfi,j表示词频tfi,j和倒文本词频idfi的乘积。TF-IDF值越大表示该特征词对这个文本的重要性越大。

        TF(Term Frequency)表示某个关键词在整篇文章中出现的频率。
        IDF(InversDocument Frequency)表示计算倒文本频率。文本频率是指某个关键词在整个语料所有文章中出现的次数。倒文档频率又称为逆文档频率,它是文档频率的倒数,主要用于降低所有文档中一些常见却对文档影响不大的词语的作用。
        下面公式是TF词频的计算公式。

                                                                 

        其中,ni,j为特征词ti在文本dj中出现的次数,是文本dj中所有特征词的个数。计算的结果即为某个特征词的词频。
        下面公式是IDF的计算公式。

                                                                

       其中,|D|表示语料中文本的总数,表示文本中包含特征词ti的数量。为防止该词语在语料库中不存在,即分母为0,则使用作为分母。

  2.示例

示例参考仿造阮一峰大神的例子进行简单讲解,推荐大家去阅读:

TF-IDF与余弦相似性的应用(一):自动提取关键词

http://www.ruanyifeng.com/blog/2013/03/tf-idf.html

TF-IDF与余弦相似性的应用(二):找出相似文章

http://www.ruanyifeng.com/blog/2013/03/cosine_similarity.html

下面通过一个示例进行讲解TF-IDF权重计算的方法。
        假设现在有一篇文章《贵州的大数据分析》,这篇文章包含了10000个词组,其中“贵州”、“大数据”、“分析”各出现100次,“的”出现500次(假设没有去除停用词),则通过前面TF词频计算公式,可以计算得到三个单词的词频,即:  
                          

       现在预料库中共存在1000篇文章,其中包含“贵州”的共99篇,包含“大数据”的共19篇,包含“分析”的共“59”篇,包含“的”共“899”篇。则它们的IDF计算如下:

                           

       由IDF可以发现,当某个词在语料库中各个文档出现的次数越多,它的IDF值越低,当它在所有文档中都出现时,其IDF计算结果为0,而通常这些出现次数非常多的词或字为“的”、“我”、“吗”等,它对文章的权重计算起不到一定的作用。
       同时计算TF-IDF值如下:

                             

        通过TF-IDF计算,“大数据”在某篇文章中出现频率很高,这就能反应这篇文章的主题就是关于“大数据”方向的。如果只选择一个词,“大数据”就是这篇文章的关键词。所以,可以通过TF-IDF方法统计文章的关键词。同时,如果同时计算“贵州”、“大数据”、“分析”的TF-IDF,将这些词的TF-IDF相加,可以得到整篇文档的值,用于信息检索。
        TF-IDF算法的优点是简单快速,结果比较符合实际情况。缺点是单纯以词频衡量一个词的重要性,不够全面,有时重要的词可能出现次数并不多。而且,这种算法无法体现词的位置信息。
 

二、TF-IDF计算

        Scikit-Learn中TF-IDF权重计算方法主要用到两个类:CountVectorizer和TfidfTransformer。

1.CountVectorizer

       CountVectorizer类会将文本中的词语转换为词频矩阵,例如矩阵中包含一个元素a[i][j],它表示j词在i类文本下的词频。它通过fit_transform函数计算各个词语出现的次数,通过get_feature_names()可获取词袋中所有文本的关键字,通过toarray()可看到词频矩阵的结果。
        代码如下:

  1. # coding:utf-8
  2. from sklearn.feature_extraction.text import CountVectorizer
  3. #语料
  4. corpus = [
  5. 'This is the first document.',
  6. 'This is the second second document.',
  7. 'And the third one.',
  8. 'Is this the first document?',
  9. ]
  10. #将文本中的词语转换为词频矩阵
  11. vectorizer = CountVectorizer()
  12. #计算各个词语出现的次数
  13. X = vectorizer.fit_transform(corpus)
  14. #获取词袋中所有文本关键词
  15. word = vectorizer.get_feature_names()
  16. print(word)
  17. #查看词频结果
  18. print(X.toarray())

输出如下所示:

  1. ['and', 'document', 'first', 'is', 'one', 'second', 'the', 'third', 'this']
  2. [[0 1 1 1 0 0 1 0 1]
  3. [0 1 0 1 0 2 1 0 1]
  4. [1 0 0 0 1 0 1 1 0]
  5. [0 1 1 1 0 0 1 0 1]]

从结果中可以看到,总共包括9个特征词,即:
        ['and', 'document', 'first', 'is', 'one', 'second', 'the', 'third', 'this']
        同时在输出每个句子中包含特征词的个数。例如,第一句“This is the first document.”,它对应的词频为[0, 1, 1, 1, 0, 0, 1, 0, 1],假设初始序号从1开始计数,则该词频表示存在第2个位置的单词“document”共1次、第3个位置的单词“first”共1次、第4个位置的单词“is”共1次、第9个位置的单词“this”共1词。所以,每个句子都会得到一个词频向量。

2.TfidfTransformer

TfidfTransformer用于统计vectorizer中每个词语的TF-IDF值。具体用法如下:

  1. # coding:utf-8
  2. from sklearn.feature_extraction.text import CountVectorizer
  3. #语料
  4. corpus = [
  5. 'This is the first document.',
  6. 'This is the second second document.',
  7. 'And the third one.',
  8. 'Is this the first document?',
  9. ]
  10. #将文本中的词语转换为词频矩阵
  11. vectorizer = CountVectorizer()
  12. #计算各个词语出现的次数
  13. X = vectorizer.fit_transform(corpus)
  14. #获取词袋中所有文本关键词
  15. word = vectorizer.get_feature_names()
  16. print(word)
  17. #查看词频结果
  18. print(X.toarray())
  19. from sklearn.feature_extraction.text import TfidfTransformer
  20. #类调用
  21. transformer = TfidfTransformer()
  22. print(transformer)
  23. #将词频矩阵X统计成TF-IDF值
  24. tfidf = transformer.fit_transform(X)
  25. #查看数据结构 tfidf[i][j]表示i类文本中的tf-idf权重
  26. print(tfidf.toarray())

输出结果如下所示:

  1. TfidfTransformer(norm='l2', smooth_idf=True, sublinear_tf=False, use_idf=True)
  2. [[0. 0.43877674 0.54197657 0.43877674 0. 0.
  3. 0.35872874 0. 0.43877674]
  4. [0. 0.27230147 0. 0.27230147 0. 0.85322574
  5. 0.22262429 0. 0.27230147]
  6. [0.55280532 0. 0. 0. 0.55280532 0.
  7. 0.28847675 0.55280532 0. ]
  8. [0. 0.43877674 0.54197657 0.43877674 0. 0.
  9. 0.35872874 0. 0.43877674]]

3.别人示例

        如果需要同时进行词频统计并计算TF-IDF值,则使用核心代码:
        vectorizer=CountVectorizer()
        transformer=TfidfTransformer()
        tfidf=transformer.fit_transform(vectorizer.fit_transform(corpus))

        下面给出一个liuxuejiang158大神的例子,供大家学习,推荐大家阅读原文:

 

  1. # coding:utf-8
  2. __author__ = "liuxuejiang"
  3. import jieba
  4. import jieba.posseg as pseg
  5. import os
  6. import sys
  7. from sklearn import feature_extraction
  8. from sklearn.feature_extraction.text import TfidfTransformer
  9. from sklearn.feature_extraction.text import CountVectorizer
  10. if __name__ == "__main__":
  11. corpus = ["我 来到 北京 清华大学", # 第一类文本切词后的结果,词之间以空格隔开
  12. "他 来到 了 网易 杭研 大厦", # 第二类文本的切词结果
  13. "小明 硕士 毕业 与 中国 科学院", # 第三类文本的切词结果
  14. "我 爱 北京 天安门"] # 第四类文本的切词结果
  15. vectorizer = CountVectorizer() # 该类会将文本中的词语转换为词频矩阵,矩阵元素a[i][j] 表示j词在i类文本下的词频
  16. transformer = TfidfTransformer() # 该类会统计每个词语的tf-idf权值
  17. tfidf = transformer.fit_transform(
  18. vectorizer.fit_transform(corpus)) # 第一个fit_transform是计算tf-idf,第二个fit_transform是将文本转为词频矩阵
  19. word = vectorizer.get_feature_names() # 获取词袋模型中的所有词语
  20. weight = tfidf.toarray() # 将tf-idf矩阵抽取出来,元素a[i][j]表示j词在i类文本中的tf-idf权重
  21. for i in range(len(weight)): # 打印每类文本的tf-idf词语权重,第一个for遍历所有文本,第二个for便利某一类文本下的词语权重
  22. print("-------这里输出第", i, "类文本的词语tf-idf权重------")
  23. for j in range(len(word)):
  24. print(word[j], weight[i][j])

        输出如下所示:

  1. -------这里输出第 0 类文本的词语tf-idf权重------ #该类对应的原文本是:"我来到北京清华大学"
  2. 中国 0.0
  3. 北京 0.52640543361
  4. 大厦 0.0
  5. 天安门 0.0
  6. 小明 0.0
  7. 来到 0.52640543361
  8. 杭研 0.0
  9. 毕业 0.0
  10. 清华大学 0.66767854461
  11. 硕士 0.0
  12. 科学院 0.0
  13. 网易 0.0
  14. -------这里输出第 1 类文本的词语tf-idf权重------ #该类对应的原文本是: "他来到了网易杭研大厦"
  15. 中国 0.0
  16. 北京 0.0
  17. 大厦 0.525472749264
  18. 天安门 0.0
  19. 小明 0.0
  20. 来到 0.414288751166
  21. 杭研 0.525472749264
  22. 毕业 0.0
  23. 清华大学 0.0
  24. 硕士 0.0
  25. 科学院 0.0
  26. 网易 0.525472749264
  27. -------这里输出第 2 类文本的词语tf-idf权重------ #该类对应的原文本是: "小明硕士毕业于中国科学院“
  28. 中国 0.4472135955
  29. 北京 0.0
  30. 大厦 0.0
  31. 天安门 0.0
  32. 小明 0.4472135955
  33. 来到 0.0
  34. 杭研 0.0
  35. 毕业 0.4472135955
  36. 清华大学 0.0
  37. 硕士 0.4472135955
  38. 科学院 0.4472135955
  39. 网易 0.0
  40. -------这里输出第 3 类文本的词语tf-idf权重------ #该类对应的原文本是: "我爱北京天安门"
  41. 中国 0.0
  42. 北京 0.61913029649
  43. 大厦 0.0
  44. 天安门 0.78528827571
  45. 小明 0.0
  46. 来到 0.0
  47. 杭研 0.0
  48. 毕业 0.0
  49. 清华大学 0.0
  50. 硕士 0.0
  51. 科学院 0.0
  52. 网易 0.0

转自:https://blog.csdn.net/Eastmount/article/details/50323063

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/342875
推荐阅读
相关标签
  

闽ICP备14008679号