当前位置:   article > 正文

PythonTF-IDF算法对文本进行统计词频_python使用文本数据的test.txt(每一行为一条新闻数据),使用自定义的tf-idf函数(词

python使用文本数据的test.txt(每一行为一条新闻数据),使用自定义的tf-idf函数(词

PythonTF-IDF算法对文本进行统计词频

介绍:

TF-IDF(term frequency–inverse document frequency)是一种用于资讯检索与资讯探勘的常用加权技术。TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。TF-IDF加权的各种形式常被搜寻引擎应用,作为文件与用户查询之间相关程度的度量或评级。除了TF-IDF以外,因特网上的搜寻引擎还会使用基于连结分析的评级方法,以确定文件在搜寻结果中出现的顺序。
在一份给定的文件里,词频 (term frequency, TF) 指的是某一个给定的词语在该文件中出现的次数。这个数字通常会被归一化(分子一般小于分母 区别于IDF),以防止它偏向长的文件。(同一个词语在长文件里可能会比短文件有更高的词频,而不管该词语重要与否。)
逆向文件频率 (inverse document frequency, IDF) 是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到。
某一特定文件内的高词语频率,以及该词语在整个文件集合中的低文件频率,可以产生出高权重的TF-IDF。
因此,TF-IDF倾向于过滤掉常见的词语,保留重要的词语。

步骤:

1.新建Python project,名为python11.在python11下,新建Python file,名为TF-IDF
2.导入实验所需的外包

1.from sklearn.feature_extraction.text import TfidfTransformer  
2.from sklearn.feature_extraction.text import CountVectorizer  
  • 1
  • 2

3.自定义文本

1.corpus = ["我 来到 北京 清华大学",  # 第一类文本切词后的结果,词之间以空格隔开  
2.          "他 来到 了 网易 杭研 大厦",  # 第二类文本的切词结果  
3.          "小明 硕士 毕业 与 中国 科学院",  # 第三类文本的切词结果  
4.          "我 爱 北京 天安门"]  # 第四类文本的切词结果  
  • 1
  • 2
  • 3
  • 4

4.将文本中的词语转换为词频矩阵

1.vectorizer = CountVectorizer()  
2.vectors=vectorizer.fit_transform(corpus)  
  • 1
  • 2

5.该类会统计每个词语的tf-idf权值

1.transformer = TfidfTransformer()  
2.tfidf = transformer.fit_transform(vectors)  
  • 1
  • 2

6.获取词袋模型(vectorizer)中的所有词语

1.word = vectorizer.get_feature_names()  
  • 1

7.将tf-idf矩阵抽取出来,元素a[i][j]表示j词在i类文本中的tf-idf权重

1.weight = tfidf.toarray()  
  • 1

8.打印每类文本的tf-idf词语权重,第一个for遍历所有文本,第二个for遍历某一类文本下的词语权重

1.for i in range(len(weight)):  
2.    print("-------这里输出第", i, "类文本的词语tf-idf权重------")  
3.    for j in range(len(word)):  
4.        print(word[j], weight[i][j])  
  • 1
  • 2
  • 3
  • 4

9.完整代码

1.from sklearn.feature_extraction.text import TfidfTransformer  
2.from sklearn.feature_extraction.text import CountVectorizer  
3.if __name__ == "__main__":  
4.    corpus = ["我 来到 北京 清华大学",  # 第一类文本切词后的结果,词之间以空格隔开  
5.              "他 来到 了 网易 杭研 大厦",  # 第二类文本的切词结果  
6.              "小明 硕士 毕业 与 中国 科学院",  # 第三类文本的切词结果  
7.              "我 爱 北京 天安门"]  # 第四类文本的切词结果  
8.    vectorizer = CountVectorizer()  # 该类会将文本中的词语转换为词频矩阵,矩阵元素a[i][j] 表示j词在i类文本下的词频  
9.    transformer = TfidfTransformer()  # 该类会统计每个词语的tf-idf权值  
10.    tfidf = transformer.fit_transform(  
11.        vectorizer.fit_transform(corpus))  # 第一个fit_transform是计算tf-idf,第二个fit_transform是将文本转为词频矩阵  
12.    word = vectorizer.get_feature_names()  # 获取词袋模型中的所有词语  
13.    weight = tfidf.toarray()  # 将tf-idf矩阵抽取出来,元素a[i][j]表示j词在i类文本中的tf-idf权重  
14.    for i in range(len(weight)):  # 打印每类文本的tf-idf词语权重,第一个for遍历所有文本,第二个for遍历某一类文本下的词语权重  
15.        print("-------这里输出第", i, "类文本的词语tf-idf权重------")  
16.        for j in range(len(word)):  
17.            print(word[j], weight[i][j])  
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

运行结果:

1.-------这里输出第 0 类文本的词语tf-idf权重------  
2.中国 0.0  
3.北京 0.52640543361  
4.大厦 0.0  
5.天安门 0.0  
6.小明 0.0  
7.来到 0.52640543361  
8.杭研 0.0  
9.毕业 0.0  
10.清华大学 0.66767854461  
11.硕士 0.0  
12.科学院 0.0  
13.网易 0.0  
14.-------这里输出第 1 类文本的词语tf-idf权重------  
15.中国 0.0  
16.北京 0.0  
17.大厦 0.525472749264  
18.天安门 0.0  
19.小明 0.0  
20.来到 0.414288751166  
21.杭研 0.525472749264  
22.毕业 0.0  
23.清华大学 0.0  
24.硕士 0.0  
25.科学院 0.0  
26.网易 0.525472749264  
27.-------这里输出第 2 类文本的词语tf-idf权重------  
28.中国 0.4472135955  
29.北京 0.0  
30.大厦 0.0  
31.天安门 0.0  
32.小明 0.4472135955  
33.来到 0.0  
34.杭研 0.0  
35.毕业 0.4472135955  
36.清华大学 0.0  
37.硕士 0.4472135955  
38.科学院 0.4472135955  
39.网易 0.0  
40.-------这里输出第 3 类文本的词语tf-idf权重------  
41.中国 0.0  
42.北京 0.61913029649  
43.大厦 0.0  
44.天安门 0.78528827571  
45.小明 0.0  
46.来到 0.0  
47.杭研 0.0  
48.毕业 0.0  
49.清华大学 0.0  
50.硕士 0.0  
51.科学院 0.0  
52.网易 0.0  
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/412820
推荐阅读
相关标签
  

闽ICP备14008679号