当前位置:   article > 正文

【NLTK基础教程】01-02 利用nltk统计词频_用nltk库进行词频统计分析

用nltk库进行词频统计分析

在上篇中,简单的介绍了三种获取有效文本的方法,那么接下来就利用nltk来统计这些文本中出现的次数。

我们首先来看下传统统计词频的方法:

import operator
freq_dis={}
for tok in tokens:
    if tok in freq_dis:
        freq_dis[tok]+=1
    else:
        freq_dis[tok]=1

sorted_freq_dist=sorted(freq_dis.items(),key=operator.itemgetter(1),reverse=True)
print(sorted_freq_dist[:25])
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

统计结果如下:

[('Python', 59), ('>>>', 24), ('the', 21), ('and', 21), ('to', 17), ('is', 17), ('of', 17), ('=', 14), ('for', 11), ('News', 11), ('Events', 11), ('a', 10), ('#', 9), ('More', 9), ('3', 8), ('in', 8), ('with', 7), ('Community', 7), ('...', 7), ('Docs', 6), ('Guide', 6), ('Software', 6), ('The', 5), ('1', 5), ('that', 5)]
  • 1

利用nltk来统计文本词频如下:

import nltk
Freq_dist_nltk=nltk.FreqDist(tokens)
print(Freq_dist_nltk)
for k,v in Freq_dist_nltk.items():
    print(str(k)+":"+str(v))
Freq_dist_nltk.plot(50,cumulative=False)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

相比之下,利用nltk库来实现,确实便利了很多。
这里写图片描述

好吧,《NLTK基础教程》第一章基本上就结束了,这一章主要是简单介绍了python的语法,然后引出NLTK。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/109690
推荐阅读
相关标签
  

闽ICP备14008679号