赞
踩
利用jieba库,可以提取一篇文章的关键词
import jieba txt = open("D:\\三国演义.txt", "r", encoding='utf-8').read() #读取已存好的txt文档。有时候encoding='utf-8'会报错,换成encoding='gbk' words = jieba.lcut(txt) # 使用精确模式对文本进行分词 counts = {} # 通过键值对的形式存储词语及其出现的次数 for word in words: if len(word) == 1: # 单个词语不计算在内 continue else: counts[word] = counts.get(word, 0) + 1 # 遍历所有词语,每出现一次其对应的值加 1 items = list(counts.items())#将键值对转换成列表 items.sort(key=lambda x: x[1], reverse=True) # 根据词语出现的次数进行从大到小排序 #sort() 函数用于对原列表进行排序,如果指定参数,则使用比较函数指定的比较函数 #reverse 排序规则,reverse = True 降序, reverse = False 升序(默认) #key 是用来比较的参数 for i in range(15): #提取前15位 word, count = items[i] print("{0:<5}{1:>5}".format(word, count))
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。