当前位置:   article > 正文

jieba库分词并生成词云_jieba生成词云

jieba生成词云
  1. import jieba
  2. import wordcloud
  3. stop_words={}
  4. with open('D:/res/stopwords.txt','r',encoding='utf-8') as f:
  5. stop_words=f.read()
  6. stop_words=stop_words.split('\n')
  7. text=[]
  8. with open('D:/res/info.txt','r',encoding='utf-8') as f:
  9. text=jieba.cut(f.read())
  10. w=wordcloud.WordCloud(font_path='C:/Windows/Fonts/simsun',stopwords=stop_words,scale=32)
  11. w.generate(' '.join(text))
  12. w.to_file('D:/res/pic.jpg')

将停用词文件和数据导入,对数据进行分词后,使用wordcloud去除停用词,加载中文字体,设置清晰度,得到词云。

注意如果有一些无意义词汇占比太大,可手动在stopword文件中添加停用词

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/622078
推荐阅读
相关标签
  

闽ICP备14008679号