当前位置:   article > 正文

Python学习(中文分词和wordcloud)_wordcloud按字分词

wordcloud按字分词

花了两个月学习python编程和复习H5CSS3

已经实现爬虫和数据导入,现在还剩两个阶段

今天在尝试提取关键字和生成词云

使用了jieba 和 wordcloud模块,但还未掌握停用字、并且分词不准确。

使用wordcloud模块时出现小问题但也解决了到处图片,图片中字体出现方块,原因是我字体设置错误,这个时候我只能引用系统自带的字体。

解决方案:https//blog.csdn.net/q3102885/article/details/80622348
源码查看:

"""
    测试中文分词
"""

import jieba
import wordcloud

text1 = jieba.cut_for_search("朱自清早期的散文,共25篇。可分为写实议论和叙事抒情两大类。如《生命的"
                             "价格-七毛钱》、《航船中的文明》、《白种人-上帝的骄子》、《阿河》、《"
                             "哀韦杰三君》、《旅行杂记》等直接从现实生活取材,以夹叙夹议手法抨击黑暗"
                             "社会的名篇;又如《背影》、《桨声灯影里的秦淮河》、《绿》、《荷塘月色》"
                             "、《月朦胧,鸟朦胧,帘卷海棠红》、《白水漈》等情景交融、充满诗情画意而"
                             "脍炙人口的佳作,代表了他的散文艺术的最高成就。")
w = wordcloud.WordCloud(width=1000)
w.generate(" ".join(text1))
w.to_file("C:\\Users\\S1999\\Desktop\\computerlanguage.png")
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/348402
推荐阅读
相关标签
  

闽ICP备14008679号