赞
踩
花了两个月学习python编程和复习H5CSS3
已经实现爬虫和数据导入,现在还剩两个阶段
今天在尝试提取关键字和生成词云
使用了jieba 和 wordcloud模块,但还未掌握停用字、并且分词不准确。
使用wordcloud模块时出现小问题但也解决了到处图片,图片中字体出现方块,原因是我字体设置错误,这个时候我只能引用系统自带的字体。
解决方案:https//blog.csdn.net/q3102885/article/details/80622348
源码查看:
""" 测试中文分词 """ import jieba import wordcloud text1 = jieba.cut_for_search("朱自清早期的散文,共25篇。可分为写实议论和叙事抒情两大类。如《生命的" "价格-七毛钱》、《航船中的文明》、《白种人-上帝的骄子》、《阿河》、《" "哀韦杰三君》、《旅行杂记》等直接从现实生活取材,以夹叙夹议手法抨击黑暗" "社会的名篇;又如《背影》、《桨声灯影里的秦淮河》、《绿》、《荷塘月色》" "、《月朦胧,鸟朦胧,帘卷海棠红》、《白水漈》等情景交融、充满诗情画意而" "脍炙人口的佳作,代表了他的散文艺术的最高成就。") w = wordcloud.WordCloud(width=1000) w.generate(" ".join(text1)) w.to_file("C:\\Users\\S1999\\Desktop\\computerlanguage.png")
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。