当前位置:   article > 正文

python可视化词云图WordCloud_wordcloud的路径怎么看

wordcloud的路径怎么看

一、WordCloud安装

首先打开命令提示符,输入“pip install wordcloud”安装词云包

问题① 安装包的位置

安装时非常顺利,但是在jupyter notebook里想要引入wordcloud时出现了问题:

——ModuleNotFoundError: No module named 'wordcloud'

也就是没有找到wordcloud这个包。

百度了一下说可能是因为安装路径为电脑默认路径,需要改在Python的安装目录下

这里记录一下检查Python安装路径的方式:

  1. import sys
  2. print(sys.executable)

以及更改安装包路径的方式:

在系统中输入cmd命令:

Python安装路径 -m pip install wordcloud

不过这并没有解决我的问题,因为我的安装路径是正确的。在Python文件夹\Lib\site-package中查看,wordcloud待在正确的地方-_-||

后来看其它文章发现,我是在anaconda下打开的jupyter notebook,位置跟本地wordcloud安装包的默认路径不一样。文章里的具体解决方法是在anaconda目录下再下载对应的wordcloud包。

但我的anaconda装的乱七八糟的,根本找不到site-package文件夹,于是干脆在默认路径下重新安装了jupyter notebook。直接输入cmd命令:

pip install jupyter notebook

重新打开jupyter,输入cmd命令:

jupyter notebook

再次引入wordcloud时,就成功了。

二、打开文件

问题② 文件路径

直接打开文件是找不到的,因为并不在当前目录下,会出现下面的提示:

所以要更改目录。首先查看当前目录:

 如果不清楚os库里面有什么可调用的函数,可以查看一下:

chdir函数就可以更改当前目录:

 

 这里又报错,因为在Python的字符串里面\有转义的意思。

可以在前面加入r,来保持字符原始值(或者改成/正斜杠 \\双反斜杠都可以):

再查看一下当前目录:

 

修改好了,这样就可以找到文件了。

问题③ 文件解码

直接打开文件也是会出现问题的:

就是说这里面有汉字, 不能直接解码,需要改一下:

三、制作词云

先引入一下matplot库

 问题④ 词云乱码

开始做词云:

这里记录一下plt.imshow(对象)和plt.show的区别:

前者负责对图像进行处理并显示其格式,后者是把处理后的图像显示出来

以及plt.axis('off')的意思是“关闭坐标轴”

出现这样的情况是因为没有设置用来显示的字体,设置一下就好啦:

四、分词

首先跟wordcloud一样,先下好jieba安装包

问题⑤ with函数:

之前打开文件是用的读文件的模式,即

text=open('文件名称','r'),read

这个方法的问题是:如果文件不存在的话,open函数就会报错;而且文件使用完毕后要用close关闭文件,因为打开的文件会占用操作系统的资源,系统同一时间能打开的文件数量是有限的。

那如果文件读写时报错,后面的close函数就不能执行。所以为了无论是否出错都能正确关闭文件,可以使用try…finally来实现:

  1. try:
  2. f = open('/path/to/file', 'r')
  3. print(f.read())
  4. finally:
  5. if f:
  6. f.close()

 这样就有点麻烦,所以——

这次在打开用来分析的文本文档时,使用了with函数:

 具体with函数的执行原理没看懂,但是

用with语句来操作文件的作用是:打开一个文件,如果一切正常则赋值为f,如果出现异常,该文件仍然会被关闭。

奈斯。

问题⑥ jieba分词

 renmin就是要拿来分词的对象, cut_all是分词模式。cut_all=False的意思是精确模式,默认就是False。

1.精确模式是指将句子最精确地切开,适合文本分析:

例:今天天气真好 → 今天天气,真,好

2.cut_all=True可以开启全模式,这个模式能够把句中所有可以成词的词语都扫描出来,速度很快但可能有歧义:

例:今天天气真好 → 今天,今天天气,天天,天气,真好

 3.还有一个搜索引擎模式,是在精确模式的基础上对长词再次切分,提高召回率,适合用于搜索引擎分词:

例:今天天气真好 → 今天,天天,天气,今天天气,真,好

后边就是把分出来的词遍历,放到字典里统计出现次数。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/899413
推荐阅读
相关标签
  

闽ICP备14008679号