赞
踩
今天准备理解一下 TF-IDF,于是下载安装nltk包,但是import word_tokenize后使用word_tokenize进行分词,报错:
LookupError:
Resource [93mpunkt[0m not found.
Please use the NLTK Downloader to obtain the resource:
nltk.download(‘punkt’)
Attempted to load [93mtokenizers/punkt/english.pickle[0m
Searched in:
- ‘C:\Users\Administrator/nltk_data’
- ‘D:\Python3.6\nltk_data’
- ‘D:\Python3.6\share\nltk_data’
- ‘D:\Python3.6\lib\nltk_data’
- ‘C:\Users\Administrator\AppData\Roaming\nltk_data’
- ‘C:\nltk_data’
- ‘D:\nltk_data’
- ‘E:\nltk_data’
- ‘’
意思应该是需要 nltk.download(‘punkt’),于是在Python中运行:
import nltk
nltk.download(‘punkt’)
报错:无法连接。
又试: nltk.download(),but:
好吧,佛了。
于是,,,去官网直接下载:https://github.com/nltk/nltk_data
下载packages就好。
放入之前报错中的:
- ‘C:\Users\Administrator/nltk_data’
- ‘D:\Python3.6\nltk_data’
- ‘D:\Python3.6\share\nltk_data’
- ‘D:\Python3.6\lib\nltk_data’
- ‘C:\Users\Administrator\AppData\Roaming\nltk_data’
- ‘C:\nltk_data’
- ‘D:\nltk_data’
- ‘E:\nltk_data’
- ‘’
任一文件夹下就OK,这里需将 packages 重命名成 nltk_data。
然后,,
找到 nltk-data 中 punkt 所在目录:
这里要进入 punkt.zip 将 punkt 文件拖出来,与 punkt.zip 同级,然后 punkt.zip 就可以删掉啦,于是才大功告成,呼~
再试一下 word_tokenize,木问题啦!
我想,后续如果要用到其他数据文件,类似punkt的处理。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。