当前位置:   article > 正文

nltk包没有发现punkt资源问题_punkt.zip

punkt.zip

python调用nltk包做分词处理

笔者在使用python做文本分类时

import nltk.tokenize as tk
做分词处理时发现以下错误:
提示需要下载
而按照其提示所操作:
在这里插入图片描述
后面在网上各种搜寻终于成功解决,步骤如下:

1.自行在网上下载好nltk_data包
2.在C盘创建nltk_data文件夹

将下载的nltk_data.zip文件解压到新建的nltk_data文件夹中(本人用的window10系统)

3.进入nltk_data找到tokenizers文件夹

将其打开,解压punkt.zip

4.进入punkt文件夹

在其内创建PY3文件夹,将puntk文件内的所有.pickle文件拷贝进PY3文件,大功告成!

结果演示如下:

在这里插入图片描述
以上为笔者以前踩过的坑,学习之路坑太多,分享出来为各位小伙伴减少踩坑路。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/344392
推荐阅读
相关标签
  

闽ICP备14008679号