当前位置:   article > 正文

nltk.download('punkt') False_import nltk nltk.download('punkt')

import nltk nltk.download('punkt')

下面是使用NLTK进行分词,然后去除stop_words的操作,但是运行的时候,提示需要下载punkt。

from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize

example_sent = "This is a sample sentence, showing off the stop words filtration."

stop_words = set(stopwords.words('english'))

word_tokens = word_tokenize(example_sent)

filtered_sentence = [w for w in word_tokens if not w in stop_words]

filtered_sentence = []

for w in word_tokens:
    if w not in stop_words:
        filtered_sentence.append(w)

print(word_tokens)
print(filtered_sentence)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

Our output here:



['This', 'is', 'a', 'sample', 'sentence', ',', 'showing', 'off', 'the', 'stop', 'words', 'filtration', '.']
['This', 'sample', 'sentence', ',', 'showing', 'stop', 'words', 'filtration', '.']
  • 1
  • 2
  • 3
  • 4

可是下载一直显示False,尝试了好几次之后,确定不是断网的问题。
这里写图片描述
换了别人的机子,就好了。。。。
我想要在我这台机子就将目录复制到对应的失败的目录:
这里写图片描述
然后就成功了。。。。
最后给出百度盘的下载链接,以防以后下载不下来。
punkt.zip密码:mema

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/426129
推荐阅读
相关标签
  

闽ICP备14008679号