当前位置:   article > 正文

【Python+中文NLP】(一) NLTK库

【Python+中文NLP】(一) NLTK库

一、nltk库

        nltk是一个python工具包, 用来处理与自然语言相关的东西. 包括分词(tokenize), 词性标注(POS), 文本分类等,是较为好用的现成工具。但是目前该工具包的分词模块,只支持英文分词,而不支持中文分词。

1.安装nltk库

 在命令行输入:

  1. conda install nltk #anaconda环境
  2. pip install nltk #纯python环境

进入对应的环境中,输入如下:

  1. import nltk
  2. nltk.download()

运行后,弹出NLTK Downloader窗口,自定义安装内容 (博主选择all ,即全部安装,大概3.2G左右) ,安装成功如下图所示:

2.nltk库的使用方法

(1)学习资料

  【参考文章】

自然语言工具包入门

  【nltk功能模块】如下图

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/632895
推荐阅读
相关标签
  

闽ICP备14008679号