当前位置:   article > 正文

基于python的几种中文分词-词性获取_python中文词性分类

python中文词性分类

基于python的几种中文分词-词性获取

根据当前网络上关于中文分词的python包,先取以下四种方式:

  1. jieba分词;
  2. 清华大学的THULAC;
  3. HanLP;
  4. pynlpir.

1.测试环境

系统:win10;

python版本:python3.6;

已经配好的环境变量。

2.安装与使用

2.1 jieba分词

安装:在dos窗口中:pip install jieba安装即可

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/355506
推荐阅读
相关标签
  

闽ICP备14008679号