当前位置:   article > 正文

NLP自然语言处理中英文分词工具集锦与基本使用介绍_英语分词软件

英语分词软件

一、中文分词工具

(1)Jieba

 

(2)snowNLP分词工具

 

(3)thulac分词工具

 

(4)pynlpir 分词工具

(5)StanfordCoreNLP分词工具

1.from stanfordcorenlp import StanfordCoreNLP

2.with StanfordCoreNLP(r'E:\Users\Eternal Sun\PycharmProjects\1\venv\Lib\stanford-corenlp-full-2018-10-05', lang='zh') as nlp:

3.    print("stanfordcorenlp分词:\n",nlp.word_tokenize(Chinese))

(6)Hanlp分词工具

 

分词结果如下:

 

二、英文分词工具

 

1. NLTK:

 

二者之间的区别在于,如果先分句再分词,那么将保留句子的独立性,即生成结果是一个二维列表,而对于直接分词来说,生成的是一个直接的一维列表,结果如下:

 

2. SpaCy:

 

3. StanfordCoreNLP:

 

分词结果

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/550464
推荐阅读
相关标签
  

闽ICP备14008679号