当前位置:   article > 正文

NLP自然语言处理基础技术工具 汇总_hanlp和spacy

hanlp和spacy

 

目前,有很多开源或开放的自然语言处理工具可以供我们使用,可以方便地解决很多NLP的基础任务,例如,分词、词性标注、词干化、命名实体识别、名词短语提取等等。

汇总起来方便比较,择优而用。

目录

1. HanLP

2. SpaCy

3. FudanNLP

4. Jieba 结巴

5. SnowNLP

6. PkuSeg

7. THULAC


1. HanLP

提供了中文依存句法分析功能。支持多种自然语言处理基本功能。

Github 地址:https://github.com/hankcs/pyhanlp

2. SpaCy

快速的工业级自然语言处理工具。 目前不支持中文。

支持多种自然语言处理基本功能。

Gihub 地址:https://github.com/explosion/spaCy

官网:https://spacy.io/

3. FudanNLP

复旦大学自然语言处理实验室开发的中文自然语言处理工具包。支持多种自然语言处理基本功能。

Github 地址:https://github.com/FudanNLP/fnlp

4. Jieba 结巴

支持中文分词、关键词抽取

Github 地址:https://github.com/fxsjy/jieba

5. SnowNLP

SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的,由于现在大部分的自然语言处理库基本都是针对英文的,于是写了一个方便处理中文的类库,并且和TextBlob不同的是,这里没有用NLTK,所有的算法都是自己实现的,并且自带了一些训练好的字典。注意本程序都是处理的unicode编码,所以使用时请自行decode成unicode。

Github 地址:https://github.com/isnowfy/snownlp

6. PkuSeg

致力于为多领域的中文分词。目前支持了新闻领域,网络领域,医药领域,旅游领域,以及混合领域的分词预训练模型。
支持用户自训练模型。支持用户使用全新的标注数据进行训练。
支持词性标注。

Github 地址:https://github.com/lancopku/pkuseg-python

7. THULAC

具有中文分词和词性标注功能。

Github 地址:https://github.com/thunlp/THULAC-Python

 

 


————————————————
不断补充中...

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/566328
推荐阅读
  

闽ICP备14008679号