当前位置:   article > 正文

【Python+中文NLP】(二) 中文分词工具包:jieba_中文分词的工具包

中文分词的工具包

前言

         目前中文分词算法可分为三大类:基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法随着大规模语料库的建立,统计机器学习方法的研究和发展,基于统计的中文分词方法渐渐成为了主流方法主要方法为:给出大量已经分词的文本,利用统计机器学习模型学习词语切分的规律(称为训练),从而实现对未知文本的切分。例如最大概率分词方法和最大熵分词方法等。

       主要统计机器学习模型:

  •        N元文法模型(N-gram),
  •        隐马尔可夫模型(Hidden Markov Model ,HMM),
  •        最大熵模型(ME),
  •        条件随机场模型(Conditional Random Fields,CRF)等。

     而NLP得工具包nltk处理中文的第一步障碍就是中文资料不是分好词的, 词语与词语之间没有空格。要使用nltk对中文进行处理, 首先的第一步就是中文分词(中文断词)。我们得认清现实,现实就是nltk不支持处理中文,因此,这个给国内很多自然语言处理的研究人员有了研究的空间了,国内目前几个比较好的中文分词工具如下:

  •        jieba【推荐】
  •        thulac(清华大学) :处理utf-8编码
  •      
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/351257
推荐阅读
相关标签
  

闽ICP备14008679号