当前位置:   article > 正文

使用nltk处理中文语料(1)- 统计相关_nltk 中文

nltk 中文

1、概述

nltk作为自然语言处理(nlp)领域里经常被使用的一款工具。本身自带的语料大部分是英文的,其实跟对中文文档,稍作处理之后也是可以使用的,这里主要介绍nlp在中文领域的基础应用。

2、nltk安装

关于nltk的安装网上有很多的文章介绍,可以使用pip install nltk 命令非常方便的安装nltk。一般在安装完成之后需要使用download命令来下载相关的语料库,这些语料库是官方自带的,大部分是英文语料。很多nltk的教程都是基于这些语料来做的。在执行download命令时,可以由于网络环境的原因下载失败,此时可以从网上下载语料,放在环境变量所制定的文件中,就可以加载使用了。可以从下面连接下载语料:

http://pan.baidu.com/s/1hswoU5u

可以将下载的语料解压之后,放在下面目录中的任何一个就可以了:

  • ~/nltk_data 
  • /usr/share/nltk_data
  • /usr/local/share/nltk_data
  • /usr/lib/nltk_data
  • /usr/local/lib/nltk_data

注意:这里“~”代表用户所在的主目录

3、加载中文语料

nltk自带了很多统计的功能,但针对中文来讲,分词的工作需要我们手动完成。然后再把处理过的文本封装成nltk的“text”对象。然后才能使用nltk进行处理。

3.1 使用结巴进行分词

分词的目的是为nltk的text对象提供封装的语料,所以我们使用结巴分词的lcut方法进行分词,该方法与cut

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/351245
推荐阅读
相关标签
  

闽ICP备14008679号