赞
踩
Py之nltk:NLTK的简介、安装、使用方法之详细攻略
目录
NLP之nltk:基于nltk库实现句子分词及标注对应词性、句子分割、波特词干算法进行词干提取代码案例实现
NLTK是构建用于处理人类语言数据的Python程序的领先平台。它为超过50个语料库和词汇资源(如WordNet)提供了易于使用的界面,以及一套用于分类、标记化技术、词干、标记、解析和语义推理的文本处理库、工业级NLP库的包装器以及一个活跃的讨论论坛。
用Python进行自然语言处理为语言处理的编程提供了一个实用的介绍。它由NLTK的创建者编写,指导读者完成编写python程序、使用语料库、对文本进行分类、分析语言结构等的基础知识。这本书的在线版本已经为python 3和nltk 3进行了更新。
NLTK(Natural Language ToolKit),是时下非常流行的在Python解释器环境中用于自然语言处理的工具包。对于NLTK的使用者而言,它就像是一名极其高效的语言学家,为您快速完成对自然语言文本的深层处理和分析。
官网:NLTK :: Natural Language Toolkit
参考地址:自然语言处理工具包之NLTK – 标点符 - 广告流程自动化
对句子进行词性标注需要先进行切分。默认使用的标记格式是penn treebank 库使用的
- pip install nltk
-
-
- pip install -i https://pypi.tuna.tsinghua.edu.cn/simple nltk
- pip install --upgrade nltk
-
-
- pip install -i https://pypi.tuna.tsinghua.edu.cn/simple --upgrade nltk
- from nltk.corpus import treebank
- t = treebank.parsed_sents('wsj_0001.mrg')[0]
-
- t.draw()
- import nltk
- sentence = """At eight o'clock on Thursday morning
- tokens = nltk.word_tokenize(sentence)
- print(tokens)
- tagged = nltk.pos_tag(tokens)
- print(tagged )
NLP之nltk:基于nltk库实现句子分词及标注对应词性、句子分割、波特词干算法进行词干提取代码案例实现_nltk句子分割_一个处女座的程序猿的博客-CSDN博客
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。