当前位置:   article > 正文

nlp入门之nltk_nltk分词

nltk分词

源码请到:自然语言处理练习: 学习自然语言处理时候写的一些代码 (gitee.com)

三、nltk工具的使用

3.1  nltk工具的安装

使用命令

pip install nltk

安装nltk,但是仅仅是安装了nltk的框架,内部的软件包需要使用命令

nltk.download()

执行命令会弹出一个窗口

无法下载软件包的问题可以参考这篇:NLTK语料库nltk.download()安装失败及下载很慢的解决方法_深度学习菜鸟的博客-CSDN博客

将服务器地址改为了http://www.nltk.org/nltk_data/

 就可以正常安装软件包了

3.2 nltk分词操作

安装成功后就可以使用分词器进行分词了

示例:

  1. input_str = "Today's weather is good, very windy and sunny, we have no classes in the afternoon. We have to play " \
  2. "basketball tomorrow"
  3. tokens = word_tokenize(input_str)
  4. print(tokens)

3.3 nltk简单文本操作

nltk可以进行一些简单的文本操作,如统计词的个数,查找词的位置等

示例:

  1. # 文本操作
  2. t = Text(tokens)
  3. print(t.count('good'))
  4. print(t.index('good'))
  5. print(t.plot())

 3.4 停用词

出现频率很高但是对自然语言处理价值很低的词被叫做停用词

nltk自带了一些停用词表,输入命令就可以查看支持语言的停用词表

示例:

print(stopwords.fileids())

可以看到支持的语言不包含中文,所有接下来我们只使用英文语料库

输入命令就可以查看英文停用词表

示例:

print(stopwords.raw('english'))

数量很多就不全部展示了,接下来查找目前语料库中的停用词

print(test_words_set.intersection(set(stopwords.words('english'))))

为了进一步进行自然语言处理,很多时候我们需要将停用词进行筛除,nltk就可以做到这个功能。

示例:

  1. filterd = [w for w in test_words_set if w not in stopwords.words('english')]
  2. print(filterd)

3.5 词性标注

nltk还可以将每个词的词性标注出来,词性表如下

 示例:

  1. tags = pos_tag(tokens)
  2. print(tags)

3.6 分块

可以根据词性对词进行分块

示例:

我定义了一个MY_NP的词并且用正则表达式写出这个块的句子词性是什么样的,nltk可以找出语料库中符合的块

  1. sentence = [('the', 'DT'), ('little', 'JJ'), ('yellow', 'JJ'), ('dog', 'NN'), ('died', 'VBD')]
  2. grammer = "MY_NP: {<DT>?<JJ>*<NN>}"
  3. cp = nltk.RegexpParser(grammer)
  4. result = cp.parse(sentence)

3.7 命名实体识别

nltk可以提取出一些语句中的实体

示例:

# 命名实体识别
  1. sentence = "Edison went to Tsinghua University today"
  2. print(ne_chunk(pos_tag(word_tokenize(sentence))))

 Edison被识别出是个人,清华大学被识别出是个组织

3.8 数据清洗

网络上爬取的语料中有可能有很多特殊符号,对nlp造成了很大的影响,所以需要一些方法来进行数据清理,利用nltk可以很好的办到这些

示例:

  1. # 数据清洗
  2. s = "RT @Amila #Test\nTom\'s newly listed Co &amp; Mary\'s unlisted Group to supply tech for nlTK.\nh $TSLA " \
  3. "$AAPL https:// t.co/x34afsfQsh"
  4. cache_english_stopwords = stopwords.words('english')
  5. def text_clean(text):
  6. print('原始数据:', text, "\n")
  7. # 去掉HTML标签(e.g. &amp;)
  8. text_no_special_entities = re.sub(r'&\w*;|#\w*|@\w*', '', text)
  9. print("去掉特殊标签后的:", text_no_special_entities, '\n')
  10. # 去掉一些价值符号
  11. text_no_tickers = re.sub(r'\$\w*', '', text_no_special_entities)
  12. print("去掉一些价值符号的:", text_no_tickers, '\n')
  13. # 去掉超链接
  14. text_no_hyperlinks = re.sub(r'https?://.*/\w*', '', text_no_tickers)
  15. print("去掉超链接的:", text_no_hyperlinks, '\n')
  16. # 去掉一些专门名词缩写,简单来说就是字母较少的词
  17. text_no_small_words = re.sub(r'\b\w{1,2}\b', '', text_no_hyperlinks)
  18. print("去掉专门名词缩写的:", text_no_small_words, '\n')
  19. # 去掉多余空格
  20. text_no_whitespace = re.sub(r'\s\s+', " ", text_no_small_words)
  21. text_no_whitespace = text_no_whitespace.lstrip(' ')
  22. print("去掉多余空格的:", text_no_whitespace, '\n')
  23. # 分词
  24. tokens = word_tokenize(text_no_whitespace)
  25. print("分词结果:", tokens, '\n')
  26. # 去停用词
  27. list_no_stopwords = [i for i in tokens if i not in cache_english_stopwords]
  28. print('去掉停用词结果', list_no_stopwords, '\n')
  29. # 过滤后结果
  30. text_filtered = ' '.join(list_no_stopwords)
  31. print('过滤后', text_filtered)
  32. text_clean(s)

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号