当前位置:   article > 正文

Python金融数据挖掘 第7章 第2节 (4)中文文本分析处理_python中文文本分析

python中文文本分析

一、中文数据预处理——分词

1、分词:中文分词模块——jieba库

默认精确模式,还有全模式、搜索引擎模式

2、分类

1)精确模式(默认):最精确的分开适合文本分析,并且不存在冗余词语,切分后词语总词数与文章总词数相同。。

2)全模式:所有可以合成的词语都扫描除了,速度快,但不解决歧义,有冗余,即在文本中从不同的角度分词,变成不同的词语。。

3)搜索引擎模式:精确模式上对长词切分,提高召回率,适用于搜索引擎分词。

(1)精确模式:jieba.lcut(字符串,cut_all=False),默认时为cut_all=False,表示为精确模型。

(2)全模式:ieba.lcut(字符串,cut_all=True),其中cut_all=True表示采用全模型进行分词。

(3)搜索引擎模式:在精确模式的基础上,对长词语再次切分。

3、词性标注含义

nt:机构团体

n:名词

p:介词

t:时间

v:动词

eng:英语词

x:字符串

4、实例

  1. # 引入库
  2. import jieba
  3. import jieba.posseg as psg
  4. from collections import Counter
  5. # 词组,代表一个句子,数值型数据,形式、内容
  6. # 要划分的句子
  7. s=u'北京大学毕业生于昨日来python公司应聘!'
  8. # 生成结果类型
  9. cut=jieba.cut(s)
  10. print('Output:')
  11. print(','.join(cut))
  12. # 列表类型
  13. # 精确分词
  14. cut1=jieba.lcut(s)
  15. print(cut1)
  16. # 全模式
  17. cut2=jieba.lcut(s,cut_all=True)
  18. print(cut2)
  19. # 搜索引擎模式
  20. cut3=jieba.lcut_for_search(s)
  21. print(cut3)
  22. # 按照词性标注
  23. words=psg.cut(s)
  24. # 输出
  25. for word,flag in words:
  26. print(word,flag)

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号