赞
踩
本文已参与「新人创作礼」活动,一起开启掘金创作之路,今天更新一下NLP自然语言处理中的一些基本操作,在用python进行自然语言处理时我们可能经常用到两个库:(1)jieba;(2)gensim,jieba这个库很好安装,pip install jieba或者常规的方法都可以,可能会耗时比较长,gensim也是常规的安装方法,但可能由于你python版本的不同或者,可能会出现一些错误,没办法python有时候就是这样。大家慢慢解决就好了。
首先,大家来看一下jieba的解释:
jieba
库是一款优秀的 Python 第三方中文分词库,jieba
支持三种分词模式:精确模式、全模式和搜索引擎模式,下面是三种模式的特点。
(1)首先是全模式
(2)其次是精简模式
(3)最后是搜索模式
三种模式的分词结果各不相同,个人觉得精确模式更接近于。正常人的理解方式,哈哈哈。
举个例子:
content="我是中国人,我爱我的祖国"
print("/".join(jieba.lcut(content))) # 精简模式,返回一个列表类型的结果
返回的结果如下:
斜杠也可以换成其他的符号,例如空格
其他模式的代码如下:
print("/".join(jieba.cut(content,cult_all=True))) # 全模式,返回一个列表类型的结果
print("/".join(jieba.cut(content,cult_all=False))) # 全模式,返回一个列表类型的结果
对比完之后,大家可能发现在提取关键字的时候,使用精简模式可能会更方便
NLP当然不可能这么简单,它还要处理语料库,特征工程等步骤,下次我们再继续讨论,哈哈哈 今天舅到此为止!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。