赞
踩
昝老师前两天给了个很好的思路,就是我在对句子进行分词时,可以用依存分析去理解句子中单词之间的关系。比如:
吉尔嘲笑约翰
这句话中,“吉尔”是笑的主体,“约翰”是被嘲笑的对象。那么我们怎样得到这样的结果呢?
还没有安装spaCy
的可以参考我的这篇文章:安装spaCy(最简单的教程)
句子中词与词存在主从关系,我们用一个词A
修饰另一个词B
,那么A
就是从属词,B
是支配词,箭头指向为:支配词→从属词
。
在进行依存关系分析时,得到的结果往往是以动词为根(ROOT
)的树形数据结构。依存关系是二元关系,除了ROOT
外,句子中的所有单词必须依存于其他单词。(总之就是很乱)
在对话中,我们往往需要重点关注带有subj
和obj
的,可以去我给的参考 1去翻。
(仔细看看的话还觉得挺好玩的,居然能分的这么细,跪了啊Orz)
spaCy
能做什么?简单概括以下三点对我有用的(我能听懂的T_T)2
我的任务是提取出一个句子中的subj
短语和obj
短语,那我就可以这样写代码:
(多提一嘴,spaCy
可以分离出短语,算是意外收获)
import spacy
nlp = spacy.load("en_core_web_sm")
doc = nlp("The quick brown fox jumps over the lazy dog")
subj_list = ["nsubj", "nsubjpass", "csubj"]
obj_list = ["dobj", "iobj", "pobj"]
for chunk in doc.noun_chunks:
if chunk.root.dep_ in subj_list:
print("subj: ", chunk.text)
if chunk.root.dep_ in obj_list:
print("obj: ", chunk.text)
输出结果是:
subj: The quick brown fox
obj: the lazy dog
[1] Stanford CoreNLP 50来种依存关系(Stanford typed dependencies)
[2] 神圣的NLP!一文理解词性标注、依存分析和命名实体识别任务
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。