赞
踩
在初级教程中,我们介绍了SpaCy库的一些基本特性和功能。在这篇中级指南中,我们将深入学习一些更高级的特性,包括词向量、依赖性解析、和自定义组件。
SpaCy库支持词向量,也称为Word Vectors或Word Embeddings,这是一种使用神经网络将词语映射到多维空间的技术,词语的语义相似度可以通过它们的向量的空间距离来衡量。
加载包含词向量的模型:
nlp = spacy.load('en_core_web_md')
获取词向量:
tokens = nlp("dog cat banana")
for token in tokens:
print(token.text, token.has_vector, token.vector_norm, token.is_oov)
计算词语相似度:
tokens = nlp("dog cat banana")
for token1 in tokens:
for token2 in tokens:
print(token1.text, token2.text, token1.similarity(token2))
依赖性解析是识别句子中各个词语之间的依赖关系的过程。SpaCy能够识别句子的句法结构,并提供了可视化的工具。
from spacy import displacy
doc = nlp("This is a sentence.")
displacy.serve(doc, style='dep')
SpaCy允许你添加自定义的处理组件,这些组件将会被加入到处理管道中,你可以使用它们对文档进行各种各样的处理。
下面的例子展示了如何添加一个自定义的组件,这个组件会在每个词后面添加一个感叹号:
def add_exclamation(doc):
for token in doc:
token.text += "!"
return doc
nlp.add_pipe(add_exclamation, before='ner')
doc = nlp("This is a sentence.")
print([(token.text, token.ent_type_) for token in doc])
在这篇中级指南中,我们学习了SpaCy库的一些高级特性,包括词向量、依赖性解析和自定义组件。这些特性都极大的扩展了SpaCy在自然语言处理领域的应用能力。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。