赞
踩
spaCy是最流行的开源NLP开发包之一,它有极快的处理速度,并且预置了词性标注、句法依存分析、命名实体识别等多个自然语言处理的必备模型,因此受到社区的热烈欢迎。中文版预训练模型包括词性标注、依存分析和命名实体识别,由汇智网提供,下载地址:spaCy2.1中文模型包【汇智网】 。
下载后解压到一个目录即可,例如假设解压到目录 /models/zh_spacy,目录结构如下:
/spacy/zh_model | - meta.json # 模型描述信息 | - tokenizer | - vocab # 词库目录 | - tagger # 词性标注模型 | - parser # 依存分析模型 | - ner # 命名实体识别模型
使用spaCy载入该模型目录即可。例如:
import spacynlp = spacy.load('/spacy/zh_model')doc = nlp('西门子将努力参与中国的三峡工程建设。')for token in doc: print(token.text)
spaCy2.1中文预训练模型下载地址:http://sc.hubwiz.com/codebag/zh-spacy-model/
spaCy中文模型采用了中文维基语料预训练的300维词向量,共352217个词条。
例如,查看词向量表大小及维度:
import spacynlp = spacy.load('/spacy/zh_model')print(nlp.vocab.vectors.shape)print(nlp.vocab['北京'].vector)
结果如下:
(352217, 300)[-0.136166 -0.339835 0.528109 0.417842 -0.093321 -0.42306 -0.475931 -0.125459 0.137432 -0.567229 0.242339 0.245993 -0.377495 -0.274273 ... 0.238025 0.309567 -0.692431 -0.078103 -0.26816 0.051805 0.075192 -0.052902 0.376131 -0.221235 0.23855 -0.11685 0.40507 ]
spaCy中文词性标注模型采用Universal Dependency的中文语料库进行训练。
import spacynlp = spacy.load('/spacy/zh_model')doc = nlp('西门子将努力参与中国的三峡工程建设。')for token in doc: print(token.text,token.pos_,token.tag_)
将得到如下的词性标注结果:
西门子 NNP将 BB努力 RB参与 VV中国 NNP的 DEC三峡工程 NN建设 NN
spaCy中文依存分析模型采用Universal Dependency的中文语料库进行训练。
例如,下面的代码输出各词条的文本、依赖关系以及其依赖的词条:
import spacynlp = spacy.load('/spacy/zh_model')doc = nlp('西门子将努力参与中国的三峡工程建设。')for token in doc: print(token.text,token.dep_,token.head)
输出结果如下:
西门子 nsubj 参与将 advmod 参与努力 advmod 参与参与 ROOT 参与中国 det 建设的 case:dec 中国三峡工程 nmod 建设建设 obj 参与。 punct 参与
也可以使用spaCy内置的可视化工具:
from spacy import displacydisplacy.render(doc,type='dep')
结果如下:
spaCy中文NER模型采用ontonotes 5.0数据集训练。
例如:
import spacynlp = spacy.load('/spacy/zh_model')doc = nlp('西门子将努力参与中国的三峡工程建设。')for ent in doc.ents: print(ent.text,ent.label_)
输出结果如下:
西门子 ORG中国 GPE三峡工程 FAC
也可以使用spaCy内置的可视化工具:
from spacy import displacydisplacy.render(doc,type='ent')
运行结果如下:
原文链接:spaCy2.1中文模型包 — 汇智网paCy
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。