当前位置:   article > 正文

【NLP】基于预训练的中文NLP工具介绍:ltp 和 fastHan

ltp模型
  • 1. 简介

  • 2. ltp

  • 3. fastHan

    • 3.1 模型结构

    • 3.2 demo

    • 3.3 词典分词

    • 3.4 微调模型

    • 3.5 词性标注集

  • 4. 速度对比实验

1. 简介

今天给大家介绍两个中文自然语言处理工具:ltp 和 fastHan,两者都支持基本的中文自然语言处理任务,包括中文分词、词性标注、命名实体识别和依存句法分析等。ltp 是由哈工大社会计算与信息检索研究中心(HIT-SCIR)开源,基于 pytorch 与 transformers 实现的语言技术平台,其内核为基于 Electra 的联合模型。

  1. paper: N-LTP: An Open-source Neural Language Technology Platform for Chinese 
  2. link: https://arxiv.org/pdf/2009.11616.pdf
  3. code: https://github.com/HIT-SCIR/ltp

fastHan 是由复旦大学自然语言处理实验室邱锡鹏组研发,基于 fastNLP 与 pytorch 实现的中文自然语言处理工具,其内核为基于 BERT 的联合模型。

  1. paper: fastHan: A BERT-based Multi-Task Toolkit for Chinese NLP
  2. link: https://arxiv.org/pdf/2009.08633v2.pdf
  3. code: https://github.com/fastnlp/fastHan

2. ltp

2.1 工作流程

febcb44281ac040c4dc0b1dae373a285.png

如上为 N-LTP 的工作流程,输入为中文语料库,输出为相对丰富和快速的分析结果,包括词法分析(中文分词、词性标注和命名实体识别),依存句法分析和语义分析(语义依存分析和语义角色标注)等。

545dd3410348d0eab033d2b87ba9e2ac.png

上图展示了 N-LTP 的基本模型结构,主要由一个共享编码器和几个处理不同任务的解码器组成。整个框架共享一个编码器,用于利用在所有任务中共享的知识。每个任务分别使用各自的任务解码器。所有任务通过一个联合学习机制同时进行优化。此外,还引入了知识蒸馏技术,以鼓励多任务模型性能超越其单任务教师模型。

2.2 demo

使用 pip 安装 ltp:

pip install ltp

快速使用:

  1. from ltp import LTP
  2. model = LTP()
  3. # 默认加载 small 模型
  4. # model = LTP(path="small")
  5. # path 可以为下载下来的包含ltp.model和vocab.txt的模型文件夹
  6. # 也可以接受一些已注册可自动下载的模型名:
  7. # base/base1/base2/small/tiny/GSD/GSD+CRF/GSDSimp/GSDSimp+CRF
  8. sent_list = ['俄罗斯总统普京决定在顿巴斯地区开展特别军事行动。']
  9. # 中文分词
  10. seg, hidden = model.seg(sent_list)
  11. # 词性标注
  12. pos = model.pos(hidden)
  13. # 命名实体识别
  14. ner = model.ner(hidden)
  15. # 语义角色标注
  16. srl = model.srl(hidden)
  17. # 依存句法分析
  18. dep = model.dep(hidden)
  19. # 语义依存分析
  20. sdp = model.sdp(hidden)

部分分析结果:

  1. seg:
  2. [['俄罗斯''总统''普京''决定''在''顿巴斯''地区''开展''特别''军事''行动''。']]
  1. pos:
  2. [['ns''n''nh''v''p''ns''n''v''a''n''v''wp']]
  1. ner:
  2. [[('Ns'00), ('Nh'22), ('Ns'56)]]

词性标注结果中的每个元素表示分词结果中相应的单词词性,命名实体识别结果中的每个元素为一个三元组,分别表示实体类型、单词开始编号和单词结束编号。

2.3 词典分词

LTP 允许用户使用 init_dict 函数和 add_words 函数添加自定义词典:

  1. # model.init_dict(user_dict_path)
  2. model.add_words(['俄罗斯总统''顿巴斯地区'])
  3. seg, _ = model.seg(sent_list)
  1. seg:
  2. [['俄罗斯总统''普京''决定''在''顿巴斯地区''开展''特别''军事''行动''。']]

2.4 词性标注集

LTP 使用的是 863 词性标注集,其各个词性含义如下表。

TagDescriptionExampleTagDescriptionExample
aadjective美丽niorganization name保险公司
bother noun-modifier大型, 西式nllocation noun城郊
cconjunction和, 虽然nsgeographical name北京
dadverbnttemporal noun近日, 明代
eexclamationnzother proper noun诺贝尔奖
gmorpheme茨, 甥oonomatopoeia哗啦
hprefix阿, 伪ppreposition在, 把
iidiom百花齐放qquantity
jabbreviation公检法rpronoun我们
ksuffix界, 率uauxiliary的, 地
mnumber一, 第一vverb跑, 学习
ngeneral noun苹果wppunctuation,。!
nddirection noun右侧wsforeign wordsCPU
nhperson name杜甫, 汤姆xnon-lexeme萄, 翱



zdescriptive words瑟瑟,匆匆

LTP 中的 NER 模块识别三种命名实体,分别如下:

标记含义
Nh人名
Ni机构名
Ns地名

2.5 模型算法

默认加载的 small 模型各个模块使用的算法如下,详细介绍可参考原论文。

  • 分词:Electra Small + Linear

  • 词性:Electra Small + Linear

  • 命名实体:Electra Small + Adapted Transformer + Linear

  • 依存句法:Electra Small + BiAffine + Eisner

  • 语义依存:Electra Small + BiAffine

  • 语义角色:Electra Small + BiAffine + CRF

3. fastHan

3.1 模型结构

417fc536c43139ce2f80cd541bbfaad5.png

如上展示了 fastHan 的基本模型结构,其采用基于 BERT 的联合模型在 13 个语料库上进行多任务学习,可以处理中文分词、词性标注、命名实体识别和依存句法分析四项基本任务。

fastHan 有 base 和 large 两个版本,large 模型使用 BERT 的前 8 层,base 模型使用 Theseus 策略将 large 模型的 8 层压缩至 4 层。base 版本在总参数量 150MB 的情况下在各项任务上均有不错表现,large 版本则接近甚至超越 SOTA 模型。

3.2 demo

使用 pip 安装 fastHan:

pip install fastHan

快速使用:

  1. from fastHan import FastHan
  2. model = FastHan()
  3. # 默认加载base模型
  4. # 使用large模型如下
  5. # model = FastHan(model_type="large")
  6. model.set_device(0)
  7. sent_list = ['俄罗斯总统普京决定在顿巴斯地区开展特别军事行动。']
  8. # 中文分词
  9. seg = model(sent_list)
  10. # 词性标注
  11. pos = model(sent_list, target="POS")
  12. # 命名实体识别
  13. ner = model(sent_list, target="NER", return_loc=True)
  14. # 依存句法分析
  15. dep = model(sent_list, target="Parsing")

分析结果:

  1. seg:
  2. [['俄罗斯''总统''普京''决定''在''顿巴斯''地区''开展''特别''军事''行动''。']]
  1. pos:
  2. [[['俄罗斯''NR'], ['总统''NN'], ['普京''NR'], ['决定''VV'], ['在''P'], ['顿巴斯''NR'], ['地区''NN'], ['开展''VV'], ['特别''JJ'], ['军事''NN'], ['行动''NN'], ['。''PU']]]
  1. ner:
  2. [[['俄罗斯''NS'0], ['普京''NR'5], ['顿巴斯''NS'10]]]
  1. dep:
  2. [[['俄罗斯'2'nn''NR'], ['总统'3'nn''NN'], ['普京'8'xsubj''NR'], ['决定'0'root''VV'], ['在'8'prep''P'], ['顿巴斯'7'nn''NR'], ['地区'5'pobj''NN'], ['开展'4'ccomp''VV'], ['特别'11'amod''JJ'], ['军事'11'nn''NN'], ['行动'8'dobj''NN'], ['。'4'punct''PU']]]

当设置 return_loc=True 时,结果会返回单词的第一个字符在原始输入句子中的位置。

3.3 词典分词

fastHan 允许用户使用 add_user_dict 函数添加自定义词典,该词典会影响模型在分词任务中的权重分配。进行分词任务时,首先利用词典和正向、反向最大匹配法进行分词,并将词典方法的分词结果乘上权重系数融入到深度学习模型的结果中。add_user_dict 函数的参数可以是由单词组成的列表,也可以是文件路径(文件中的内容是由 '\n' 分隔开的词)。

用户可使用 set_user_dict_weight 函数设置自定义词典中的单词权重系数(若不设置,默认为 0.05)。

  1. model.add_user_dict(["俄罗斯总统""顿巴斯地区"])
  2. # 自定义词典中的单词权重系数默认为0.05
  3. model.set_user_dict_weight()
  4. seg1 = model(sent_list, use_dict=True)
  5. # 自定义词典中的单词权重系数设置为1.0
  6. model.set_user_dict_weight(1.0)
  7. seg2 = model(sent_list, use_dict=True)
  1. seg1:
  2. [['俄罗斯''总统''普京''决定''在''顿巴斯''地区''开展''特别''军事''行动''。']]
  3. seg2:
  4. [['俄罗斯总统''普京''决定''在''顿巴斯地区''开展''特别''军事''行动''。']]

3.4 微调模型

用户可以使用 finetune 函数在新的数据集上进行微调:

  1. from fastHan import FastHan
  2. model = FastHan(model_type='base')
  3. model.set_device(0)
  4. # traindata file path
  5. cws_data = 'train.dat'
  6. model.finetune(data_path=cws_data, task='CWS', save=True, save_url='finetuned_model')

微调时需要将用于训练的数据按格式放到一个文件里。对于中文分词任务,要求每行一条句子,每个词用空格分隔开:

  1. 上海 浦东 开发 与 法制 建设 同步
  2. 俄罗斯总统 普京 决定 在 顿巴斯地区 开展 特别 军事 行动 。

对于命名实体识别任务,要求使用 B-M-E-S-O 标注的 NT/NS/NR 输入格式:

  1. 札 B-NS
  2. 幌 E-NS
  3. 雪 O
  4. 国 O
  5. 庙 O
  6. 会 O
  7. 。O
  8. 主 O
  9. 道 O
  10. 上 O
  11. 的 O
  12. 雪 O
  13. ...

对于词性标注和依存句法解析任务,要求按照 CTB9 的格式与标签集。

3.5 词性标注集

fastHan 使用 CTB 词性标注集,其各个词性含义如下表。

标签描述含义标签描述含义
ADadverbs副词MMeasure word(including classifiers)量词,例子:“个”
ASAspect marker体态词,体标记(例如:了,在,着,过)MSPSome particles例子:“所”
BA把 in ba-const“把”、“将”的词性标记NNCommon nouns普通名词
CCCoordinating conjunction并列连词,“和”NRProper nouns专有名词
CDCardinal numbers数字,“一百”NTTemporal nouns时序词,表示时间的名词
CSSubordinating conj从属连词(例子:若,如果,如…)ODOrdinal numbers序数词,“第一”
DEC的 for relative-clause etc“的”词性标记ONOnomatopoeia拟声词,“哈哈”
DEGAssociative联结词“的”PPreposition (excluding 把 and 被)介词
DERin V-de construction, and V-de-R“得”PNpronouns代词
DEVbefore VPPUPunctuations标点
DTDeterminer限定词,“这”SBin long bei-construction例子:“被,给”
ETCTag for words, in coordination phrase等,等等SPSentence-final particle句尾小品词,“吗”
FWForeign words例子:ISOVAPredicative adjective表语形容词,“红”
IJinterjetion感叹词VCCopula系动词,“是”
JJNoun-modifier other than nouns
VE有 as the main verb“有”
LBin long bei-construction例子:被,给VVOther verbs其他动词
LCLocalizer定位词,例子:“里”


fastHan 中的 NER 模块识别三种命名实体,分别如下:

标记含义
NR人名
NT机构名
NS地名

4. 速度对比实验

笔者在 GPU 上(torch1.7 + cuda10.2 + cudnn7.6.5)对比了 ltp 和 fastHan 的处理速度。从中文维基百科中抽取了 10098 条长度为 128 左右的句子,分别使用 ltp-tiny、ltp-small、ltp-base 和 fastHan-base、fastHan-large 模型进行处理,batch size 设置为 64,统计不同任务的处理速度如下表所示:

modelcws_speed (句/s)pos_speed (句/s)ner_speed (句/s)
ltp-tiny613614596
ltp-small451450413
ltp-base189186178
fastHan-base199194194
fastHan-large144143145

可以看出,ltp-tiny 和 ltp-small 模型的处理速度显著快于 fastHan,fashHan-base 的处理速度略快于 ltp-base,fastHan-large 的处理速度最慢。通常情况下,ltp-small 的性能已经非常不错,对处理速度要求高的场景建议使用 ltp 默认的 small 模型。

 
 
 
 
 
 
 
 
 
 
  1. 往期精彩回顾
  2. 适合初学者入门人工智能的路线及资料下载(图文+视频)机器学习入门系列下载中国大学慕课《机器学习》(黄海广主讲)机器学习及深度学习笔记等资料打印《统计学习方法》的代码复现专辑
  3. AI基础下载机器学习交流qq群955171419,加入微信群请扫码:

d556d80669ac3d2233eaabaaa27a97ae.png

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号