赞
踩
资源下载地址:https://download.csdn.net/download/sheziqiong/88261859
资源下载地址:https://download.csdn.net/download/sheziqiong/88261859
LEBERT 是将词汇信息引入到BERT模型中的NER模型,
本项目的目的在于验证LEBERT 模型在中文NER数据集上的表现。分别验证了Bert-Softmax、Bert-Crf、
LEBert-Softmax、LEBert-Crf在Resume、Ontonote、Msra、Weibo四个中文数据集上的表现。
本项目将四个数据集统一处理成相同的数据格式,每一行表示一条数据。
格式如下:
{"text": ["赵", "伟", "先", "生", ","], "label": ["B-NAME", "I-NAME", "O", "O", "O"]}
python3.6、transformers3.1.0、torch==1.10.0
运行下面脚本安装依赖环境:
pip install -r requirements.txt
安装依赖包
pip install -r requirements.txt
运行训练脚本,详见参数说明
bash script/train.sh
所有模型均使用bert-base-chines 的预训练权重。在训练的时候,batch size均为32,
BERT的原始参数的学习率设置为1e-5,LEBERT和CRF所引入的参数的学习率设置为1e-4。对于Ontonote、Msra数据集训练10个epoch,
对于Resume和Weibo数据集训练30个epoch。
原论文的词向量使用的是包含两千万单词的tencent-ailab-embedding-zh-d200-v0.2.0 ,
本项目的词向量使用tencent-ailab-embedding-zh-d200-v0.2.0-s ,其中包含两百万预训练的词向量,维度为200。
本项目将词向量信息在BERT的第一层之后进行融合,并且每个汉字,最多融合3个词向量。
各模型在测试集上的指标:
模型 | Resume | Msra | Ontonote | |
---|---|---|---|---|
BERT-Sotfmax | 0.9610 | 0.7097 | 0.9542 | 0.8173 |
LEBERT+Sotfmax | 0.9672 | 0.7123 | 0.9536 | 0.825 |
BERT+Crf | 0.9608 | 0.7048 | 0.9548 | 0.8191 |
LEBERT+Crf | 0.9614 | 0.6954 | 0.955 | 0.817 |
各模型在验证集上的指标:
模型 | Resume | Msra | Ontonote | |
---|---|---|---|---|
BERT-Sotfmax | 0.9593 | 0.6984 | 0.9363 | 0.8031 |
LEBERT+Sotfmax | 0.9601 | 0.7147 | 0.9382 | 0.8038 |
BERT+Crf | 0.9564 | 0.7127 | 0.938 | 0.8078 |
LEBERT+Crf | 0.9638 | 0.7247 | 0.9391 | 0.8021 |
原论文实验效果:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ASa1c55Q-1693183766846)(./image/paper-f1.jpg)]
训练过程中,模型在验证集和测试集上的F1得分与loss的变化,可以通过output文件夹下查看,运行如下脚本:
tensorboard --logdir ./output
训练过程中,BERT-Softmax与LEBERT-Softmax在各个测试集上的F1得分的变化曲线如下图:
Resume测试集:
从上面的实验结果和训练过程分析,做一下简单的总结:
模型 | Resume | Msra | Ontonote | |
---|---|---|---|---|
BERT-Sotfmax | ||||
LEBERT+Sotfmax | ||||
BERT+Crf | ||||
LEBERT+Crf |
资源下载地址:https://download.csdn.net/download/sheziqiong/88261859
资源下载地址:https://download.csdn.net/download/sheziqiong/88261859
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。