当前位置:   article > 正文

对doccano自动标注使用的默认UIE模型进行微调以提高特定领域的实体识别能力,提高标注速度_doccano标注出数据怎么用uie

doccano标注出数据怎么用uie

预处理doccano标注的数据

该章节详细说明如何通过doccano.py脚本对doccano平台导出的标注数据进行转换,一键生成训练/验证/测试集。

在本地部署UIE模型

下载模型压缩包:

本来是要通过一定的方法(GitZip)才能在整体的大项目仓库中下载的,不详细讲,这里直接给压缩包。

PaddleNLP-model_zoo.zip - 蓝奏云 (lanzoub.com)

抽取式任务数据转换

  • 当标注完成后,在 doccano 平台上导出 JSONL(relation) 形式的文件,并将其重命名为 doccano_ext.json 后,放入 ./data 目录下。
  • 通过 doccano.py 脚本进行数据形式转换,然后便可以开始进行相应模型训练。
  1. python doccano.py \
  2. --doccano_file ./data/doccano_ext.json \
  3. --task_type "ext" \
  4. --save_dir ./data \
  5. --negative_ratio 5

当然也可以将这个命令保存为tran.sh文件

训练UIE模型

  • 使用标注数据进行小样本训练,模型参数保存在./checkpoint/目录。

tips: 推荐使用GPU环境,否则可能会内存溢出。CPU环境下,可以修改model为uie-tiny,适当调下batch_size。

增加准确率的话:--num_epochs 设置大点多训练训练

可配置参数说明:
  • model_name_or_path:必须,进行 few shot 训练使用的预训练模型。可选择的有 "uie-base"、 "uie-medium", "uie-mini", "uie-micro", "uie-nano", "uie-m-base", "uie-m-large"。
  • multilingual:是否是跨语言模型,用 "uie-m-base", "uie-m-large" 等模型进微调得到的模型也是多语言模型,需要设置为 True;默认为 False。
  • output_dir:必须,模型训练或压缩后保存的模型目录;默认为 None 。
  • device: 训练设备,可选择 'cpu'、'gpu' 、'npu'其中的一种;默认为 GPU 训练。
  • per_device_train_batch_size:训练集训练过程批处理大小,请结合显存情况进行调整,若出现显存不足,请适当调低这一参数;默认为 32。
  • per_device_eval_batch_size:开发集评测过程批处理大小,请结合显存情况进行调整,若出现显存不足,请适当调低这一参数;默认为 32。
  • learning_rate:训练最大学习率,UIE 推荐设置为 1e-5;默认值为3e-5。
  • num_train_epochs: 训练轮次,使用早停法时可以选择 100;默认为10。
  • logging_steps: 训练过程中日志打印的间隔 steps 数,默认100。
  • save_steps: 训练过程中保存模型 checkpoint 的间隔 steps 数,默认100。
  • seed:全局随机种子,默认为 42。
  • weight_decay:除了所有 bias 和 LayerNorm 权重之外,应用于所有层的权重衰减数值。可选;默认为 0.0;
  • do_train:是否进行微调训练,设置该参数表示进行微调训练,默认不设置。
  • do_eval:是否进行评估,设置该参数表示进行评估。

该示例代码中由于设置了参数 --do_eval,因此在训练完会自动进行评估。

微调命令

  1. export finetuned_model=./checkpoint/model_best
  2. python finetune.py \
  3. --device gpu \
  4. --logging_steps 10 \
  5. --save_steps 100 \
  6. --eval_steps 100 \
  7. --seed 42 \
  8. --model_name_or_path uie-base \
  9. --output_dir $finetuned_model \
  10. --train_path ./data/train.txt \
  11. --dev_path ./data/dev.txt \
  12. --max_seq_length 512 \
  13. --per_device_eval_batch_size 16 \
  14. --per_device_train_batch_size 16 \
  15. --num_train_epochs 20 \
  16. --learning_rate 1e-5 \
  17. --label_names "start_positions" "end_positions" \
  18. --do_train \
  19. --do_eval \
  20. --do_export \
  21. --export_model_dir $finetuned_model \
  22. --overwrite_output_dir \
  23. --disable_tqdm True \
  24. --metric_for_best_model eval_f1 \
  25. --load_best_model_at_end True \
  26. --save_total_limit 1

训练完成的结果:

验证UIE模型效果

通过运行以下命令进行模型评估

  1. python evaluate.py \
  2. --model_path ./checkpoint/model_best \
  3. --test_path ./data/dev.txt \
  4. --batch_size 16 \
  5. --max_seq_len 512

根据我们手动标注的数据训练微调后,再次测试自有标注的领域数据,返回的准确率为88%.

部署微调后的UIE模型

本地终端定制模型一键预测

paddlenlp.Taskflow装载定制模型,通过task_path指定模型权重文件的路径,路径下需要包含训练好的模型权重文件model_state.pdparams

  1. from pprint import pprint
  2. from paddlenlp import Taskflow
  3. schema = ['出发地', '目的地', '费用', '时间']#根据自身实体类别修改
  4. # 设定抽取目标和定制化模型权重路径
  5. my_ie = Taskflow("information_extraction", schema=schema, task_path='./checkpoint/model_best')
  6. pprint(my_ie("城市内交通费7月5日金额114广州至佛山"))

经过测试,原本无法预测出来的类型在引入自己标注的模型之后就可以识别出来了。自此我们可以实现标注的数据用于训练,训练的模型又可以提升我们标注的速率。

模型快速服务化部署

在UIE的服务化能力中我们提供基于PaddleNLP SimpleServing 来搭建服务化能力,通过几行代码即可搭建服务化部署能力。

在上一篇文章如何使用doccano+flask+花生壳+服务器实现命名实体识别ner自动标注 - 孤飞 - 博客园 (cnblogs.com)中的部署代码里,我们修改task_path模型路径为刚刚微调过后的即可完成识别。 

  1. from flask import Flask, request, jsonify
  2. from paddlenlp import Taskflow
  3. app = Flask(__name__)
  4. # 在这里定义你想要识别的实体类型
  5. # UIE具有zero-shot能力,所以类型可以随便定义,但是识别的好坏不一定
  6. schema = ['出发地', '目的地', '费用', '时间']#根据自身实体类别修改
  7. # 第一运行时,联网状态下会自动下载模型
  8. # device_id为gpu id,如果写-1则使用cpu,如果写0则使用gpu
  9. ie = Taskflow('information_extraction', schema=schema, device_id=0,task_path='./uie/checkpoint/model_best/')#添加了tesk_path指向新的模型
  10. def convert(result):
  11. result = result[0]
  12. formatted_result = []
  13. for label, ents in result.items():
  14. for ent in ents:
  15. formatted_result.append(
  16. {
  17. "label": label,
  18. "start_offset": ent['start'],
  19. "end_offset": ent['end']
  20. })
  21. return formatted_result
  22. @app.route('/', methods=['POST'])
  23. def get_result():
  24. text = request.json['text']
  25. print(text)
  26. result = ie(text)
  27. formatted_result = convert(result)
  28. return jsonify(formatted_result)
  29. if __name__ == '__main__':
  30. # 这里写端口的时候一定要注意不要与已有的端口冲突
  31. # 这里的host并不是说访问的时候一定要写0.0.0.0,但是这里代码要写0.0.0.0,代表可以被本网络中所有的看到
  32. # 如果是其他机器访问你创建的服务,访问的时候要写你的ip
  33. app.run(host='0.0.0.0', port=88)
声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号