赞
踩
(1)回顾 fine tune BERT 解决新的下游任务的5个步骤:
1)准备原始文本数据
2)将原始文本转换成BERT相容的输入格式(重点,如下图所示)
3)在BERT之上加入新layer成下游任务模型(重点)
4)训练该下游任务模型
5)对新样本做推论
而利用HuggingFace
后,我们是在BERT上加入dropout和linear classsifier,最后输出用来预测类别的logits(即用了迁移学习的思想)。
(2)本次学习围绕序列标注(有NER、POS、Chunk等具体任务)中命名实体识别(Name Entity Recognition,NER):传统神经网络模型的命名实体识别方法是以词为粒度建模的;而在本次的BERT预训练语言模型用作序列标注时,通常使用切分粒度更小的分词器(如WordPiece
)处理输入文本——破坏词与序列标签的一一对应关系。
(3)用BERT模型解决序列标注任务(即为文本的每个token预测一个标签):
CONLL 2003 dataset
数据集,并观察实体类别及表示形式;tokenizer
分词器的建模,将subtokens、words和标注的labels对齐,并完成数据集中所有样本的预处理;seqeval
评估方法(计算命名实体识别的相关指标),并构建Trainner
训练器,进行模型训练,对precision(精确率)、recall(召回率)和f1值进行评估比较。本文涉及的jupter notebook在篇章4代码库中。如果您正在google的colab中打开这个notebook,您可能需要安装Transformers和
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。