赞
踩
a) BERT-based Models应用模型
b) Bert解决NLP任务
- BertForSequenceClassification
- BertForMultiChoice
- BertForTokenClassification
- BertForQuestionAnswering
c) BERT训练与优化
基于 BERT 的模型都写在/models/bert/modeling_bert.py里面,包括 BERT 预训练模型和 BERT 分类等模型。
首先,以下所有的模型都是基于BertPreTrainedModel这一抽象基类的,而后者则基于一个更大的基类PreTrainedModel。这里我们关注BertPreTrainedModel的功能:
用于初始化模型权重,同时维护继承自PreTrainedModel的一些标记身份或者加载模型时的类变量。
补充:BERT 预训练任务包括两个:
[MASK]
替换一部分单词,然后将句子传入BERT 中编码每一个单词的信息,最终用[MASK]
的编码信息预测该位置的正确单词,这一任务旨在训练模型根据上下文理解单词的意思;[CLS]
的编码信息loss
是怎么处理的。它的前向传播和BertModel的有所不同,多了labels
和next_sentence_label
两个输入:Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。