赞
踩
NLP模型训练时需要对文本文件进行编码,转化为数值的形式。
对词还有词与词之间的关系(例如近义、反义、从属、时态等关系)进行编码,但不考虑语境。
ULMFiT(Universal Language Model Fine-tuning)是一种基于微调的通用语言模型。可以实现NLP迁移学习
2018年google的BERT(Bidirectional Encoder Representations from Transformers)可以理解为已经训练好的多层Transformer的encoder。包括预训练和微调两个步骤。
From:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
作为预训练下游的模型完成任务
Google Colab上的BERT FineTuning with Cloud TPUs
内容 | BERT | GPT |
---|---|---|
本质 | Transformer的encoder | Transformer的decoder |
输入 | 无自回归 | 有自回归 |
self-attention层 | 考虑前后内容影响 | 屏蔽后文影响只考虑前文 |
注:自回归指将第一个节点的输出汇入输入进行后续训练
基本流程同Tansformer的self-attention,除了当前token之后的token记分为0。也可是多头。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。