当前位置:   article > 正文

Bert:语言模型_bert语言模型

bert语言模型
Bert:语言模型
    bert结构:12层12头双向的transformer的encoder部分,编码768维向量,能处理最大句子长度512.
        注意:但是因为用了encoder之后encoder没有mask机制所以就不是一个天然的语言模型,
            bert自己构建了一个语言模型:MLM(遮蔽语言模型)

    GPT:不能证明通过语言训练所得到的词向量,一定比通过分类训练的词向量好。
    bert也是这么认为,在训练的时候除了训练MLM之外再训练一个NSP(分类任务)
    loss(MLM)+loss(NSP)=loss(总)

    bert输入:三个输入向量:wording embedding(单词特征表示)输入,position embedding输入,segment(标识) embedding输入
        1.位置使用了绝对位置编码
            position embedding三种方式:1.sin-cos函数;2.查表(绝对位置);3.attention(相对位置)
        2.加入了segment embedding:bert输入两个句子:A,B,A句子全标成0,B句子全标成1,用segment(标识) embedding完成
        3.wordpiece(play,playing,played三个词表示一个意思,但是如果作为三个词就会使得词汇表增大,因此wordpiece进行切分,这样就变成一个向量,最终用play向量+ing信息play,ed,ing)
        4.bert预训练的时候加入的是两个句子
    bert训练目标/训练任务是什么?
    MLM(遮蔽语言模型):
        bert在使用encoder后就不是语言模型了,不是语言模型就自己设计一种mask方式去构建语言模型。
        mask机制:在一个句子中随机mask15%的字,其中%80用mask替换,%10用正确的字替换,%10用错误的字替换。(概率,例如dropout)
    NSP:(中文名:下一句预测)二分类任务
        判断b是不是a的下一句,如果是那么返回1,如果不是返回0。
        %50的可能选择正确的b作为a的下一句:1
        %50的随机选择一个b作为a的下一句:0
    高阶问题:
    句子构成:cls我爱北京天安门sep我真帅sep
        1.一个字或词被mask以后,依旧会被加权,因为看不到的只是word embedding但是位置和标识还存在
        2.Bert能处理最大句子长度512,不满512用PAD填充,但是PAD不会被加权,因为是零向量
        3.cls向量代表句子向量,可以拿出来直接做分类,cls是标识符,不携带句子信息,因此用cls和句子中的每一个字加权很公平。
            sep也可以用来代表句子向量,但是因为其位置不好判定,因此一般不用。

    bert缺点:
        参数量过大,运行速度过慢

Bert

BERT(Bidirectional Encoder Representations from Transformers)近期提出之后,作为一个Word2Vec的替代者,其在NLP领域的11个方向大幅刷新了精度,可以说是近年来自残差网络最优突破性的一项技术了。论文的主要特点以下几点:

  1. 使用了Transformer [2]作为算法的主要框架,Transformer能更彻底的捕捉语句中的双向关系
  2. 使用了Mask Language Model(MLM) 和 Next Sentence Prediction(NSP) 的多任务训练目标;
  3. 使用更强大的机器训练更大规模的数据,使BERT的结果达到了全新的高度,并且Google开源了BERT模型,用户可以直接使用BERT作为Word2Vec的转换矩阵并高效的将其应用到自己的任务中。

BERT的本质上是通过在海量的语料的基础上运行自监督学习方法为单词学习一个好的特征表示,所谓自监督学习是指在没有人工标注的数据上运行的监督学习。在以后特定的NLP任务中,我们可以直接使用BERT的特征表示作为该任务的词嵌入特征。所以BERT提供的是一个供其它任务迁移学习的模型,该模型可以根据任务微调或者固定之后作为特征提取器。BERT的源码和模型10月31号已经在Github上开源,简体中文和多语言模型也于11月3号开源。

1. BERT 详解

1.1 网络架构

BERT的网络架构使用的是《Attention is all you need》中提出的多层Transformer结构,其最大的特点是抛弃了传统的RNN和CNN,通过Attention机制将任意位置的两个单词的距离转换成1,有效的解决了NLP中棘手的长期依赖问题。Transformer的结构在NLP领域中已经得到了广泛应用,并且作者已经发布在TensorFlow的tensor2tensor库中。

Transformer的网络架构如图,Transformer是一个encoder-decoder的结构,由若干个编码器和解码器堆叠形成。图的左侧部分为编码器,由Multi-Head Attention和一个全连接组成,用于将输入语料转化成特征向量。右侧部分是解码器,其输入为编码器的输出以及已经预测的结果,由Masked Multi-Head Attention, Multi-Head Attention以及一个全连接组成,用于输出最后结果的条件概率。

从创新的角度来看,bert其实并没有过多的结构方面的创新点,其和GPT一样均是采用的transformer的结构,相对于GPT来说,其是双向结构的,而GPT是单向的,如下图所示

 

elmo:将上下文当作特征,但是无监督的语料和我们真实的语料还是有区别的,不一定的符合我们特定的任务,是一种双向的特征提取。

openai gpt就做了一个改进,也是通过transformer学习出来一个语言模型,不是固定的,通过任务 finetuning,用transfomer代替elmo的lstm。

openai gpt其实就是缺少了encoder的transformer。当然也没了encoder与decoder之间的attention。

openAI gpt虽然可以进行fine-tuning,但是有些特殊任务与pretraining输入有出入,单个句子与两个句子不一致的情况,很难解决,还有就是decoder只能看到前面的信息。

其次bert在多方面的nlp任务变现来看效果都较好,具备较强的泛化能力,对于特定的任务只需要添加一个输出层来进行fine-tuning即可。

 

上图中的左侧部分是一个Transformer Block,对应到图2中的一个“Trm”。

 

BERT提供了简单和复杂两个模型,对应的超参数分别如下:

  • : L=12,H=768,A=12,参数总量110M;
  • : L=24,H=1024,A=16,参数总量340M;

在上面的超参数中,L表示网络的层数(即Transformer blocks的数量),A表示Multi-Head Attention中self-Attention的数量,filter的尺寸是4H。

论文中还对比了BERT和GPT和ELMo,它们两个的结构图如下图所示。

 

BERT对比这两个算法的优点是只有BERT表征会基于所有层中的左右两侧语境。BERT能做到这一点得益于Transformer中Attention机制将任意位置的两个单词的距离转换成了1。

1.2 输入表示

BERT的输入的编码向量(长度是512)是3个嵌入特征的单位和,如下图,这三个词嵌入特征是:

  1. WordPiece 嵌入[6]:WordPiece是指将单词划分成一组有限的公共子词单元,能在单词的有效性和字符的灵活性之间取得一个折中的平衡。例如图4的示例中‘playing’被拆分成了‘play’和‘ing’;
  2. 位置嵌入(Position Embedding):位置嵌入是指将单词的位置信息编码成特征向量,位置嵌入是向模型中引入单词位置关系的至关重要的一环。
  3. 分割嵌入(Segment Embedding):用于区分两个句子,例如B是否是A的下文(对话场景,问答场景等)。对于句子对,第一个句子的特征值是0,第二个句子的特征值是1。

最后,说明一下图4中的两个特殊符号[CLS][SEP],其中[CLS]表示该特征用于分类模型,对非分类模型,该符合可以省去。[SEP]表示分句符号,用于断开输入语料中的两个句子。

 

1.3 预训练任务

BERT是一个多任务模型,它的任务是由两个自监督任务组成,即MLM和NSP。

1.3.1 Task #1: Masked Language Model

Masked Language Model(MLM)和核心思想取自Wilson Taylor在1953年发表的一篇论文[7]。所谓MLM是指在训练的时候随即从输入预料上mask掉一些单词,然后通过的上下文预测该单词,该任务非常像我们在中学时期经常做的完形填空。正如传统的语言模型算法和RNN匹配那样,MLM的这个性质和Transformer的结构是非常匹配的。

在BERT的实验中,15%的WordPiece Token会被随机Mask掉。在训练模型时,一个句子会被多次喂到模型中用于参数学习,但是Google并没有在每次都mask掉这些单词,而是在确定要Mask掉的单词之后,80%的时候会直接替换为[Mask],10%的时候将其替换为其它任意单词,10%的时候会保留原始Token。

  • 80%:my dog is hairy -> my dog is [mask]
  • 10%:my dog is hairy -> my dog is apple
  • 10%:my dog is hairy -> my dog is hairy

这么做的原因是如果句子中的某个Token100%都会被mask掉,那么在fine-tuning的时候模型就会有一些没有见过的单词。加入随机Token的原因是因为Transformer要保持对每个输入token的分布式表征,否则模型就会记住这个[mask]是token ’hairy‘。至于单词带来的负面影响,因为一个单词被随机替换掉的概率只有15%*10% =1.5%,这个负面影响其实是可以忽略不计的。

另外文章指出每次只预测15%的单词,因此模型收敛的比较慢。

1.3.2 Task #2: Next Sentence Prediction

Next Sentence Prediction(NSP)的任务是判断句子B是否是句子A的下文。如果是的话输出’IsNext‘,否则输出’NotNext‘。训练数据的生成方式是从平行语料中随机抽取的连续两句话,其中50%保留抽取的两句话,它们符合IsNext关系,另外50%的第二句话是随机从预料中提取的,它们的关系是NotNext的。这个关系保存在图4中的[CLS]符号中。

1.4 微调

在海量单预料上训练完BERT之后,便可以将其应用到NLP的各个任务中了。对于NSP任务来说,其条件概率表示为  ,其中是BERT输出中的[CLS]符号,是可学习的权值矩阵。

2. 总结

BERT近期火得一塌糊涂不是没有原因的:

  1. 使用Transformer的结构将已经走向瓶颈期的Word2Vec带向了一个新的方向,并再一次炒火了《Attention is All you Need》这篇论文;
  2. 11个NLP任务的精度大幅提升足以震惊整个深度学习领域;
  3. 无私的开源了多种语言的源码和模型,具有非常高的商业价值。
  4. 迁移学习又一次胜利,而且这次是在NLP领域的大胜,狂胜。

BERT算法还有很大的优化空间,例如我们在Transformer中讲的如何让模型有捕捉Token序列关系的能力,而不是简单依靠位置嵌入。BERT的训练在目前的计算资源下很难完成,论文中说  的训练需要在64块TPU芯片上训练4天完成,而一块TPU的速度约是目前主流GPU的7-8倍。非常幸运的是谷歌开源了各种语言的模型,免去了我们自己训练的工作。

 

 

BERT优点:

Transformer Encoder因为有Self-attention机制,因此BERT自带双向功能

因为双向功能以及多层Self-attention机制的影响,使得BERT必须使用Cloze版的语言模型Masked-LM来完成token级别的预训练

为了获取比词更高级别的句子级别的语义表征,BERT加入了Next Sentence Prediction来和Masked-LM一起做联合训练

为了适配多任务下的迁移学习,BERT设计了更通用的输入层和输出层

微调成本小

BERT缺点:

task1的随机遮挡策略略显粗犷

[MASK]标记在实际预测中不会出现,训练时用过多[MASK]影响模型表现;

每个batch只有15%的token被预测,所以BERT收敛得比left-to-right模型要慢(它们会预测每个token)

BERT对硬件资源的消耗巨大(大模型需要16个tpu,历时四天;更大的模型需要64个tpu,历时四天。

总结下BERT的主要贡献:

引入了Masked LM,使用双向LM做模型预训练。

为预训练引入了新目标NSP,它可以学习句子与句子间的关系。

进一步验证了更大的模型效果更好: 12 --> 24 层。

为下游任务引入了很通用的求解框架,不再为任务做模型定制。

刷新了多项NLP任务的记录,引爆了NLP无监督预训练技术。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/591582
推荐阅读
相关标签
  

闽ICP备14008679号