赞
踩
我们在日常业务中可能会遇到出海场景,会涉及多个地区和语言,目前来说mT5仍然是多语言翻译任务种比较fancy的模型。T5作为mT5的前身,模型结构和mT5没什么区别,本篇文章将详细介绍在
transformers
库中T5模型的源码。
看完本篇《【T5模型源码】深入T5模型:源码解析与实现细节》,你将对T5模型的结构有个更加清晰的认知,并且理解T5模型与编码器-解码器架构模型的技术细节。文章主要介绍:
1、T5模型结构和传统Transformer模型的区别?
2、T5模型解码时的数据流转?
3、编码器-解码器架构中的通用源码知识?
【注意】T5模型的论文介绍可以移步【T5模型】Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer,花2分钟了解一下。
本篇文章的提纲脉络如图1所示。由于源码讲解用文章的形式介绍,读者看起来费劲,作者写起来也费劲,而且往往大多数人都是一大段一大段代码的贴,说实话很影响观感。所以本篇文章力求少贴代码,多说些精华的文字让读者豁然开朗。
因此,本篇文章对大概了解一点点Transformer模型源码的人比较友好。如果你是初次尝试阅读具有解码器结构的语言模型,本文一定能够对你有较大帮助。
【注意】本文的源码都是基于
transformers
库的modeling_t5.py
文件讲解的。
本文会先画一下T5模型的大致结构图。然后介绍源码中的类之间的关系。之后会先把耦合较浅、源码简单的类介绍一遍,然后才介绍比较复杂的类。
由于复杂类的参数特别多,所以会先把这些参数大概干了什么事情从宏观的角度介绍一下,然后再看源码就会很简单了。
最后,再介绍几个常见的面试题。
从图2可以看出来,T5基本保持了Transformer的Enc-Dec架构,只是在细节实现上有所区别。
具体来说,T5在模型结构上的改动有:
1、LayerNorm取消了偏置项;
2、解码器部分采用(自注意力结构+交叉注意力结构+前馈层)作为一个block;
3、输入部分只有嵌入层,把位置编码改为了计算注意力时内置的位置偏置;
4、无监督训练时的目标也做了改动;
这些改动并不大,那么T5模型为什么能刷榜呢?因为它的工作在各个层面都做了很多实现,取了最好的trick。参考下面的图3,看看T5论文所做的惊人的实验数量。
【注意】大家可以去看一下原论文中所采用的各种训练策略。论文地址:https://dl.acm.org/doi/10.5555/3455716.3455856
我们再稍微看一下源码中T5Model
类的神经网络结构:
从图5中可以看到T5Model
模型的结构就是很清爽的编码器+解码器的结构。接着,我们来打印模型的结构,使用如下代码进行打印:
from transformers import T5Model
path = r"xxx"
model = T5ForConditionalGeneration.from_pretrained(path)
print(model)
T5Model类的编码器结构如下图5所示。编码器与Transformer模型一样还是分成12个块(Block),区别在于第一个块在自注意力层内置了位置偏置,后面的2-12个块的结构是相同的。
T5Model类的解码器结构如下图6所示。分成12个块(Block),然后第一个块在自注意力层内置了位置偏置,紧接着跟交叉注意力模块,后面的2-12个块的结构是相同的。
综上所述,T5Model
模型由编码器+解码器构成,编码器是12个块,解码器也是12个块。编码器的每个块由[自注意力层+前馈网络层]构成,解码器的每个块由[自注意力层+交叉注意力层+前馈网络层]构成。无论是编码器还是解码器,它们的第一个块的自注意力层都内置了一个位置偏置。
对于T5模型的构成部分来说,一共有以下类:
T5LayerNorm
:层归一化,T5模型中去掉了偏置。
T5DenseActDense
与T5DenseGatedActDense
:前馈网络,说白了就是线性层+激活函数,区别在于T5DenseGatedActDense
多加了一次线性层。
T5LayerFF
:把[层归一化、前馈网络、残差连接]整合在了一起。
T5Attention
:注意力的实现,核心!自注意力、交叉注意力都是在这里实现的,代码比较难阅读。
T5LayerSelfAttention
:自注意力层,对T5Attention
进行套壳。
T5LayerCrossAttention
:交叉注意力层,对T5Attention
进行套壳。
T5Block
:一个块。对于编码器,把[T5LayerSelfAttention
、T5LayerFF
]整合在了一起。对于解码器,把[T5LayerSelfAttention
、T5LayerCrossAttention
、T5LayerFF
]整合在了一起。
T5Stack
:n个块堆叠,在base版本的T5中,n=12。
T5Model
上述的10个类,是自上而下互相嵌套的关系。其中T5LayerNorm
、T5DenseActDense
、T5DenseGatedActDense
、T5LayerFF
并不涉及注意力,和其他参数没有耦合,所以我们在下一小节先介绍这4个类,把简单的类的源码先看懂。
如图7所示,首先我们来把比较简单的几个类的源码讲解一下。
如图8所示,T5模型中的层归一化取消了偏置项,只有权重weight
,首先对特征求方差均方 ,然后使用使用方差均方的平方根的倒数来对特征进行缩放,随后考虑了一下FP16和BF16精度下的数据转换问题,最后把特征乘以可训练的权重weight
就结束了。
【注意】(2024.4.5更新)T5LayerNorm这一小节的图片与介绍有误。不是求方差,而是求均方,此处使用的归一化技术为RMSNorm(均方根归一化)。参考论文为:Root Mean Square Layer Normalization
如图9所示,T5模型中的前馈网络有2个fc层、1个激活函数和1个dropout。激活函数act
是读取config来自动加载的。整体流程比较简单:
特征经过第一个线性层——激活——dropout——第二个线性层。
如图10所示,T5DenseGatedActDense是T5模型中的另一种前馈网络,有3个fc层、1个激活函数和1个dropout。激活函数act
是读取config来自动加载的。整体流程比较简单:
特征经过第一个线性层——激活——第二个线性层——dropout——第三个线性层。
【注】似乎和“Gated(门控)”没啥关系?也可能是也不应该翻译成“门控”的问题。
————————————
(2024.4.5更新)破案了,因为激活函数用了GLU,所以这里才加了个Gated,具体情况可以参考:【T5中的激活函数】GLU Variants Improve Transformer
如图11所示,T5LayerFF就更加简单了!它是用来结合层归一化、前馈网络和残差连接的类。在前馈网络的选取方面,需要读取配置来决定使用T5DenseGatedActDense
还是T5DenseActDense
。
由于T5模型的解码器是有交叉注意力机制和自注意力机制的,但是源码把这两种注意力机制整合到了一起,所以就会有很多参数来进行分支控制(if-else控制),我觉得这是源码比较复杂的主要原因。
【注】具体来说,代码中把编码器、解码器整合到了T5Block里,又把交叉注意力和自注意力整合到了T5Attention里,所以在阅读源码的时候,得判断什么时候是解码器在运行、什么时候是编码器在运行,什么时候在算自注意力、交叉注意力。
因为分支控制都是通过各个参数来判断的,因此有必要先了解每个参数在代码中具体指代什么。不然的话,直接阅读源码会很痛苦。
这里我选择介绍T5Stack
类forward
方法的参数,基本能囊括绝大数我们即将会接触到的变量。
如图12所示,以上是T5Stack
类forward
方法的参数。一定要注意一个前提:T5Stack可以构成编码器,也可以构成解码器,因此以上的这些参数有的是编码器专属,有的是解码器专属,有的是两者公用的。
1、input_ids
: 输入文本的token_id。在编码器运行时,它是输入的全本文本。在解码器运行时,它是解码器解码出来的序列。
2、attention_mask
: 用于指定对输入序列的哪些部分执行注意力机制,通常用于屏蔽填充标记。它和input_ids
是对应的。
3、encoder_hidden_states
: 编码器最后一层的输出,是给解码器解码用的。只有在解码阶段才有,编码阶段为None。
4、encoder_attention_mask
: 类似于attention_mask
,但和encoder_hidden_states
是对应的。用于编码器的输出,确保解码器在注意力机制中只关注编码器输出中相关的部分。
【注!重要!】上面的四个参数,在编码时参数1、2表示我们输入的序列信息,参数3、4一直为None。在解码时参数1、2表示解码器解码出的文本序列信息,参数3、4在解码的时候代表着编码器的最终输出。
5、inputs_embeds
: 会代替input_ids
作为输入的嵌入表示。正常情况下用不到,咱们可以忽略。
6、head_mask
: 用于屏蔽某些注意力头。在训练过程中用于实现不同的注意力模式。可能是方便调参、调模型的注意力用的,咱们可以忽略。
7、cross_attn_head_mask
: 类似于head_mask
,但用于交叉注意力机制。可能是方便调参、调模型的注意力用的,咱们可以忽略。
8、past_key_values
: 只有在解码时才会有值,编码时一直为None。表示前n次解码时计算的present_kay_value_state(T5Attention里面的Key,value向量)的值。past_key_values
用来计算交叉注意力,编码是不需要的,所以在编码阶段一直为None。
9、use_cache
: 指示模型是否使用缓存来存储过去的关键值对,以便在后续的解码步骤中重用。use_cache
在解码阶段为True,控制past_key_values
每次累计KV向量。
【注】上面的参数,参数8、9比较重要,并且它们只有在解码阶段才会用到。这属于一种简单的缓存机制,利用空间换时间,加速解码。之所以解码器积累的KV向量可以重用,是因为T5解码阶段也是采用了Masked注意力机制(类似于Transformer模型中的解码器使用的Masked注意力)。
10、output_attentions
: 如果设置为True,模型将返回注意力权重。
11、output_hidden_states
: 如果设置为True,模型将返回所有隐藏层的输出。
【注】上面的参数,参数10、11就是返回中间计算结果,方便大家会有绘制、监控中间向量的需求,又或者会有魔改模型的需求。
12、return_dict
: 指定模型是否返回一个字典,其中包含上述所有可能的输出,或者只返回模型的最后一层输出。
在讲述T5Attention
源码之前,我们来回顾一下大家此时应该掌握了哪些知识:
1、首先对T5模型相关类的套壳关系应该弄懂了。
2、其次那些简单类的源码看懂了。
3、最后对T5模型中的一些常见参数也理解了。
由于T5Stack
类、T5Block
类的forword
函数太长了而且不涉及特别核心的东西,所以我就不贴它们的代码一一对照讲解了,这里会概括地介绍一下,然后大家自行去看这两个类的源码。
T5Stack
类在结构上就是对T5Block
的堆叠,根据传入的配置来决定是堆叠n个编码器块还是解码器块。在forward
时做的最主要的工作就是循环这n个块。
T5Block
类在结构上就是构成编码器块或者解码器块,根据传入的配置来决定是构成编码器块还是解码器块。对于编码器,把[T5LayerSelfAttention
、T5LayerFF
]整合在了一起。对于解码器,把[T5LayerSelfAttention
、T5LayerCrossAttention
、T5LayerFF
]整合在了一起。在forward
时的工作在块内流转数据。
下面介绍T5LayerSelfAttention
、T5LayerCrossAttention
的结构:
如图13、14所示,T5LayerSelfAttention
、T5LayerCrossAttention
的结构非常简单。不管是自注意力还是交叉注意力,它们底层都是由T5Attention
类构成的,它才是核心!
首先来看下T5Attention
类的构造函数:
如图15所示,初始化时没啥特别的,q
、k
、v
、o
这些都是老生常谈的注意力套餐了。要特别关注的是relative_attention_bias
,这是位置编码,和BERT不同的是,T5模型内置在了注意力计算的时候,并且也是用嵌入层来生成的。
由于T5Attention
类的forward
函数的参数名字和T5Stack
有些区别,所以我们再来介绍一下它的参数。
【注】其实只是参数名不同,内容还是那些,大家不用害怕,忍一忍马上就结束了!
T5Attention类forward方法如图16所示,下面是参数介绍。大家可以对照着图12的部分一起看,这样更好理解。
1、hidden_states
: 这个是模型的主分支上编码的信息。在编码器阶段,hidden_states
就会一直计算下去,演变成句子表征向量。在解码器阶段,hidden_states
表示解码器解码出来的序列的表征向量。
2、mask
:这里其实就是序列的attention_mask
。但是为什么只传一个mask?T5Stack的输入不是有2个mask吗?
【注!重要!】我在图12那边有介绍,T5Stack的输入是有输入序列的id、mask和解码序列的id、mask。在编码器阶段,解码序列的id、mask没有,所以计算注意力时,会传输入序列的hidden_states、mask,这里的
mask
就是输入序列的attention_mask
。在编码器阶段,编码器首先进行自注意力计算,那它只会传解码序列的hidden_states、mask,这里的mask
就是解码序列的attention_mask
;之后,编码器会进行交叉注意力的计算,此时解码器已经拿到解码序列的自注意力向量hidden_states了,所以它不再需要解码序列的mask,所以此时的mask
是输入序列的attention_mask
,用以计算交叉注意力。
综上所述,编码器的自注意力、解码器的自注意力、解码器的交叉注意力传的都不一样。
3、key_value_states
: 是在编码器的最后一步生成的,用于在解码器的每一步中提供来自输入序列的上下文信息。key_value_states在交叉注意力中提供计算的数据,在解码器和编码器的自注意力中,这个参数永远是None。其实它同T5Stack的输入encoder_hidden_states
是一个东西。
4、past_key_value
: 这是上一次解码后的键值状态,用于长序列的生成。如果是第一次迭代或没有提供过去的键值,这个参数将是None。是12维度张量,每个元素是4元组,存放(selfK、V, CrossK、V)。key_value_states和past_key_value只会在第一次解码的时候同时不为空。
其他的参数在上文介绍过,或者不太影响源码阅读,就不再仔细介绍。
T5Attention类forward方法的核心计算流程如图17所示,对于查询向量Q,把它的形状重塑一下。对于键值向量KV,需要用到project
函数来重构。project
函数是核心部分,控制着交叉注意力、自注意力的计算流。代码如下:
【注】project函数的分支很多,要看懂的话,大家可以从编码器的自注意力计算、解码器的自注意力计算、解码器的交叉注意力计算这三个情况代入进去来看。
如图18所示。
分支1:if key_value_states is None:
,此时key_value_states
为空,说明在执行自注意力机制,但是不知道是编码器在执行还是解码器在执行。因为自注意力计算的时候,不会传key_value_states
,它必为None。因此流程要继续往下走。
分支2:elif past_key_value is None:
,如果key_value_states
不为空但是past_key_value
为空,说明这个时候编码器已经完成运行,但是解码器是第一次运行,以前的键值还没保存过,此时是第一次解码器解码,并且是交叉注意力计算阶段。
分支3:if past_key_value is not None:
,past_key_value
不空说明已经至少是第二次解码了,接下来的流程都属于解码器运行阶段。
分支4:if key_value_states is None:
,编码器在执行自注意力,因为自注意力计算的时候,不会传key_value_states
。此时需要把以前的计算结果拼接回来。
分支5:elif past_key_value.shape[2] != key_value_states.shape[1]:
,这是在支持prefix,和我们正常执行代码无关。
分支6:else:
,此时编码器在执行交叉注意力,并且不是第一次解码。
接下来的算法流程就平平无奇了,计算出权重分数,然后乘以value,最后拼接一下需要返回的向量即可。
Q1:attention_mask的机制,T5和BERT里是如何实现的?
A1:T5和BERT实现方式是一样的。对于输入的attention_mask,它等于[1,1,1,..,0,0,0]
,1表示需要计算注意力,0表示不去关注。之后,transformers
库中通过util
库的get_extended_attention_mask
函数在0位置生成1,1位置生成当前精度的最小值构成mask分数以便于直接相加。在计算att分数时,在softmax之前加上mask分数,这样原来attention_mask中为0的位置的值就变成了一个非常小的数,经过softmax之后就变成了0。
Q2:注意力计算中的缓存机制?
A2:主要是在解码阶段通过past_key_value这个变量来实现的,每一个Block计算注意力分数时,会累计自注意力的KV和交叉注意力的KV到past_key_value中,以供给下一个位置的使用。要注意,每一个Block计算完毕,会返回一个4元组(因为有2个K、V)。同时,T5模型有12个块,那么一个位置上解码完毕就会有12个4元组。Block块之间的缓存KV是横向传递,不是纵向传递。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。