赞
踩
作者:王嘉宁,转载请注明出处:https://wjn1996.blog.csdn.net/article/details/131753251
现如今很多大模型都开始支持超过4096长度的推理,例如GPT-4支持超过30k,ChatGLM2-6B也支持最长为32K的文本,但是由于显存资源的限制,这些大模型在真正在训练过程中不一定要训练这么长的文本,通常在预训练时只会设计到4k左右,因此如何确保在模型推理阶段可以支持远远超过预训练时的长度,是目前大模型的核心问题之一,我们将这一问题归为大模型的外推性。
大模型的外推性目前主要在这两个方面考虑,也是提升最有效的两个角度:
- 寻找或设计合适的位置编码;
- 设计局部注意力机制。
本文从这两方面进行深度探讨大模型的位置编码和外推性问题。
对于一个token w i w_i wi,其表征向量记作 x i \mathbf{x}_i xi,对于一个句子 w = { w 1 , ⋯ } w=\{w_1, \cdots\} w={w1,⋯}则表示为 x \mathbf{x} x。那么可以通过一个映射函数将这个句子中的token表征为 q m \mathbf{q}_m qm、 k n \mathbf{k}_n kn、 v n \mathbf{v}_n vn:
其中
m
m
m和
n
n
n表示第
m
m
m和第
n
n
n个token。
在Transformer中,采用正余弦函数来表示绝对位置,公式如下:
这种编码方式又叫做Sinusoidal编码。直觉上看,第
i
i
i个位置的表征向量维度是
d
d
d,这个向量的奇数位置元素使用余弦值,偶数位置元素使用正弦值。
可视化图如下所示:
最后 f f f映射函数可以定义如下所示。即输入表征为token的表征和其对应的绝对位置表征。
该表征通常是直接将位置表征与Word表征直接相加。
(1)显式的相对位置
对于第
m
m
m和第
n
n
n个位置的token,其相对位置可以表示为
r
=
c
l
i
p
(
m
−
n
,
r
m
i
n
,
r
m
a
x
)
r=clip(m-n, r_{min}, r_{max})
r=clip(m−n,rmin,rmax),即两个token之间的相对距离,且由最大最小值做约束(相对位置不能超过最大值或小于最小值)。
因此,相比于绝对位置,相对位置只需要有 r m a x − r m i n + 1 r_{max}-r_{min}+1 rmax−rmin+1个表征向量即可,即在计算两个token之间的attention值时,只需要在attention计算过程中注入这两个位置对应的相对位置 r r r对应的相对位置表征向量即可:
这样一来,只需要有限个位置编码,就可以表达出任意长度的相对位置(因为进行了截断),不管是选择可训练式的还是三角函数式的,都可以达到处理任意长度文本的需求。
该表征通常是直接将位置表征与Word表征直接相加。
参考论文:《Self-Attention with Relative Position Representations》
(2)Transformer-XL(XLNet)
将第
m
m
m和第
n
n
n个位置的QK计算进行了分解。引入了一些可学习的参数:
其中
p
m
\mathbf{p}_m
pm表示待学习的第
m
m
m个token的相对位置向量,
p
n
\mathbf{p}_n
pn表示待学习的第
n
n
n个token的相对位置向量。通过分解让相对位置注入在attention的计算过程中。
该表征通常是在Attention计算过程中融入绝对位置。
(3)Transformer-XL的改进:
第二和第四项使用相对位置表征
p
~
m
−
n
\tilde{\mathbf{p}}_{m-n}
p~m−n来替换绝对位置表征。同时加入新的可训练参数
u
\mathbf{u}
u和
v
\mathbf{v}
v。
该表征方法在T5模型中被首次使用,参考论文:《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》
该表征通常是在Attention计算过程中融入相对位置。
(4)可训练偏置项
Transformer-XL中的位置表征是将QK分解为4项,而后面3个够项都有跟位置有关的参数,可以直接将后面的3项之和抽象为一个偏置:
RoPE(Rotary Position Embedding)的出发点就是“通过绝对位置编码的方式实现相对位置编码”,或者可以说是实现相对位置编码和绝对位置编码的结合。这样做既有理论上的优雅之处,也有实践上的实用之处,比如它可以拓展到线性Attention中就是主要因为这一点。
假设 q m \mathbf{q}_m qm和 k n \mathbf{k}_n kn是对应位置的二维行向量(即每个位置都有两个向量来表征位置),因此这个二维向量可以用复数来代替(包括实部和虚部),因此他们的内积可以作为其对应的Attention值。内积的计算可以由两个复数实现: ⟨ q m , k n ⟩ = R E [ q m k n ∗ ] \langle\mathbf{q}_m, \mathbf{k}_n\rangle=RE[\mathbf{q}_m\mathbf{k}_n^*] ⟨qm,kn⟩=RE[qmkn∗],其中 ∗ ^* ∗表示共轭复数, R E [ ] RE[] RE[]表示取复数中的实部。
两个二维向量的内积,等于把它们当复数看时,一个复数与另一个复数的共轭的乘积的实部。
因此当分别对
q
m
\mathbf{q}_m
qm和
k
n
\mathbf{k}_n
kn融入绝对位置时,即得到:
RoPE求解过程推导了如何确定获得每个位置编码是 q m e i m θ \mathbf{q}_me^{im\theta} qmeimθ。
可以发现,当乘以绝对位置 e i m θ e^{im\theta} eimθ和 e i n θ e^{in\theta} einθ时,等价于复数运算中乘以 e i ( m − n ) θ e^{i(m-n)\theta} ei(m−n)θ,即相当于在复数空间中是相对位置 m − n m-n m−n,这样就巧妙地通过复数运算的形式将绝对位置转换为相对位置。
复数乘法的几何意义是向量的旋转,假设 f q , k ( x , m ) f_{q,k}(\mathbf{x}, m) fq,k(x,m)表示向量 x \mathbf{x} x在 m m m位置的位置编码,则有:
其中 q = W q x m \mathbf{q}=\mathbf{W}_q\mathbf{x}_m q=Wqxm, k = W k x n \mathbf{k}=\mathbf{W}_k\mathbf{x}_n k=Wkxn
等价于
后面两项的乘积本质就是向量 q \mathbf{q} q(或 k \mathbf{k} k)的两个二维行向量。
当向量维度为
d
d
d时(
d
d
d为偶数),则可以扩展为:
每两个为一组二维向量,一共有 d / 2 d/2 d/2个组合,可以直接拼接作为 d d d维度的旋转位置编码。
二维扩展到多维的解读:Transformer升级之路:4、二维位置的旋转式位置编码 - 科学空间|Scientific SpacesTransformer升级之路:6、旋转位置编码的完备性分析 - 科学空间|Scientific Spaces
RoPE一种线性的实现如下所示:
(1)远程衰减
从图中我们可以可以看到随着相对距离的变大,内积结果有衰减趋势的出现。因此,选择 θ i = 1000 0 − 2 i / d θ_i=10000^{−2i/d} θi=10000−2i/d,确实能带来一定的远程衰减性。当然,能带来远程衰减性的不止这个选择,几乎任意的光滑单调函数都可以。如果以 θ i = 1000 0 − 2 i / d θ_i=10000^{−2i/d} θi=10000−2i/d为初始化,将 θ i θ_i θi视为可训练参数,然后训练一段时间后发现 θ i θ_i θi并没有显著更新,因此干脆就直接固定 θ i = 1000 0 − 2 i / d θ_i=10000^{−2i/d} θi=10000−2i/d了。
(2)优势
具体来说,RoPE 使用旋转矩阵对绝对位置进行编码,同时将显式的相对位置依赖性纳入自注意公式中。 【核心的两个点,一个是“旋转矩阵”,一个是“显式的相对位置依赖”】。
外推性的含义是在长文本表征过程中,如何在训练阶段只需要学习有限的长度,即可以在推理阶段能够延伸长度至若干倍且依然保持不错的性能和效果。
长度外推性是一个训练和预测的长度不一致的问题,主要体现在两个方面:
解决长文本外推性问题的一个简单有效的方法是Attention Mask,如图所示:
在实现过程中,本质上是在计算完 q m T k n \mathbf{q}_m^T\mathbf{k}_n qmTkn之后减去一个矩阵,即 q m T k n − M \mathbf{q}_m^T\mathbf{k}_n-M qmTkn−M,其中 M M M的形状如下图所示:
可以看出,蓝色区域(即滑动窗口内的局部区域)为0,说明保持原始的Attention归一化前的值;其他区域则为一个INT内最大的整数,说明Attention值是一个非常小的数(在softmax归一化后几乎为0)。
论文:《Train Short, Test Long: Attention with Linear Biases Enables Input Length Extrapolation》
其与上面的思想一样,只是改进了上面的 M M M矩阵为 λ ∣ m − n ∣ \lambda|m-n| λ∣m−n∣,即Attention在归一化前的计算为: q m T k n − λ ∣ m − n ∣ \mathbf{q}_m^T\mathbf{k}_n-\lambda|m-n| qmTkn−λ∣m−n∣,其中 λ > 0 \lambda>0 λ>0为超参数,Transformer的多头注意力中的每个头的值可设置不同。矩阵 λ ∣ m − n ∣ \lambda|m-n| λ∣m−n∣的形状如下所示:
相比于原始的方法,相对距离越长, λ ∣ m − n ∣ \lambda|m-n| λ∣m−n∣值就越大,越远的位置Attention值被归一化后就约小,相对于“滑动窗口”采用的方法是hard(在窗口内就计算attention,不在窗口内不计算),AIBLI是比较soft的(离得近attention就会比较大,离得远就比较小)。
论文:《KERPLE: Kernelized Relative Positional Embedding for Length Extrapolation》
其对ALIBI进行了一些改进,引入了两个可学习的参数 r 1 r_1 r1和 r 2 r_2 r2来“动态”学习局部区域。如下图所示,左侧为原始的 q m T k n \mathbf{q}_m^T\mathbf{k}_n qmTkn,通过引入参数来动态减去AIBLI中的 λ ∣ m − n ∣ \lambda|m-n| λ∣m−n∣矩阵:
定义了两种模式,分别是power和logarithmic,分别对应没有对数和有对数的形式:
在logarithmic模式中, r 1 r_1 r1控制了整体的量, r 2 r_2 r2相当于ALIBI中的 λ \lambda λ, c c c是一个常数。苏神版简化写作:
论文:《Receptive Field Alignment Enables Transformer Length Extrapolation》
Sandwich与KEPRLE是同一个作者提出的,其对KEPRLE进行了少量改进,即对应的公式改写为: q m T k n + λ p m T p n \mathbf{q}_m^T\mathbf{k}_n+\lambda\mathbf{p}_m^T\mathbf{p}_n qmTkn+λpmTpn,其中 p m \mathbf{p}_m pm和 p n \mathbf{p}_n pn可以使用Sinusoidal编码表示,即:
由于Sinusoidal编码在单调性上等价于 ∣ m − n ∣ |m-n| ∣m−n∣,都是线性递增形式,因此Sandwich只是改头换面了。
论文:《A Length-Extrapolatable Transformer》
参考解读:Transformer升级之路:7、长度外推性与局部注意力
其在RoPE的基础上引入了局部注意力。RoPE的本质是:
在第2大节中已经介绍了RoPE是通过使用复数来实现绝对位置表示相对位置的。XPOS通过引入一个新的标量 ξ \xi ξ,即有:
由于RoPE相对位置是 m − n m-n m−n,而不是 ∣ m − n ∣ |m-n| ∣m−n∣,因此XPOS约束在了单向Transformer,从而避免了负数出现。
XPOS又设计了一个局部感知的注意力机制Blockwise Causal Attention,进一步提升了局部注意力的性能,提升了长文本的外推性。
(1)混合注意力Mask
在解决长文本位置表征时,典型的代表有Transformer-XL、BigBird、LongFormer,他们除了局部注意力机制以外,还引入了随机位置的性质:
如上图,第2张图为局部注意力(滑动窗口),第3章图为有限的全局感知(例如只限制前两个token可以看见所有的token)。而第一张图则是随机mask,以缓解过度hard的局部注意力。三者注意力混合起来后得到第四张图,这也是普遍训练超长文本大模型时采用的方法。
(2)随机位置表征
论文:《Randomized Positional Encodings Boost Length Generalization of Transformers》
绝对位置表征时,会存在位置上的OOV问题,随机位置编码则是通过在训练过程中采用如下策略:
对应的代码也很简单:
def random_position_ids(N, L=2048):
"""从[0, L)中随机不重复挑N个整数,并从小到大排列
"""
return np.sort(np.random.permutation(L)[:N])
苏神对随机位置编码的新探索:
对应的代码为:
def random_position_ids(N):
"""先随机采样n,然后从[0, n]均匀取N个点
"""
n = sample_from_xxx()
return np.linspace(0, 1, N) * n
(3) log n \log n lognAttention Scale
原始的Attention计算公式为:
A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ) V Attention(Q, K, V)=softmax(\frac{QK^T}{\sqrt{d_k}})V Attention(Q,K,V)=softmax(dk QKT)V
只需要简单的改成下面即可:
A t t e n t i o n ( Q , K , V ) = s o f t m a x ( log m n d k Q K T ) V Attention(Q, K, V)=softmax(\frac{\log_{m}n}{\sqrt{d_k}}QK^T)V Attention(Q,K,V)=softmax(dk logmnQKT)V
其中
m
m
m是训练时的最大长度,
n
n
n是预测时的位置,通常来说
n
>
>
m
n>>m
n>>m。直觉来看,就是直接在计算
Q
K
T
QK^T
QKT时,根据其相对位置来控制Attention的值。当
m
m
m和
n
n
n距离很远时,
log
m
n
\log_mn
logmn的值会很大,会使得整体Attention归一化后会比较平缓,有助于解决外推性问题。
(4)全局依赖
滑动窗口的方法如果在一层Transformer Layer里看,本质上类似长度为 w w w的N-Gram模型,即如下图所示:
如果Transformer又 L L L层,那么,从输入层开始,长度为 w w w的窗口内的信息,可以在经过 L L L层之后传给一个更广的区域,区域长度为 ( w − 1 ) L + 1 (w-1)L+1 (w−1)L+1,如下图所示:
苏神给出的一种新的想法,就是假设我有
L
L
L层Transformer,则可以在前
L
−
1
L-1
L−1层利用这种扩张特性,得到最终
(
w
−
1
)
(
L
−
1
)
+
1
(w-1)(L-1)+1
(w−1)(L−1)+1长度的区域后,在最后一层采用上面提到的
log
n
\log n
lognAttention Scale方法,讲前
L
−
1
L-1
L−1层扩张的信息快速在最后一层与所有token进行交互。引入苏神的原文为:
这种局部注意力+Attention Scale的结合也是一种很巧妙的idea。实验也发现这种策略的外推性很惊艳。
《Self-Attention with Relative Position Representations》
ROFORMER: ENHANCED TRANSFORMER WITH ROTARY POSITION EMBEDDING
Transformer升级之路:4、二维位置的旋转式位置编码 - 科学空间|Scientific SpacesTransformer升级之路:6、旋转位置编码的完备性分析 - 科学空间|Scientific Spaces
《Train Short, Test Long: Attention with Linear Biases Enables Input Length Extrapolation》
《KERPLE: Kernelized Relative Positional Embedding for Length Extrapolation》
《A Length-Extrapolatable Transformer》
《Randomized Positional Encodings Boost Length Generalization of Transformers》
Transformer升级之路:7、长度外推性与局部注意力
【OpenLLM 009】大模型基础组件之位置编码-万字长文全面解读LLM中的位置编码与长度外推性(上)
Transformer升级之路:8、长度外推性与位置鲁棒性 - 科学空间|Scientific Spaces
Transformer升级之路:9、一种全局长度外推的新思路 - 科学空间|Scientific Spaces
Bias项的神奇作用:RoPE + Bias = 更好的长度外推性 - 科学空间|Scientific Spaces
博客记录着学习的脚步,分享着最新的技术,非常感谢您的阅读,本博客将不断进行更新,希望能够给您在技术上带来帮助。
近200篇论文,300份博主亲自撰写的markdown笔记。订阅本专栏【大模型&NLP&算法】专栏,或前往https://github.com/wjn1996/LLMs-NLP-Algo即可获得全部如下资料:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。