赞
踩
自从Transformer架构问世以来,大型语言模型(Large Language Models, LLMs)以及AIGC技术的发展速度惊人,它们不仅在技术层面取得了重大突破,还在商业应用、社会影响等多个层面展现出巨大潜力。
随着ChatGPT的推出,这一技术日益走进大众视野,这也预示着一个由生成式AI塑造的未来正在加速到来。
与此同时,Meta AI Meta AI在2023年推出了LLama(Large Language Model Meta AI)系列大语言模型,这一模型初期是以较为封闭的形式面向特定研究人员开放。之后,又开源LLama系列模型LLama2。
LLama2是Meta AI公司在2023年推出的一款半开源LLM(所谓半开源即为只有Inference没有Train过程),它是Llama的下一代版本,训练数据集2万亿token,上下文长度由llama的2048扩展到4096,可以理解和生成更长的文本,包括7B、13B、70B三个模型,展现出了卓越的性能,使其迅速在基准测试中崭露头角,标志着生成式人工智能领域的一次重要进步。
LLama2模型的任务是在给定前n个单词的基础上预测句子中下一个单词。该模型的核心特点是其预测过程依赖于过去和当前的输入信息,而不考虑未来的信息。
该模型生成文本的过程中,每次迭代不仅需要提供当前待预测位置前n个单词作为输入,还需要将模型在前一次迭代中生成的单词作为新的输入的一部分。
例如,假设我们想要使用LLama2模型生成一句话,设定n=3,即模型每次基于前3个单词预测下一个单词。生成过程如下:
如下图所示。
相比之下,CV模型在进行图像分类、目标检测等任务时,通常只需要一次性接收整个图像作为输入,然后经过一次推理过程就得出最终结果,无需像llama2这样的语言模型这样进行多次迭代和递归预测。
在深入理解LLama2模型结构之前,我们先回顾一下LLM的一般处理流程:
LLM的输入数据通常是一段或多段自然语言文本,可以是一个简单的句子或一段话。文本被表示成单词或字符的序列。
[岱宗夫如何?齐鲁青未了。造化钟神秀,阴阳割昏晓。]
文本被切分为单词或字符,形成token序列。token序列进一步被序列化为列表或数组,并通过语料库进行索引化,将每个token映射到一个唯一的整数索引,便于模型内部计算。
序列化->[‘BOS’,‘岱’,‘宗’,‘夫’,‘如’,‘何’,‘?’,‘齐’,‘鲁’…‘阴’,‘阳’,‘割’,‘昏’,‘晓’,‘EOS’]
假设语料库索引化->[‘BOS’,‘10’,‘3’,‘67’,‘89’,‘21’,‘45’,‘55’,‘61’…‘7869’,‘9’,‘3452’,‘563’,‘56’,‘EOS’]
tokenization之后的文本信息变为数字形式的token序列,然后通过Embedding层将数字token映射为一个实数向量Embeding Vector。其中,每个token对应的向量通常具有固定的维度d(如50、100、300、768等),向量中的每个元素(实数)表示token在特定语义空间中的某个属性或特征。
具体来说,Embedding Vector可以表示为一个二维数组或矩阵,其形状与token序列长度相同,每个元素是一个固定维度的向量。这里假设使用一个维度为d=10的Embedding向量,则经过Embedding层后得到的向量表示如下:
'BOS'-> [p_{00},p_{01},p_{02},...,p_{09}]
'10' -> [p_{10},p_{11},p_{12},...,p_{09}]
'3' -> [p_{20},p_{21},p_{22},...,p_{09}]
...
'EOS'-> [p_{n0},p_{n1},p_{n2},...,p_{09}]
位置编码(Positional Encoding)用于标识每个token在序列中的位置。让模型在处理不同位置的token时,能够区分它们的相对位置,并为模型提供上下文关系信息。
对于每个位置i,预先计算一个固定的位置向量pe_i,其维度与Embedding相同。在输入模型前,将每个token的Embedding与对应位置的PE相加,得到包含位置信息的token表示:
token_i_with_pe=Embedding_i+pe_i
其中,Embedding_i是第i个token的Embedding,pe_i是第i个位置的位置编码向量。二者相加如下:
[p_{00},p_{01},p_{02},...,p_{09}] [pe_{00},pe_{01},pe_{02},...,pe_{09}]
[p_{10},p_{11},p_{12},...,p_{09}] [pe_{10},pe_{11},pe_{12},...,pe_{09}]
[p_{20},p_{21},p_{22},...,p_{09}] + [pe_{20},pe_{21},pe_{22},...,pe_{09}]
... ...
[p_{n0},p_{n1},p_{n2},...,p_{09}] [pe_{n0},pe_{n1},pe_{n2} ,...,pe_{09}]
目前大语言模型都是基于transformer结构。在生成任务中,如文本生成、对话响应生成、摘要生成等,模型(比如GPT、llama)通常只使用Transformer架构中的Decoder部分,也就是所谓的Decoder-Only结构。
在生成输出序列任务中,使用自回归(Autoregressive)方式,即每次只生成一个token,并且这个token的生成依赖于之前已经生成的所有token。例如下面的代码:
# 定义使用的LLaMA2模型 model = LLaMA2() # 定义自回归生成函数 def generate(inputs, n_tokens_to_generate): # 自回归解码循环,迭代次数等于要生成的token数量 for _ in range(n_tokens_to_generate): # 将当前输入传入模型进行前向传播 output = model(inputs) # 使用贪婪采样(Greedy Sampling)策略,选取概率最高的token作为下一个预测结果 next = np.argmax(output[-1]) # 将预测的token添加到输入序列中,供下次迭代使用 inputs.append(next) # 返回最后生成的n_tokens_to_generate个token return inputs[len(inputs) - n_tokens_to_generate :] # 给定初始输入,包含特殊token 'BOS' 和两个汉字 '岱' '宗' input = [p0, p1, p2] # 请求生成3个新token output_ids = generate(input, 3) # 假设生成 ['p3','p4','p5'] # 将生成的token ID解码为实际字符 output_ids = decode(output_ids) # 通过tokenization解码 # 将解码后的token ID转换为词汇表中的词汇(此处假设vocab是一个字典) output_tokens = [vocab[i] for i in output_ids] # 得到 "夫" "如" "何"
生成的token序列通过一个输出层,将每个位置的概率分布转换为对应token的概率。根据概率,选择概率最高的token作为模型预测输出。
''' 从给定的概率分布中采样一个token,采用top-p策略 probs: 表示给定的概率分布 p: 表示概率阈值,在采样过程中,只保留累积概率小于p的部分 ''' def sample_top_p(probs, p): # 1.概率降序排序:对输入的 probs 张量按最后一个维度(即每个概率向量内部)进行降序排序 probs_sort, probs_idx = torch.sort(probs, dim=-1, descending=True) #给定的概率降序排序 # 2. 计算概率的累计和:对排序后的概率向量进行累计求和,得到一个新的张量,表示每个概率向量的累计概率 probs_sum = torch.cumsum(probs_sort, dim=-1) # 3. 计算累积概率减去当前概率值是否大于p # 生成一个布尔型张量 mask,其中 True 表示该位置的累积概率减去当前概率值大于p,False则反之 mask = probs_sum - probs_sort > p # 4. 在 probs_sort 张量中,将 mask 为 True 的位置(累积概率超过p 的部分)的值置为0。 # 这样就实现了仅保留累积概率小于p的部分 probs_sort[mask] = 0.0 # 5. 归一化处理:对经过截断处理后的probs_sort张量进行归一化,使其概率总和为1 # 使用 sum(dim=-1, keepdim=True) 计算每个概率向量的总和,并保持维度不变。然后进行元素级除法操作,使每个概率向量成为一个合法的概率分布。 probs_sort.div_(probs_sort.sum(dim=-1, keepdim=True)) # 6. 随机采样:进行一次随机抽样,得到一个形状为 (batch_size, 1) 的张量,表示每个批次数据采样到的 token 索引 next_token = torch.multinomial(probs_sort, num_samples=1) # 7. 还原原始索引:根据next_token中的索引,从probs_idx中提取对应的原始索引 next_token = torch.gather(probs_idx, -1, next_token) return next_token
目前主流的LLM模型大多都是基于Transformer构建,llama2也不例外。LLM是根据给定输入文本序列的上下文信息预测下一个token,因此通常只需要Transformer Decoder部分。
而Decoder与Encoder的本质区别就是在计算Q*V时引入Mask以确保当前位置只关注前面已经生成的内容。
llama2的模型结构与Transformer Decoder部分基本一致,主要由32个Transformer Block组成。
同时在Transformer Decoder基础上做了如下改进:
为什么要进行归一化?
归一化(Normalization)是指将数据按照比例缩放,使其落入一个小的特定区间,通常是0-1,这样做有助于加快模型训练速度,提高模型性能。比如某模型训练场合,一些特征数值是远大于其他特征值的,像人的身高(eg:180cm)与体重(eg:75kg),这样直接训练,可能会影响损失函数梯度,导致优化过程困难,同时容易造成梯度消失或爆炸。
前置归一化是指在每一层神经网络计算之前先进行归一化操作,与传统后置归一化(即在每一层计算之后进行归一化)相对。具体实现如下:
Transformer中的Normalization层一般都是采用LayerNorm来对Tensor进行归一化,LayerNorm的公式如下:
y = x − E [ x ] V a r [ x ] + ϵ ∗ γ + β y=\frac{x-E[x]}{\sqrt{Var[x]}+\epsilon}*{\gamma}+\beta y=Var[x] +ϵx−E[x]∗γ+β
其中,
E [ x ] = 1 N ∑ i = 1 N x i E[x]=\frac{1}{N}\sum_{i=1}^{N}x_i E[x]=N1i=1∑Nxi
V a r [ x ] = 1 N ∑ i = 1 N ( x i − E [ x ] ) 2 Var[x]=\frac{1}{N}\sum_{i=1}^{N}(x_i-E[x])^2 Var[x]=N1i=1∑N(xi−E[x])2
llama的前置归一化采用RMSNorm(Root Mean Square Normalization),省去了求均值的过程,也没有了偏置 β \beta β。
y = x M e a n ( x 2 ) + ϵ ∗ γ y=\frac{x}{\sqrt{Mean(x^2)}+\epsilon}*{\gamma} y=Mean(x2) +ϵx∗γ
其中, γ , β \gamma,\beta γ,β是可学习的参数,且:
M e a n ( x 2 ) = 1 N ∑ i = 1 N x i 2 Mean(x^2)=\frac{1}{N}\sum_{i=1}^{N}x_i^2 Mean(x2)=N1i=1∑Nxi2
# RMSNorm class RMSNorm(torch.nn.Module): ''' RMSNorm:归一化 :param dim: int,待归一化的特征维度(通常是通道数) :param eps: float,默认值为 1e-6,用于防止除法运算时分母过小导致数值不稳定 ''' def __init__(self, dim: int, eps: float = 1e-6): # 初始化父类(即 torch.nn.Module)的属性和方法 super().__init__() self.eps = eps # ε # 初始值为全1向量 self.weight = nn.Parameter(torch.ones(dim)) #可学习参数γ ''' _norm 是一个私有方法,仅在 RMSNorm 类内部使用 ''' def _norm(self, x): # RMSNorm ''' :param x: 待归一化的tensor,通常为模型某一层的输出,形状为 (batch_size, ..., dim) ''' return x * torch.rsqrt(x.pow(2).mean(-1, keepdim=True) + self.eps) # 前向传播 # 返回经过标度的归一化张量作为RMSNorm层的输出 def forward(self, x): # 将输入张量 x 转换为浮点类型(float),确保计算精度 # 调用私有方法 _norm 对 x 进行根均方归一化,得到归一化后的张量 output # 将 output 的数据类型恢复为与输入 x 相同,以保持数据类型一致性 output = self._norm(x.float()).type_as(x) # 将归一化后的张量 output 与可学习权重参数 self.weight 相乘,对归一化结果进行标度 return output * self.weight
其中,计算RMSNorm的具体步骤如下:
Transformer模型通常在输入序列经过Embedding层后只做一次位置编码,而lamma2模型选择在每个Attention层中分别对Query(Q)和Key(K)进行旋转位置编码(Rotary Positional Embedding, RoPE),即每次计算Attention时,都需要对当前层的Q和K进行位置编码。
RoPE是为了解决什么问题?用提出者苏大神的话来说,“就是‘通过绝对位置编码的方式实现相对位置编码’,这样做既有理论上的优雅之处,也有实践上的实用之处,比如它可以拓展到线性Attention中就是主要因为这一点。”。
假设通过下述运算来给q,k添加绝对位置信息:
q ˉ m = f q ( x m , m ) , k ˉ n = f k ( x n , n ) \bar{q}_m=f_q(x_m,m),\bar{k}_n=f_k(x_n,n) qˉm=fq(xm,m),kˉn=fk(xn,n)
上述函数处理后,使得 q ˉ m 、 k ˉ n \bar{q}_m、\bar{k}_n qˉm、kˉn是带有位置m、n的绝对位置信息。
Attention的核心运算是内积,所以我们希望的内积的结果带有相对位置信息,因此假设存在恒等关系:
< f q ( x m , m ) , f k ( x n , n ) > = g ( x m , x n , m − n ) <f_q(x_m, m), f_k(x_n, n)> = g(x_m, x_n, m - n) <fq(xm,m),fk(xn,n)>=g(xm,xn,m−n)
接下来的目标就是找到一个等价的位置编码方式,从而使得上述关系成立。
假定现在词嵌入向量的维度是两维d=2,这样就可以利用二维平面上的向量的几何性质,然后论文中提出了一个满足上述关系的f和g的形式如下:
f q ( x m , m ) = ( W q x m ) e i n θ f_q(x_m, m) = (W_qx_m)e^{in\theta} fq(xm,m)=(Wqxm)einθ
f k ( x n , n ) = ( W k x n ) e i n θ f_k(x_n, n) = (W_kx_n)e^{in\theta} fk(xn,n)=(Wkxn)einθ
g ( x m , x n , , m − n ) = R e [ ( W q x m ) ( W k x n ) ∗ e i ( m − n ) θ ] g(x_m,x_n,,m-n)=Re[(W_qx_m)(W_kx_n)^*e^{i(m-n)\theta}] g(xm,xn,,m−n)=Re[(Wqxm)(Wkxn)∗ei(m−n)θ]
乍一看挺复杂哈,怎么理解呢?
首先我们先回顾一下复数基础。f和g公式中都有一个指数函数 e i x e^{ix} eix,这不是欧拉公式么,x表示任意实数,e是自然对数的底数,i是复数中的虚数单位,则根据欧拉公式可知:
e i x = c o s ( x ) + i ∗ s i n ( x ) e^{ix}=cos(x)+i*sin(x) eix=cos(x)+i∗sin(x)
因而,上述指数函数可以表示为实部为cos(x),虚部为sin(x)的一个复数,从而建立了指数函数、三角函数和复数之间的桥梁。则:
e i m θ = c o s ( m θ ) + i ∗ s i n ( m θ ) e^{im\theta}=cos(m\theta)+i*sin(m\theta) eimθ=cos(mθ)+i∗sin(mθ)
e i n θ = c o s ( n θ ) + i ∗ s i n ( n θ ) e^{in\theta}=cos(n\theta)+i*sin(n\theta) einθ=cos(nθ)+i∗sin(nθ)
e i ( m − n ) θ = c o s ( ( m − n ) θ ) + i ∗ s i n ( ( m − n ) θ ) e^{i(m-n)\theta}=cos((m-n)\theta)+i*sin((m-n)\theta) ei(m−n)θ=cos((m−n)θ)+i∗sin((m−n)θ)
此时再回看:
f q ( x m , m ) = ( W q x m ) e i m θ f_q(x_m, m) = (W_qx_m)e^{im\theta} fq(xm,m)=(Wqxm)eimθ
其中, W q W_q Wq是一个二维矩阵, x m x_m xm是二维向量,二者相乘也是二维向量,用 q m q_m qm表示如下:
q
m
=
(
q
m
(
1
)
q
m
(
2
)
)
=
W
q
x
m
=
(
W
q
(
11
)
W
q
(
12
)
W
q
(
21
)
W
q
(
22
)
)
⋅
(
x
m
(
1
)
x
m
(
2
)
)
q_m=(q(1)mq(2)m)
然后将 q m q_m qm表为复数形式:
q m = [ q m ( 1 ) , q m ( 2 ) ] = [ q m ( 1 ) + i q m ( 2 ) ] q_m=[q_m^{(1)},q_m^{(2)}]=[q_m^{(1)}+iq_m^{(2)}] qm=[qm(1),qm(2)]=[qm(1)+iqm(2)]
接着,
f q ( x m , m ) = ( W q x m ) e i m θ f_q(x_m,m)=(W_qx_m)e^{im\theta} fq(xm,m)=(Wqxm)eimθ
其实就是两个复数相乘:
q m ∗ e i m θ = ( q m ( 1 ) + i q m ( 2 ) ) ∗ ( c o s ( m θ ) + i s i n ( m θ ) ) q_m*e^{im\theta}=(q_m^{(1)}+iq_m^{(2)})*(cos(m\theta)+isin(m\theta)) qm∗eimθ=(qm(1)+iqm(2))∗(cos(mθ)+isin(mθ))
由复数的性质,且 i 2 = − 1 i^2=-1 i2=−1可以得到:
( a + i b ) ∗ ( c + i d ) = a c + i b c + i a d + i 2 b d = ( a c − b d ) + i ( a d + b c ) (a+ib)*(c+id)=ac+ibc+iad+i^2bd=(ac-bd)+i(ad+bc) (a+ib)∗(c+id)=ac+ibc+iad+i2bd=(ac−bd)+i(ad+bc)
因此,
q m e i m θ = ( q m ( 1 ) + i q m ( 2 ) ) ∗ ( c o s ( m θ ) + i s i n ( m θ ) ) = ( q m ( 1 ) c o s ( m θ ) − q m ( 2 ) s i n ( m θ ) ) + i ( q m ( 1 ) s i n ( m θ ) + q m ( 2 ) c o s ( m θ ) ) ) ) q_me^{im\theta}=(q_m^{(1)}+iq_m^{(2)})*(cos(m\theta)+isin(m\theta))\\ =(q_m^{(1)}cos(m\theta)-q_m^{(2)}sin(m\theta))+i(q_m^{(1)}sin(m\theta)+q_m^{(2)}cos(m\theta)))) qmeimθ=(qm(1)+iqm(2))∗(cos(mθ)+isin(mθ))=(qm(1)cos(mθ)−qm(2)sin(mθ))+i(qm(1)sin(mθ)+qm(2)cos(mθ))))
将结果重新表达成实数向量形式就是:
q m = [ q m ( 1 ) c o s ( m θ ) − q m ( 2 ) s i n ( m θ ) , q m ( 1 ) s i n ( m θ ) + q m ( 2 ) c o s ( m θ ) ] q_m=[q_m^{(1)}cos(m\theta)-q_m^{(2)}sin(m\theta),q_m^{(1)}sin(m\theta)+q_m^{(2)}cos(m\theta)] qm=[qm(1)cos(mθ)−qm(2)sin(mθ),qm(1)sin(mθ)+qm(2)cos(mθ)]
读到这里,我们就会发现,这不就是 q m q_m qm向量乘了一个旋转矩阵么!
f
q
(
x
m
,
m
)
=
(
W
q
x
m
)
e
i
m
θ
=
q
m
e
i
m
θ
=
[
q
m
(
1
)
c
o
s
(
m
θ
)
−
q
m
(
2
)
s
i
n
(
m
θ
)
,
q
m
(
1
)
s
i
n
(
m
θ
)
+
q
m
(
2
)
c
o
s
(
m
θ
)
]
=
(
c
o
s
(
m
θ
)
−
s
i
n
(
m
θ
)
s
i
n
(
m
θ
)
c
o
s
(
m
θ
)
)
⋅
(
q
m
(
1
)
q
m
(
2
)
)
f_q(x_m,m)=(W_qx_m)e^{im\theta}=q_me^{im\theta} =[q_m^{(1)}cos(m\theta)-q_m^{(2)}sin(m\theta),q_m^{(1)}sin(m\theta)+q_m^{(2)}cos(m\theta)]\\ =(cos(mθ)−sin(mθ)sin(mθ)cos(mθ))
这也就是为什么叫做旋转式位置编码!!!
同理可得 k n k_n kn向量:
f
k
(
x
n
,
n
)
=
(
W
q
x
n
)
e
i
n
θ
=
k
n
e
i
n
θ
=
[
k
n
(
1
)
c
o
s
(
n
θ
)
−
k
n
(
2
)
s
i
n
(
n
θ
)
,
k
n
(
1
)
s
i
n
(
n
θ
)
+
k
n
(
2
)
c
o
s
(
n
θ
)
]
=
(
c
o
s
(
n
θ
)
−
s
i
n
(
n
θ
)
s
i
n
(
n
θ
)
c
o
s
(
n
θ
)
)
⋅
(
k
n
(
1
)
k
n
(
2
)
)
f_k(x_n,n)=(W_qx_n)e^{in\theta}=k_ne^{in\theta} =[k_n^{(1)}cos(n\theta)-k_n^{(2)}sin(n\theta),k_n^{(1)}sin(n\theta)+k_n^{(2)}cos(n\theta)]\\ =(cos(nθ)−sin(nθ)sin(nθ)cos(nθ))
最后还有个函数g:
g ( x m , x n , m − n ) = R e [ ( W q x m ) ( W k x n ) ∗ e i ( m − n ) θ ] g(x_m,x_n,m-n)=Re[(W_qx_m)(W_kx_n)^*e^{i(m-n)\theta}] g(xm,xn,m−n)=Re[(Wqxm)(Wkxn)∗ei(m−n)θ]
其中,Re[x]表示一个复数x的实数部分,而 ( W k x n ) ∗ (W_kx_n)^* (Wkxn)∗表示复数 W k x n W_kx_n Wkxn的共轭,共轭复数的定义如下:
( a + b i ) ∗ = a − b i (a+bi)^*=a-bi (a+bi)∗=a−bi
由此可得,
W q x m = q m = ( q m ( 1 ) + i q m ( 2 ) ) W_qx_m=q_m=(q_m^{(1)}+iq_m^{(2)}) Wqxm=qm=(qm(1)+iqm(2))
W k x n = k n = ( k n ( 1 ) + i k n ( 2 ) ) W_kx_n=k_n=(k_n^{(1)}+ik_n^{(2)}) Wkxn=kn=(kn(1)+ikn(2))
( W k x n ) ∗ = k n ∗ = ( k n ( 1 ) − i k n ( 2 ) ) (W_kx_n)^*=k^*_n=(k_n^{(1)}-ik_n^{(2)}) (Wkxn)∗=kn∗=(kn(1)−ikn(2))
e i ( m − n ) θ = c o s ( m − n ) θ + i s i n ( m − n ) θ e^{i(m-n)\theta}=cos(m-n)\theta+isin(m-n)\theta ei(m−n)θ=cos(m−n)θ+isin(m−n)θ
继而,
g
(
x
m
,
x
n
,
m
−
n
)
=
R
e
[
(
W
q
x
m
)
(
W
k
x
n
)
∗
e
i
(
m
−
n
)
θ
]
=
R
e
[
(
(
q
m
(
1
)
+
i
q
m
(
2
)
)
+
i
(
k
n
(
1
)
−
i
k
n
(
2
)
)
)
(
c
o
s
(
m
−
n
)
θ
+
i
s
i
n
(
m
−
n
)
θ
)
]
=
R
e
[
(
(
q
m
(
1
)
k
n
(
1
)
+
q
m
(
2
)
k
n
(
2
)
)
+
i
(
q
m
(
2
)
k
n
(
1
)
−
q
m
(
1
)
k
n
(
2
)
)
)
(
c
o
s
(
m
−
n
)
θ
+
i
s
i
n
(
m
−
n
)
θ
)
]
=
(
q
m
(
1
)
k
n
(
1
)
+
q
m
(
2
)
k
n
(
2
)
)
c
o
s
(
m
−
n
)
θ
−
(
q
m
(
2
)
k
n
(
1
)
−
q
m
(
1
)
k
n
(
2
)
)
s
i
n
(
m
−
n
)
θ
g(xm,xn,m−n)=Re[(Wqxm)(Wkxn)∗ei(m−n)θ]=Re[((q(1)m+iq(2)m)+i(k(1)n−ik(2)n))(cos(m−n)θ+isin(m−n)θ)]=Re[((q(1)mk(1)n+q(2)mk(2)n)+i(q(2)mk(1)n−q(1)mk(2)n))(cos(m−n)θ+isin(m−n)θ)]=(q(1)mk(1)n+q(2)mk(2)n)cos(m−n)θ−(q(2)mk(1)n−q(1)mk(2)n)sin(m−n)θ
那么,你可能还有一个疑问,g函数是怎么来的呢?
g
(
x
m
,
x
n
,
,
m
−
n
)
=
R
e
[
(
W
q
x
m
)
(
W
k
x
n
)
∗
e
i
(
m
−
n
)
θ
]
g(xm,xn,,m−n)=Re[(Wqxm)(Wkxn)∗ei(m−n)θ]
首先回顾一下attention操作,位置m的query和位置n的key会做一个内积操作:
f
q
(
x
m
,
m
)
=
[
q
m
(
1
)
c
o
s
(
m
θ
)
−
q
m
(
2
)
s
i
n
(
m
θ
)
,
q
m
(
1
)
s
i
n
(
m
θ
)
+
q
m
(
2
)
c
o
s
(
m
θ
)
]
f
k
(
x
n
,
n
)
=
[
k
n
(
1
)
c
o
s
(
n
θ
)
−
k
n
(
2
)
s
i
n
(
n
θ
)
,
k
n
(
1
)
s
i
n
(
n
θ
)
+
k
n
(
2
)
c
o
s
(
n
θ
)
]
⟨
f
q
(
x
m
,
m
)
,
f
k
(
x
n
,
n
)
⟩
=
(
q
m
(
1
)
c
o
s
(
m
θ
)
−
q
m
(
2
)
s
i
n
(
m
θ
)
)
(
k
n
(
1
)
c
o
s
(
n
θ
)
−
k
n
(
2
)
s
i
n
(
n
θ
)
)
+
(
q
m
(
1
)
s
i
n
(
m
θ
)
+
q
m
(
2
)
c
o
s
(
m
θ
)
)
(
k
n
(
2
)
c
o
s
(
n
θ
)
+
k
n
(
1
)
s
i
n
(
n
θ
)
)
=
q
m
(
1
)
c
o
s
(
m
θ
)
k
n
(
1
)
c
o
s
(
n
θ
)
−
q
m
(
1
)
c
o
s
(
m
θ
)
k
n
(
2
)
s
i
n
(
n
θ
)
−
q
m
(
2
)
s
i
n
(
m
θ
)
k
n
(
1
)
c
o
s
(
n
θ
)
+
q
m
(
2
)
s
i
n
(
m
θ
)
k
n
(
2
)
c
o
s
(
n
θ
)
+
q
m
(
2
)
c
o
s
(
m
θ
)
k
n
(
2
)
c
o
s
(
n
θ
)
+
q
m
(
2
)
c
o
s
(
m
θ
)
k
n
(
1
)
s
i
n
(
n
θ
)
+
q
m
(
1
)
s
i
n
(
m
θ
)
k
n
(
2
)
c
o
s
(
n
θ
)
+
q
m
(
1
)
s
i
n
(
m
θ
)
k
n
(
1
)
s
i
n
(
n
θ
)
fq(xm,m)=[q(1)mcos(mθ)−q(2)msin(mθ),q(1)msin(mθ)+q(2)mcos(mθ)]fk(xn,n)=[k(1)ncos(nθ)−k(2)nsin(nθ),k(1)nsin(nθ)+k(2)ncos(nθ)]⟨fq(xm,m),fk(xn,n)⟩=(q(1)mcos(mθ)−q(2)msin(mθ))(k(1)ncos(nθ)−k(2)nsin(nθ))+(q(1)msin(mθ)+q(2)mcos(mθ))(k(2)ncos(nθ)+k(1)nsin(nθ))=q(1)mcos(mθ)k(1)ncos(nθ)−q(1)mcos(mθ)k(2)nsin(nθ)−q(2)msin(mθ)k(1)ncos(nθ)+q(2)msin(mθ)k(2)ncos(nθ)+q(2)mcos(mθ)k(2)ncos(nθ)+q(2)mcos(mθ)k(1)nsin(nθ)+q(1)msin(mθ)k(2)ncos(nθ)+q(1)msin(mθ)k(1)nsin(nθ)
由三角函数性质:
s
i
n
(
a
+
b
)
=
s
i
n
a
c
o
s
b
+
c
o
s
a
s
i
n
b
s
i
n
(
a
−
b
)
=
s
i
n
a
c
o
s
b
−
c
o
s
a
s
i
n
b
c
o
s
(
a
+
b
)
=
c
o
s
a
c
o
s
b
−
s
i
n
a
s
i
n
b
c
o
s
(
a
−
b
)
=
c
o
s
a
c
o
s
b
+
s
i
n
a
s
i
n
b
sin(a+b)=sinacosb+cosasinbsin(a−b)=sinacosb−cosasinbcos(a+b)=cosacosb−sinasinbcos(a−b)=cosacosb+sinasinb
由此可得,
⟨
f
q
(
x
m
,
m
)
,
f
k
(
x
n
,
n
)
⟩
=
q
m
(
1
)
k
n
(
1
)
(
c
o
s
(
m
θ
)
c
o
s
(
n
θ
)
+
s
i
n
(
m
θ
)
s
i
n
(
n
θ
)
)
+
q
m
(
1
)
k
n
(
2
)
(
−
c
o
s
(
m
θ
)
s
i
n
(
n
θ
)
+
s
i
n
(
m
θ
)
c
o
s
(
n
θ
)
)
+
q
m
(
2
)
k
n
(
1
)
(
−
s
i
n
(
m
θ
)
c
o
s
(
n
θ
)
+
c
o
s
(
m
θ
)
s
i
n
(
n
θ
)
)
+
q
m
(
2
)
k
n
(
2
)
(
s
i
n
(
m
θ
)
s
i
n
(
n
θ
)
+
c
o
s
(
m
θ
)
c
o
s
(
n
θ
)
)
=
q
m
(
1
)
k
n
(
1
)
c
o
s
(
(
m
−
n
)
θ
)
+
q
m
(
1
)
k
n
(
2
)
s
i
n
(
(
m
−
n
)
θ
)
−
q
m
(
2
)
k
n
(
1
)
s
i
n
(
(
m
−
n
)
θ
)
+
q
m
(
2
)
k
n
(
2
)
c
o
s
(
(
m
−
n
)
θ
)
=
(
q
m
(
1
)
k
n
(
1
)
+
q
m
(
2
)
k
n
(
2
)
)
c
o
s
(
(
m
−
n
)
θ
)
+
(
q
m
(
1
)
k
n
(
2
)
−
q
m
(
2
)
k
n
(
1
)
)
s
i
n
(
(
m
−
n
)
θ
)
=
(
q
m
(
1
)
k
n
(
1
)
+
q
m
(
2
)
k
n
(
2
)
)
c
o
s
(
(
m
−
n
)
θ
)
−
(
q
m
(
2
)
k
n
(
1
)
−
q
m
(
1
)
k
n
(
2
)
)
s
i
n
(
(
m
−
n
)
θ
)
=
g
(
x
m
,
x
n
,
,
m
−
n
)
⟨fq(xm,m),fk(xn,n)⟩=q(1)mk(1)n(cos(mθ)cos(nθ)+sin(mθ)sin(nθ))+q(1)mk(2)n(−cos(mθ)sin(nθ)+sin(mθ)cos(nθ))+q(2)mk(1)n(−sin(mθ)cos(nθ)+cos(mθ)sin(nθ))+q(2)mk(2)n(sin(mθ)sin(nθ)+cos(mθ)cos(nθ))=q(1)mk(1)ncos((m−n)θ)+q(1)mk(2)nsin((m−n)θ)−q(2)mk(1)nsin((m−n)θ)+q(2)mk(2)ncos((m−n)θ)=(q(1)mk(1)n+q(2)mk(2)n)cos((m−n)θ)+(q(1)mk(2)n−q(2)mk(1)n)sin((m−n)θ)=(q(1)mk(1)n+q(2)mk(2)n)cos((m−n)θ)−(q(2)mk(1)n−q(1)mk(2)n)sin((m−n)θ)=g(xm,xn,,m−n)
这就证明上述关系是成立的,位置m的query和位置n的key的内积就是函数g。
如上推理证明是假设词嵌入是二维向量,对于d>=2的情况,则是将词嵌入向量元素按照两两分组,每组应用同样的旋转操作且每组旋转角度计算方式如下:
θ j = 1000 0 − 2 ( j − 1 ) / d , j 取 [ 1 , 2 , . . . , d / 2 ] \theta_{j}=10000^{-2(j-1)/d},j取[1,2,...,d/2] θj=10000−2(j−1)/d,j取[1,2,...,d/2]
RoPE应用于Self-Attention操作的流程是:
整个选择变换的过程如下图所示
代码实现如下:
# 计算词向量元素两两分组以后,每组元素对应的旋转角度 def precompute_freqs_cis(dim: int, end: int, theta: float = 10000.0): """ Precompute the frequency tensor for complex exponentials (cis) with given dimensions. This function calculates a frequency tensor with complex exponentials using the given dimension 'dim' and the end index 'end'. The 'theta' parameter scales the frequencies. The returned tensor contains complex values in complex64 data type. Args: dim (int): Dimension of the frequency tensor. end (int): End index for precomputing frequencies. theta (float, optional): Scaling factor for frequency computation. Defaults to 10000.0. Returns: torch.Tensor: Precomputed frequency tensor with complex exponentials. """ # dim = 128 # end = 4096 # torch.arange(0, dim, 2) [0, 2, 4, 6, 8, 10,..., 124, 126] 共64个 # torch.arange(0, dim, 2)[: (dim // 2)] 保证是64个 # 计算了从0到dim-1间隔为2的整数序列(共dim//2个元素),然后将这些整数除以 dim 并取指数, # 再除以 theta 的幂,以此得到一个表示频率的序列 freqs freqs = 1.0 / (theta ** (torch.arange(0, dim, 2)[: (dim // 2)].float() / dim)) # freqs = [1/10000.0^(0/128), 1/10000.0^(2/128), 1/10000.0^(4/128), ..., 1/10000.0^(126/128)] # 创建一个从0到end-1的整数序列t t = torch.arange(end, device=freqs.device) # type: ignore # t = [0, 1, 2, ..., 4095] # 计算t与freqs的外积,生成一个形状为 (end, dim//2)的张量,其中每一行对应一个时间步下的频率。将结果转换为浮点类型。 freqs = torch.outer(t, freqs).float() # type: ignore # freqs 得到 freqs和t的笛卡尔积,维度为(4096,64) # freqs = [[0, 0, 0,..., 0], # [1/10000.0^(0/128), 1/10000.0^(2/128), 1/10000.0^(4/128), ..., 1/10000.0^(126/128)], # [2/10000.0^(0/128), 2/10000.0^(2/128), 2/10000.0^(4/128), ..., 2/10000.0^(126/128)], # ..., # [4095/10000.0^(0/128), 4095/10000.0^(2/128), 4095/10000.0^(4/128), ..., 4095/10000.0^(126/128)]] # 使用 torch.polar 函数将形状为 (end, dim//2) 的全1张量与 freqs 作为输入, # 生成形状相同的复数张量 freqs_cis。复数张量的模为1,幅角为 freqs 中的值。数据类型为 complex64 freqs_cis = torch.polar(torch.ones_like(freqs), freqs) # complex64 # freqs_cis的维度为(4096,64),相当于半径为1,角度为freqs的极坐标的复数表示 return freqs_cis # 重塑freqs_cis形状 def reshape_for_broadcast(freqs_cis: torch.Tensor, x: torch.Tensor): """ Reshape frequency tensor for broadcasting it with another tensor. This function reshapes the frequency tensor to have the same shape as the target tensor 'x' for the purpose of broadcasting the frequency tensor during element-wise operations. Args: freqs_cis (torch.Tensor): Frequency tensor to be reshaped. x (torch.Tensor): Target tensor for broadcasting compatibility. Returns: torch.Tensor: Reshaped frequency tensor. Raises: AssertionError: If the frequency tensor doesn't match the expected shape. AssertionError: If the target tensor 'x' doesn't have the expected number of dimensions. """ # freqs_cis.shape = [1024, 64] # x.shape = [2, 1024, 32, 64] # 获取x的维度数ndim # 并检查freqs_cis的形状是否与x的第二个维度(索引为1)和最后一个维度(索引为 ndim-1)相匹配 ndim = x.ndim # 断言条件 0 <= 1 < ndim,确保第二个维度(索引为1)存在且有效。此处断言意义不大,因为已知 ndim 至少为2,该条件始终成立 assert 0 <= 1 < ndim # 断言 freqs_cis.shape == (x.shape[1], x.shape[-1]), # 即 freqs_cis 的形状应与 x 的第二个维度(序列长度)和最后一个维度(词向量两两分组后的维度)相匹配 assert freqs_cis.shape == (x.shape[1], x.shape[-1]) # 将freqs_cis.shape变为[1, 1024, 1, 64] # 创建一个列表shape,其元素基于 x 的原始形状 # 对于x的每个维度,若索引为1(对应序列长度)或 ndim - 1(对应词向量两两分组后的维度),则保留原维度大小; # 否则,设置为1。 # 这样构造出的 shape 如注释所示,形如 [1, x.shape[1], 1, x.shape[-1]] shape = [d if i == 1 or i == ndim - 1 else 1 for i, d in enumerate(x.shape)] # 对 freqs_cis 进行重塑,使其形状符合 shape 中指定的格式 return freqs_cis.view(*shape) # 对给定的查询张量 xq 和关键张量 xk 应用旋转嵌入(Rotary Embeddings) def apply_rotary_emb( xq: torch.Tensor, xk: torch.Tensor, freqs_cis: torch.Tensor, ) -> Tuple[torch.Tensor, torch.Tensor]: """ Apply rotary embeddings to input tensors using the given frequency tensor. This function applies rotary embeddings to the given query 'xq' and key 'xk' tensors using the provided frequency tensor 'freqs_cis'. The input tensors are reshaped as complex numbers, and the frequency tensor is reshaped for broadcasting compatibility. The resulting tensors contain rotary embeddings and are returned as real tensors. Args: xq (torch.Tensor): Query tensor to apply rotary embeddings. xk (torch.Tensor): Key tensor to apply rotary embeddings. freqs_cis (torch.Tensor): Precomputed frequency tensor for complex exponentials. Returns: Tuple[torch.Tensor, torch.Tensor]: Tuple of modified query tensor and key tensor with rotary embeddings. """ # 将xq和xk的最后一个维度进行复数运算,得到新的xq和xk # 为了进行复数运算,需要将xq和xk的最后一个维度展开为2维 # 例如,xq的形状为[2, seq_len, 32, 128], reshape后为[2, seq_len, 32 , 64, 2] # view_as_complex函数可以将张量中的最后一维的两个元素作为实部和虚部合成一个复数 xq_ = torch.view_as_complex(xq.float().reshape(*xq.shape[:-1], -1, 2)) xk_ = torch.view_as_complex(xk.float().reshape(*xk.shape[:-1], -1, 2)) # 将freqs_cis广播到xq和xk的最后一个维度 freqs_cis = reshape_for_broadcast(freqs_cis, xq_) # freqs_cis.shape = [1, 1024, 1, 64] # view_as_real和view_as_complex相反,可以将张量中最后一维的复数拆出实部和虚部 # (xq_ * freqs_cis).shape = [2, seq_len, 32 , 64] # torch.view_as_real(xq_ * freqs_cis).shape = [2, seq_len, 32 , 64, 2] # flatten(3)将张量展平为[2, seq_len, 32 , 128],3代表从的第3个维度开始展平 xq_out = torch.view_as_real(xq_ * freqs_cis).flatten(3) xk_out = torch.view_as_real(xk_ * freqs_cis).flatten(3) return xq_out.type_as(xq), xk_out.type_as(xk)
这部分简言之就是Transform经典的Multi-headed Self-attention,然后融合了一些模型并行机制(这个在后面梳理)。此外为了加速模型训练和推理过程,还用到了KV Cache和GQA。
大模型推理性能优化的一个常用技术是KV Cache,那么什么是KV Cache呢?
举个例子,假设有这样一个生成任务:
In [1]: {prompt:"岱宗夫如何?齐鲁青未了。造化钟神秀,阴阳割昏晓。"}
Out [1]: 岱宗夫如何?齐
In [2]: 岱宗夫如何?齐
Out [2]: 岱宗夫如何?齐鲁
In [3]: 岱宗夫如何?齐鲁
Out [3]: 岱宗夫如何?齐鲁青
In [4]: 岱宗夫如何?齐鲁青
Out [4]: 岱宗夫如何?齐鲁青未
In [5]: 岱宗夫如何?齐鲁青未
Out [5]: 岱宗夫如何?齐鲁青未了
而第四次的处理过程是用"岱宗夫如何?齐鲁青" 来预测下一个"未"字,所以需要把"岱宗夫如何?齐鲁青"进行token化后再进行Attention计算,即 S o f t m a x ( Q ∗ K T ) ∗ V Softmax(Q*K^T)*V Softmax(Q∗KT)∗V,如下图所示。
不难发现在第三次处理的时候,就已经把"岱宗夫如何?齐鲁"所对应的Q,K,V向量进行了运算,所以没必要再对他们进行Attention计算,这样就能节省大部分算力,由此KV Cache便是来解决这个问题的:通过将每次计算的K和V缓存下来,之后新的序列进来时只需要从KV Cache中读取之前的KV值即可,就不需要再去重复计算之前的KV了。此外,对于Q也不用将序列对应的所有 Q i Q_i Qi都计算出来,只需要计算最新的 Q n e w t o k e n Q_{newtoken} Qnewtoken,(即此时句子长度为1), K V同理,所以我们用简易代码描述一下这个过程就是:
def mha(x, c_attn, c_proj, n_head, kvcache=None): # [n_seq, n_embd] -> [n_seq, n_embd]
# qkv projection
# when we pass kvcache, n_seq = 1. so we will compute new_q, new_k and new_v
x = linear(x, **c_attn) # [n_seq, n_embd] -> [n_seq, 3*n_embd]
# split into qkv
qkv = np.split(x, 3, axis=-1) # [n_seq, 3*n_embd] -> [3, n_seq, n_embd]
if kvcache:
# qkv
new_q, new_k, new_v = qkv # new_q, new_k, new_v = [1, n_embd]
old_k, old_v = kvcache
k = np.vstack([old_k, new_k]) # k = [n_seq, n_embd], where n_seq = prev_n_seq + 1
v = np.vstack([old_v, new_v]) # v = [n_seq, n_embd], where n_seq = prev_n_seq + 1
qkv = [new_q, k, v]
那么为什么不用缓存Q呢?我理解的这是一种单向注意力机制,只管每次进来的token和past tokens的注意力,而past tokens不会管后面token的注意力,所以不需要 Q p a s t t o k e n s Q_{past_tokens} Qpasttokens,也就不需要缓存Q。
但是,如上面所述,K、V真的能缓存了吗?
以llama7B模型为例,hidden_size为4096,也就是每个K、V有4096个数据,假设半精度浮点数数据float16,一个Transformer Block中就有409622=16KB的单序列KV缓存空间,而llama2一共32个Transformer Block,所以单序列整个模型需要16*32=512KB的缓存空间,那多序列呢?如果此时句子长度为1024,那就得512MB的缓存空间了。而现在英伟达最好的卡H100的SRAM缓存大概是50MB,A100则是40MB. 7B模型都这样,175B模型就更不用说了。
既然SRAM放不下,我们放到DRAM(GPU显存)行不行呢?答案是可以,但要牺牲性能。我们知道全局内存(GPU)的读写速度要要远低于共享内存和寄存器,由此便会导致一个问题: Memory Wall(内存墙)。所谓内存墙简单点说就是你处理器ALU太快,但是你内存读写速度太慢跟不上,这就会导致ALU算晚之后在那等着你数据搬运过来,进而影响性能。
那么该如何解决呢?
硬件层面:可以使用HBM(High Bandwidth Memory,高速带宽内存)提高读取速度,或者抛弃冯诺依曼架构,改变计算单元从内存读数据的方式,不再以计算单元为中心,而以存储为中心,做成计算和存储一体的“存内计算”,比如"忆阻器"。
软件层面:就是优化算法,由此便引入了llama2所使用的GQA (Group Query Attention)。
如下图所示。多头注意力机制MHA就是多个头各自拥有自己的Q,K,V来计算各自的self-attention。而MQA(Multi Query Attention)就是Q依然保持多头,但是K,V只有一个,所有多头的Q共享一个K,V ,这样做虽然能最大程度减少KV Cache所需的缓存空间,但是可想而知参数的减少意味着精度的下降,所以为了在精度和计算之间做一个trade-off,GQA (Group Query Attention)应运而生,即Q依然是多头,但是分组共享K,V,既减少了K,V缓存所需的缓存空间,也暴露了大部分参数不至于精度损失严重。
代码实现如下。
''' 将key和value的head维度重复n_rep次,以匹配query的head数 ''' def repeat_kv(x: torch.Tensor, n_rep: int) -> torch.Tensor: """torch.repeat_interleave(x, dim=2, repeats=n_rep)""" bs, slen, n_kv_heads, head_dim = x.shape if n_rep == 1: return x return ( x[:, :, :, None, :] # 将输入张量在第四个维度上扩展 n_rep 次 .expand(bs, slen, n_kv_heads, n_rep, head_dim) # 调整为适当的形状 .reshape(bs, slen, n_kv_heads * n_rep, head_dim) ) class Attention(nn.Module): """Multi-head attention module.""" def __init__(self, args: ModelArgs): """ Initialize the Attention module. Args: args (ModelArgs): Model configuration parameters. Attributes: n_kv_heads (int): Number of key and value heads. n_local_heads (int): Number of local query heads. n_local_kv_heads (int): Number of local key and value heads. n_rep (int): Number of repetitions for local heads. head_dim (int): Dimension size of each attention head. wq (ColumnParallelLinear): Linear transformation for queries. wk (ColumnParallelLinear): Linear transformation for keys. wv (ColumnParallelLinear): Linear transformation for values. wo (RowParallelLinear): Linear transformation for output. cache_k (torch.Tensor): Cached keys for attention. cache_v (torch.Tensor): Cached values for attention. """ # ColumnParallelLinear是一个在大规模并行训练中使用的术语,特别是在训练大型的深度学习模型, # 如Transformer模型时。在模型并行训练中,一个大型的矩阵(例如神经网络的权重矩阵)会被分割成不同的列, # 并分散到不同的计算设备(如GPU)上。 # # 在ColumnParallelLinear的情况下,每个计算设备存储权重矩阵的一部分列,而不是整个矩阵。 # 每个设备计算它自己的前向传播部分,并将结果发送给其他设备以进行进一步的处理或合并结果。 # 对于反向传播和梯度计算,每个设备计算其自己列的梯度,并可能需要与其他设备交换信息以更新权重。 # # 这种方式可以显著减少每个设备上的内存需求,并允许训练更大的模型,因为模型的不同部分可以分布在多个设备上。 # ColumnParallelLinear和RowParallelLinear(另一种将权重矩阵按行划分的方法)是实现模型并行的两种常见策略。 super().__init__() self.n_kv_heads = args.n_heads if args.n_kv_heads is None else args.n_kv_heads model_parallel_size = fs_init.get_model_parallel_world_size() #Q的头数 self.n_local_heads = args.n_heads // model_parallel_size #KV的头数 self.n_local_kv_heads = self.n_kv_heads // model_parallel_size self.n_rep = self.n_local_heads // self.n_local_kv_heads self.head_dim = args.dim // args.n_heads # Q的头数* head_dim self.wq = ColumnParallelLinear(args.dim,args.n_heads * self.head_dim,bias=False,gather_output=False, init_method=lambda x: x,) # K的头数* head_dim self.wk = ColumnParallelLinear(args.dim,self.n_kv_heads * self.head_dim,bias=False, gather_output=False, init_method=lambda x: x,) # V的头数* head_dim self.wv = ColumnParallelLinear(args.dim,self.n_kv_heads * self.head_dim,bias=False,gather_output=False,init_method=lambda x: x,) self.wo = RowParallelLinear(args.n_heads * self.head_dim,args.dim,bias=False,input_is_parallel=True,init_method=lambda x: x,) # kv_cache是缓存键值对,在训练过程中,我们只保存最近n个键值对 self.cache_k = torch.zeros((args.max_batch_size,args.max_seq_len,self.n_local_kv_heads,self.head_dim,)).cuda() self.cache_v = torch.zeros((args.max_batch_size,args.max_seq_len,self.n_local_kv_heads,self.head_dim,)).cuda() def forward( self, x: torch.Tensor, start_pos: int, freqs_cis: torch.Tensor, mask: Optional[torch.Tensor], ): """ Forward pass of the attention module. Args: x (torch.Tensor): Input tensor. start_pos (int): Starting position for caching. freqs_cis (torch.Tensor): Precomputed frequency tensor. mask (torch.Tensor, optional): Attention mask tensor. Returns: torch.Tensor: Output tensor after attention. """ # 假设当前x为(1, 1, dim),也就是上一个预测的token # self-attention的输入,标准的(bs, seqlen, hidden_dim) bsz, seqlen, _ = x.shape # 计算当前token的qkv # q k v分别进行映射,注意这里key, value也需要先由输入进行映射再和kv_cache里面的key, value进行拼接 xq, xk, xv = self.wq(x), self.wk(x), self.wv(x) xq = xq.view(bsz, seqlen, self.n_local_heads, self.head_dim) xk = xk.view(bsz, seqlen, self.n_local_kv_heads, self.head_dim) xv = xv.view(bsz, seqlen, self.n_local_kv_heads, self.head_dim) # 对当前输入的query和key进行RoPE,注意kv_cache里面的key已经做过了RoPE xq, xk = apply_rotary_emb(xq, xk, freqs_cis=freqs_cis) # 缓存当前token的kv self.cache_k = self.cache_k.to(xq) self.cache_v = self.cache_v.to(xq) self.cache_k[:bsz, start_pos: start_pos + seqlen] = xk self.cache_v[:bsz, start_pos: start_pos + seqlen] = xv # 取出前seqlen个token的kv缓存 # 取出全部缓存的key和value(包括之前在cache里面的和本次输入的),作为最终的key和value keys = self.cache_k[:bsz, : start_pos + seqlen] values = self.cache_v[:bsz, : start_pos + seqlen] # 将kv重复填充,使kv和q的头数个数相同 # repeat k/v heads if n_kv_heads < n_heads,对齐头的数量 # 读取新进来的token所计算得到的k和v keys = repeat_kv(keys, self.n_rep) # (bs, cache_len + seqlen, n_local_heads, head_dim) values = repeat_kv(values, self.n_rep) # (bs, cache_len + seqlen, n_local_heads, head_dim) # 计算当前token的attention score,,注意mask需要加上,另外维度要对应上 xq = xq.transpose(1, 2) # (bs, n_local_heads, seqlen, head_dim) keys = keys.transpose(1, 2) # (bs, n_local_heads, cache_len + seqlen, head_dim) values = values.transpose(1, 2) # (bs, n_local_heads, cache_len + seqlen, head_dim) #计算q*k scores = torch.matmul(xq, keys.transpose(2, 3)) / math.sqrt(self.head_dim) if mask is not None: #加入mask,使得前面的token在于后面的token计算attention时得分为0,mask掉 scores = scores + mask # (bs, n_local_heads, seqlen, cache_len + seqlen) scores = F.softmax(scores.float(), dim=-1).type_as(xq) output = torch.matmul(scores, values) # (bs, n_local_heads, seqlen, head_dim) output = output.transpose(1, 2).contiguous().view(bsz, seqlen, -1) return self.wo(output)
参数之间关系理解
n_heads是注意力头的总个数,由于并行机制,每个进程会有n_local_heads个注意力头。由于计算当前位置的Attention Score依赖于之前所有的kv,因此需要将kv缓存下来。为了减少空间复杂度,可以对kv的头个数n_kv_heads进行调整,这个值一般小于等于n_heads,n_heads是n_kv_heads的整数倍,这个倍数也就是n_rep。相应的,每个进程会有n_local_kv_heads个注意力头。每个头的维度为head_dim=dim//n_heads。
例如:n_heads=32,model_parallel_size(并行数量)= 4,n_kv_heads = 8,n_local_heads = 32/4, n_local_kv_heads = 8/4,n_rep = 32/8。
与标准的Transformer一样,经过Attention层之后就进行FeedForward层的处理llama2采用的是SwiGLU(SiLU)激活函数。
S i L U ( x ) = x ∗ S i g m o i d ( x ) = x 1 + e − x SiLU(x)=x*Sigmoid(x)=\frac{x}{1+e^{-x}} SiLU(x)=x∗Sigmoid(x)=1+e−xx
class FeedForward(nn.Module): def __init__( self, dim: int, hidden_dim: int, multiple_of: int, ffn_dim_multiplier: Optional[float], ): super().__init__() hidden_dim = int(2 * hidden_dim / 3) # custom dim factor multiplier if ffn_dim_multiplier is not None: hidden_dim = int(ffn_dim_multiplier * hidden_dim) hidden_dim = multiple_of * ((hidden_dim + multiple_of - 1) // multiple_of) # Linear 1 self.w1 = ColumnParallelLinear(...) # Linear 2 self.w2 = RowParallelLinear(...) # Linear 3 self.w3 = ColumnParallelLinear(...) def forward(self, x): return self.w2(F.silu(self.w1(x)) * self.w3(x))
前面是将llama2 Transformer Block中的每一个小组件分别梳理了一下,接下来将他们按照一定的顺序和位置拼接即可组成llama2网络结构中的一层Transformer,也称Decoder Layer。
代码实现如下:
class TransformerBlock(nn.Module): def __init__(self, layer_id: int, args: ModelArgs): """ Initialize a TransformerBlock. Args: layer_id (int): Identifier for the layer. args (ModelArgs): Model configuration parameters. Attributes: n_heads (int): Number of attention heads. dim (int): Dimension size of the model. head_dim (int): Dimension size of each attention head. attention (Attention): Attention module. feed_forward (FeedForward): FeedForward module. layer_id (int): Identifier for the layer. attention_norm (RMSNorm): Layer normalization for attention output. ffn_norm (RMSNorm): Layer normalization for feedforward output. """ super().__init__() self.n_heads = args.n_heads self.dim = args.dim self.head_dim = args.dim // args.n_heads self.attention = Attention(args) self.feed_forward = FeedForward( dim=args.dim, hidden_dim=4 * args.dim, multiple_of=args.multiple_of, ffn_dim_multiplier=args.ffn_dim_multiplier, ) self.layer_id = layer_id self.attention_norm = RMSNorm(args.dim, eps=args.norm_eps) self.ffn_norm = RMSNorm(args.dim, eps=args.norm_eps) def forward( self, x: torch.Tensor, start_pos: int, freqs_cis: torch.Tensor, mask: Optional[torch.Tensor], ): """ Perform a forward pass through the TransformerBlock. Args: x (torch.Tensor): Input tensor. start_pos (int): Starting position for attention caching. freqs_cis (torch.Tensor): Precomputed cosine and sine frequencies. mask (torch.Tensor, optional): Masking tensor for attention. Defaults to None. Returns: torch.Tensor: Output tensor after applying attention and feedforward layers. """ h = x + self.attention.forward( self.attention_norm(x), start_pos, freqs_cis, mask ) out = h + self.feed_forward.forward(self.ffn_norm(h)) return out
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。