赞
踩
(1)背景及本质
大模型的参数更新耗费大量现存为此, 微软的研究者们于2021年通过论文《LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS》提出了低秩适应LoRA
We propose Low-Rank Adaptation, or LoRA, which freezes the pre-trained model weights and injects trainable rank decomposition matrices into each layer of the Transformer architecture, greatly reducing the number of trainable parameters for downstream tasks.
与使用 Adam 微调的 GPT-3 175B 相比,LoRA 可以将可训练参数数量减少 10,000 倍,GPU 内存需求减少 3 倍
Compared to GPT-3 175B fine-tuned with Adam, LoRA can reduce the number of trainable parameters by 10,000 times and the GPU memory requirement by 3 times.
(2)大致操作总览
1 正向推理 的所有参数 结果
2 反向梯度的所有结果
3 反向梯度更新的计算, sGD不带状态的会相对省内存,但是adam 就会记录过往若干梯度参数。
训练:
图 W0+Lora层结果
lora=w1 正态分布+w2 全0
推理:lora层需要merge会W0,即w1*w2+w0即可。
(3)实际操作
微软DeepSpeed-Chat中对LoRA微调的实现
代码中体现
F.linear(input, self.weight, self.bias) + (self.lora\_dropout(input)
@ self.lora\_right\_weight @ self.lora\_left\_weight) \* self.lora\_scaling
加号左侧为原结构支路,加号右侧为新增支路,self.lora_right_weight 和_self.lora_left_weight_ 分别为两个新引入线性层的参数.
Huggingface上PEFT库对LoRA
(4)另外应用
lora层可针对某一层参数,可插拔
对stable diffusion 也可用。
QLoRA于23年5月份通过此篇论文《QLORA: Efficient Finetuning of Quantized LLMs》被提出,本质是对LoRA的改进,相比LoRA进一步降低显存消耗。
所有这些对比Lora,进一步降低了显存消耗。
下图总结了不同的微调方法及其内存需求,其中的QLoRA通过将模型量化到4位精度并使用分页优化器管理内存峰值来改进LoRA.
原理:将浮点数值转化为定点数值,同时尽可能减少计算精度损失的方法。
这样就减小了模型, 在计算时,最后再将定点数据反量化为浮点数据得到最终的结果。
综合而言,我们可以对模型参数(weight)、激活值(activation)或者梯度(gradient)做量化。通常而言,模型的参数分布较为稳定,因此对参数 weight 做量化较为容易(比如,QLoRA便是对weight做量化)
至于模型的激活值往往存在异常值,直接对其做量化,会降低有效的量化格点数,导致精度损失严重,因此,激活值的量化需要更复杂的处理方法(如SmoothQuant)
在学习P-tuning之前,需要先了解下prefix-tuning。
它指的是在微调模型的过程中只优化加入的一小段可学习的向量(virtual tokens)作为Prefix,而不需要优化整个模型的 参数(训练的时候只更新Prefix部分的参数,而PLM中的其他部分参数固定)。原理如图。
对于不同的任务和模型结构需要不同的prefix, 微调时只更新prefix。
1)在autoregressive LM 前添加prefix:
2)在encoder和decoder之前添加prefixs:
Encoder端增加前缀是为了引导输入部分的编码,Decoder 端增加前缀是为了引导后续token的生成。
hard prompt等同于discrete prompt;
离散prompt是一个实际的文本字符串(自然语言,人工可读),通常由中文或英文词汇组成;
soft prompt等同于continuous prompt。
连续prompt通常是在向量空间优化出来的提示,通过梯度搜索之类的方式进行优化。
所以离散的prompts中,提示语的变化对模型最终的性能特别敏感,加一个词、少一个词或者变动位置都会造成比较大的变化。成本比较高,并且效果不太好。
显然,Prefix Tuning属于Soft prompt。
def generate\_prompt(instruction, input):
if len(input) > 0:
return f"Below is an instruction that describes a task,
paired with an input that provides further context.
Write a response that appropriately completes the request.
\\n\\n### Instruction:\\n{instruction}\\n\\n### Input:\\n{input}\\n\\n### Response:\\n"
else:
return f"Below is an instruction that describes a task.
Write a response that appropriately completes the request.
\\n\\n### Instruction:\\n{instruction}\\n\\n### Response:\\n"
论文:The Power of Scale for Parameter-Efficient Prompt Tuning
论文地址:https://arxiv.org/pdf/2104.08691.pdf
该方法可以看做是Prefix Tuning的简化版本,它给每个任务都定义了自己的Prompt,拼接到数据上作为输出,但只在输入层加入prompt tokens。
举一个例子:
论文:GPT Understands, Too 论文地址:https://arxiv.org/abs/2103.10385
该方法的核心是使用可微的virtual token替换了原来的discrete tokens,
再使用prompt encoder(BiLSTM+MLP)对virtual token进行编码学习。
缺点:
之前的Prompt Tuning和P-Tuning等方法存在两个主要的问题: 第一,缺乏模型参数规模和任务通用性。 缺乏规模通用性:Prompt Tuning论文中表明当模型规模超过100亿个参数时,提示优化可以与全量微调相媲美。但是对于那些较小的模型(从100M到1B),提示优化 和全量微调的表现有很大差异,这大大限制了提示优化的适用性。 缺乏任务普遍性:尽管Prompt Tuning和P-tuning在一些 NLU 基准测试中表现出优势,但提示调优对硬序列标记任务(即序列标注)的有效性尚未得到验证。 第二,缺少深度提示优化,在Prompt Tuning和P-tuning中,连续提示只被插入transformer第一层的输入embedding序列中,在接下来的transformer层中,插入连续提示的 位置的embedding是由之前的transformer层计算出来的,这可能导致两个可能的优化挑战。 由于序列长度的限制,可调参数的数量是有限的。 输入embedding对模型预测只有相对间接的影响。
P1 问题在P-tuning v2得到了改进。
论文:P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks 论文地址:https://arxiv.org/abs/2110.07602
P-Tuning v2主要是基于P-tuning和prefix-tuning技术,引入Deep Prompt Encoding和Multi-task Learning等策略进行优化的
![](https://img-blog.csdnimg.cn/img_convert/a8f638e58e18ce8c38de8db6f1177578.png)
deep Prompt Encoding
P-Tuning v2在每一层都加入了Prompts tokens作为输入,而不是仅仅加在输入层,这带来两个方面的好处: 更多可学习的参数(从P-tuning和Prompt Tuning的0.01%增加到0.1%-3%),同时也足够参数高效。 加入到更深层结构中的Prompt能给模型预测带来更直接的影响。
Multi-task learning
基于多任务数据集的Prompt进行预训练,然后再适配到下游任务。对于pseudo token的continous prompt,随机初始化比较难以优化,因此采用multi-task方法同时训 练多个数据集,共享continuous prompts去进行多任务预训练,可以让prompt有比较好的初始化。
总结:
P-Tuning v2是一种在不同规模和任务中都可与微调相媲美的提示方法。P-Tuning v2对从330M到10B的模型显示出一致的改进,并在序列标注等困难的序列任务上以很大的 幅度超过了Prompt Tuning和P-Tuning。
Freeze是冻结的意思,Freeze方法指的是参数冻结,对原始模型的大部分参数进行冻结,仅训练少部分的参数,这样就可以大大减少显存的占用,从而完成对大模型的微 调。 这是一种比较简单微调方法,由于冻结的参数是大部分,微调的参数是少部分,因此在代码中只需要设置需要微调的层的参数即可,核心部分如下:
for name, param in model.named\_parameters():
# 说明准备调整列表中的层,不在列表中的都被冻结。
if not any(nd in name for nd in \["layers.27", "layers.26", "layers.25", "layers.24", "layers.23"\]):
param.requires\_grad = False
缺点只微调接近下游任务的那几层参数,又难以达到较好的效果。
-----------------------对于NPU
微调后的模型 在SDK的使用
各个厂商的差异化场景落地势必会基于大模型的微调,
微调后的模型可能产生zhouyi 的sdk 不适配情况。
总结了主流的微调方法。以及后续会对sdk适配这些微调模型进行验证。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。