当前位置:   article > 正文

PEFT LoRA 介绍(LoRA微调使用的参数及方法)_peft lora核心代码讲解

peft lora核心代码讲解

一 PEFT LoRA 介绍

官网简介如下图:

翻译过来是:低秩自适应(LoRA)是一种PEFT方法,它将一个大矩阵在注意层分解成两个较小的低秩矩阵。这大大减少了需要微调的参数数量。

说的只是针对注意力层,其实我自己平时微调操作注意力层+多层感知机层,感觉所有层都可以微调。在阿里的千问开源的模型文档上也看到微调的并不只有注意力层,不知道微调加入其它层效果会不会更好?

二  PEFT LoRA 参数

 1 PEFT LoRA 参数

    PEFT LoRA 所有的参数说明如下:

  1. r (int)
  2. # Lora 注意力维度(“秩”)。
  3. target_modules (Optional[Union[List[str], str]])
  4. # 要应用适配器的模块名称。
  5. # 如果指定了此参数,则仅替换具有指定名称的模块。
  6. # 传递字符串时,将执行正则表达式匹配。
  7. # 传递字符串列表时,将执行精确匹配或检查模块名称是否以任何传递的字符串结尾。
  8. # 如果指定为‘all-linear’,则选择所有线性/Conv1D模块,不包括输出层。
  9. # 如果未指定,则根据模型架构选择模块。
  10. # 如果架构未知,则会引发错误——在这种情况下,应手动指定目标模块。
  11. lora_alpha (int)
  12. # Lora 缩放的 alpha 参数。
  13. lora_dropout (float)
  14. # Lora 层的 dropout 概率。
  15. fan_in_fan_out (bool)
  16. # 如果要替换的层存储权重格式为 (fan_in, fan_out),则设置为 True。
  17. # 例如,gpt-2 使用的 Conv1D 存储权重格式为 (fan_in, fan_out),因此应设置为 True。
  18. bias (str)
  19. # LoRA 的偏置类型。可以是 ‘none’,‘all’ 或 ‘lora_only’。
  20. # 如果是 ‘all’ 或 ‘lora_only’,则相应的偏置将在训练期间更新。
  21. # 请注意,这意味着即使禁用适配器,模型也不会生成与未适配的基础模型相同的输出。
  22. use_rslora (bool)
  23. # 设置为 True 时,使用 Rank-Stabilized LoRA,将适配器缩放因子设置为 lora_alpha/数学.sqrt(r)。
  24. # 因为这被证明效果更好。否则,将使用 lora_alpha/r 的原始默认值。
  25. modules_to_save (List[str])
  26. # 除适配器层外要设置为可训练并在最终检查点中保存的模块列表。
  27. init_lora_weights (bool | Literal["gaussian", "olora", "pissa", "pissa_niter_[number of iters]", "loftq"])
  28. # 如何初始化适配器层的权重。
  29. # 传递 True(默认值)会使用微软参考实现中的默认初始化。
  30. # 传递 ‘gaussian’ 会使用按 LoRA 秩缩放的高斯初始化。
  31. # 设置初始化为 False 会导致完全随机初始化,不推荐使用。
  32. # 传递 ‘loftq’ 使用 LoftQ 初始化。传递 ‘olora’ 使用 OLoRA 初始化。
  33. # 传递 ‘pissa’ 使用主奇异值和奇异向量适应(PiSSA)初始化,比 LoRA 收敛更快,最终性能更佳。
  34. # ‘pissa_niter_[number of iters]’ 使用基于快速 SVD 的 PiSSA 初始化,[number of iters] 表示执行 FSVD 的子空间迭代次数,必须是非负整数。
  35. # 当设置为 16 时,可以在几秒内完成 7B 模型的初始化,训练效果大致相当于使用 SVD。
  36. layers_to_transform (Union[List[int], int])
  37. # 要转换的层索引。
  38. # 如果传递了整数列表,则会对列表中指定的层索引应用适配器。
  39. # 如果传递单个整数,则会对该索引处的层应用转换。
  40. layers_pattern (str)
  41. # 层模式名称,仅在 layers_to_transform 不为 None 时使用。
  42. rank_pattern (dict)
  43. # 层名称或正则表达式到与默认 r 指定的秩不同的秩的映射。
  44. alpha_pattern (dict)
  45. # 层名称或正则表达式到与 lora_alpha 指定的默认 alpha 不同的 alpha 的映射。
  46. megatron_config (Optional[dict])
  47. # Megatron 的 TransformerConfig 参数,用于创建 LoRA 的并行线性层。
  48. # 可以这样获取:core_transformer_config_from_args(get_args()),这两个函数来自 Megatron。
  49. # 这些参数将用于初始化 Megatron 的 TransformerConfig。
  50. # 当要将 LoRA 应用于 megatron 的 ColumnParallelLinear 和 RowParallelLinear 层时,需要指定此参数。
  51. megatron_core (Optional[str])
  52. # 要使用的 Megatron 核心模块,默认为 "megatron.core"。
  53. loftq_config (Optional[LoftQConfig])
  54. # LoftQ 的配置。
  55. # 如果不为 None,则使用 LoftQ 量化骨干权重并初始化 Lora 层,同时传递 init_lora_weights='loftq'。
  56. # 请注意,在这种情况下,不应传递量化模型,因为 LoftQ 会自行量化模型。
  57. use_dora (bool)
  58. # 启用 “权重分解低秩适应”(DoRA)。
  59. # 此技术将权重更新分解为两个部分:幅度和方向。
  60. # 方向由普通 LoRA 处理,幅度由单独的可学习参数处理。
  61. # 这可以在低秩下提高 LoRA 的性能。
  62. # 目前,DoRA 仅支持线性和 Conv2D 层。DoRA 比纯 LoRA 引入更大的开销,因此建议在推理时合并权重。
  63. # 更多信息,请参见 https://arxiv.org/abs/2402.09353。
  64. layer_replication (List[Tuple[int, int]])
  65. # 通过根据指定的范围堆叠原始模型层来构建新的层堆栈。
  66. # 这允许在不复制基础模型权重的情况下扩展(或缩小)模型。
  67. # 新层将全部附有单独的 LoRA 适配器。
  68. runtime_config (LoraRuntimeConfig)
  69. # 运行时配置(不保存或恢复)。

2 参数使用示例

    在一个基础模型上创建一个低秩的模型(要微调的模型):

  1. from transformers import AutoModelForSeq2SeqLM
  2. from peft import LoraModel, LoraConfig
  3. # 设置 LoRA 配置
  4. config = LoraConfig(
  5. task_type="SEQ_2_SEQ_LM", # 任务类型为序列到序列语言模型
  6. r=8, # LoRA 的秩
  7. lora_alpha=32, # LoRA 的缩放因子
  8. target_modules=["q", "v"], # 目标模块列表
  9. lora_dropout=0.01, # LoRA 层的 dropout 概率
  10. )
  11. # 加载预训练的 T5 基础模型
  12. model = AutoModelForSeq2SeqLM.from_pretrained("t5-base")
  13. # 创建 LoRA 模型
  14. lora_model = LoraModel(model, config, "default")

  配置低秩模型参数

  1. import torch
  2. import transformers
  3. from peft import LoraConfig, PeftModel, get_peft_model, prepare_model_for_kbit_training
  4. # 设置 LoRA 参数
  5. rank = ...
  6. target_modules = ["q_proj", "k_proj", "v_proj", "out_proj", "fc_in", "fc_out", "wte"]
  7. config = LoraConfig(
  8. r=4, # LoRA 的秩
  9. lora_alpha=16, # LoRA 的缩放因子
  10. target_modules=target_modules, # 目标模块列表
  11. lora_dropout=0.1, # LoRA 层的 dropout 概率
  12. bias="none", # 无偏置
  13. task_type="CAUSAL_LM" # 任务类型为因果语言模型
  14. )
  15. # 设置量化配置
  16. quantization_config = transformers.BitsAndBytesConfig(load_in_8bit=True)
  17. # 加载分词器
  18. tokenizer = transformers.AutoTokenizer.from_pretrained(
  19. "kakaobrain/kogpt",
  20. revision="KoGPT6B-ryan1.5b-float16", # 或者使用 float32 版本:revision=KoGPT6B-ryan1.5b
  21. bos_token="[BOS]", # 句子开头标记
  22. eos_token="[EOS]", # 句子结束标记
  23. unk_token="[UNK]", # 未知标记
  24. pad_token="[PAD]", # 填充标记
  25. mask_token="[MASK]" # 掩码标记
  26. )
  27. # 加载预训练的 GPT-J 模型
  28. model = transformers.GPTJForCausalLM.from_pretrained(
  29. "kakaobrain/kogpt",
  30. revision="KoGPT6B-ryan1.5b-float16", # 或者使用 float32 版本:revision=KoGPT6B-ryan1.5b
  31. pad_token_id=tokenizer.eos_token_id, # 填充标记的 ID
  32. use_cache=False, # 不使用缓存
  33. device_map={"": rank}, # 设备映射
  34. torch_dtype=torch.float16, # 使用 float16 类型
  35. quantization_config=quantization_config # 量化配置
  36. )
  37. # 准备模型进行 k-bit 训练
  38. model = prepare_model_for_kbit_training(model)
  39. # 获取 LoRA 模型
  40. lora_model = get_peft_model(model, config)

为什么要创建低秩模型,不解释直接引用论文的一部分说明如下:

        自然语言处理的一个重要范例是对一般领域数据进行大规模预训练,并适应特定的任务或领域。当我们预训练更大的模型时,重新训练所有模型参数的完全微调变得不太可行。以GPT-3 175B为例,部署独立的微调模型实例,每个实例都有175B参数,成本非常高。我们提出了低秩自适应(Low-Rank Adaptation, LoRA),它冻结了预训练的模型权重,并将可训练的秩分解矩阵注入到Transformer体系结构的每一层,从而大大减少了下游任务的可训练参数的数量。与经过Adam微调的GPT-3 175B相比,LoRA可以将可训练参数的数量减少10,000倍,GPU内存需求减少3倍。在RoBERTa、DeBERTa、GPT-2和GPT-3上,LoRA在模型质量方面的表现与微调相当或更好,尽管具有更少的可训练参数、更高的训练吞吐量,并且与适配器不同,没有额外的推理延迟。我们还对语言模型适应中的等级缺陷进行了实证研究,从而揭示了LoRA的有效性。我们发布了一个促进LoRA与PyTorch模型集成的包,并在此https URL上为RoBERTa、DeBERTa和GPT-2提供了我们的实现和模型检查点。

3 model低秩模型的方法

  1 add_weighted_adapter 

  add_weighted_adapter 增加适配器

   该方法的代码原形及参数说明 如下:

  1. def add_weighted_adapter(
  2. self,
  3. adapters: list[str],
  4. weights: list[float],
  5. adapter_name: str,
  6. combination_type: str = "svd",
  7. svd_rank: int | None = None,
  8. svd_clamp: int | None = None,
  9. svd_full_matrices: bool = True,
  10. svd_driver: str | None = None,
  11. density: float | None = None,
  12. majority_sign_method: Literal["total", "frequency"] = "total",
  13. ) -> None:
  14. """
  15. 该方法通过合并给定的适配器及其权重来添加新的适配器。
  16. 使用 `cat` 合并类型时,应注意生成适配器的秩将等于所有适配器秩的总和。因此,混合适配器可能会变得过大,从而导致 OOM 错误。
  17. 参数:
  18. adapters (`list`):
  19. 要合并的适配器名称列表。
  20. weights (`list`):
  21. 每个适配器的权重列表。
  22. adapter_name (`str`):
  23. 新适配器的名称。
  24. combination_type (`str`):
  25. 合并类型,可以是 [`svd`, `linear`, `cat`, `ties`, `ties_svd`, `dare_ties`, `dare_linear`,
  26. `dare_ties_svd`, `dare_linear_svd`, `magnitude_prune`, `magnitude_prune_svd`] 中的一个。
  27. 使用 `cat` 合并类型时,生成适配器的秩等于所有适配器秩的总和(混合适配器可能会变得过大,导致 OOM 错误)。
  28. svd_rank (`int`, *可选*):
  29. SVD 输出适配器的秩。如果未提供,将使用合并适配器的最大秩。
  30. svd_clamp (`float`, *可选*):
  31. 用于限制 SVD 分解输出的量化阈值。如果未提供,则不执行限制。默认为 None。
  32. svd_full_matrices (`bool`, *可选*):
  33. 控制是计算完整 SVD 还是简化 SVD,从而影响返回的张量 U 和 Vh 的形状。默认为 True。
  34. svd_driver (`str`, *可选*):
  35. 要使用的 cuSOLVER 方法名称。此关键字参数仅在 CUDA 上合并时有效。
  36. 可以是 [None, `gesvd`, `gesvdj`, `gesvda`] 中的一个。更多信息请参阅 `torch.linalg.svd` 文档。默认为 None。
  37. density (`float`, *可选*):
  38. 取值范围在 0 到 1 之间。0 表示所有值都被剪除,1 表示没有值被剪除。
  39. 应与 [`ties`, `ties_svd`, `dare_ties`, `dare_linear`, `dare_ties_svd`, `dare_linear_svd`,
  40. `magnitude_prune`, `magnitude_prune_svd`] 一起使用。
  41. majority_sign_method (`str`):
  42. 获取符号值幅度的方法,应为 ["total", "frequency"] 中的一个。
  43. 应与 [`ties`, `ties_svd`, `dare_ties`, `dare_ties_svd`] 一起使用。
  44. """

2 delete_adapter

  delete_adapter 删除适配器

 访方法代码原形如下:

  1. def delete_adapter(self, adapter_name: str) -> None:
  2.         """
  3.         Deletes an existing adapter.
  4.         Args:
  5.             adapter_name (str): Name of the adapter to be deleted.
  6.         """
3 disable_adapter_layers

 disable_adapter_layers 禁用所有适配器。

  • 功能描述:当启用此功能时,模型中的所有适配器层将被禁用,模型将不再使用这些适配器进行推理或训练。此操作通常用于将模型恢复到没有适配器的状态,允许用户仅使用基础模型的功能。

  • 用途场景

    • 模型评估:在评估模型性能时,希望验证基础模型的原始性能,而不受适配器的影响。
    • 调试:在调试过程中,禁用适配器可以帮助识别适配器对模型输出的具体影响。
    • 资源管理:禁用适配器可以减少计算资源的消耗,尤其是在内存受限的环境中。
  • 实现机制:禁用适配器通常涉及调整模型的前向传播逻辑,确保适配器层的输出不被计算或直接返回基础模型的输出。

4 enable_adapter_layers

 enable_adapter_layers  与调用disable_adapter_layers方法相反,启用所有适配器,通常这两个方法配套使用。

5 merge_and_unload(常用)

  merge_and_unload 合并模型,最常用。

  参数解释如下:

  1. progressbar (bool)
  2. # 是否显示指示卸载和合并过程的进度条。
  3. safe_merge (bool)
  4. # 是否启用安全合并检查,以检查适配器权重中是否存在潜在的 NaN 值。
  5. adapter_names (List[str], optional)
  6. # 要合并的适配器名称列表。如果为 None,则合并所有活动适配器。默认为 None。

 merge_and_unload 方法原型:

  1. def merge_and_unload(
  2. self, progressbar: bool = False, safe_merge: bool = False, adapter_names: Optional[list[str]] = None
  3. ) -> torch.nn.Module:
  4. r"""
  5. This method merges the LoRa layers into the base model. This is needed if someone wants to use the base model
  6. as a standalone model.
  7. Args:
  8. progressbar (`bool`):
  9. whether to show a progressbar indicating the unload and merge process
  10. safe_merge (`bool`):
  11. whether to activate the safe merging check to check if there is any potential Nan in the adapter
  12. weights
  13. adapter_names (`List[str]`, *optional*):
  14. The list of adapter names that should be merged. If None, all active adapters will be merged. Defaults
  15. to `None`.
  16. """

  使用示例:

  1. from transformers import AutoModelForCausalLM
  2. from peft import PeftModel
  3. # 从预训练模型中加载基础模型
  4. base_model = AutoModelForCausalLM.from_pretrained("tiiuae/falcon-40b")
  5. # PEFT 模型的 ID
  6. peft_model_id = "smangrul/falcon-40B-int4-peft-lora-sfttrainer-sample"
  7. # 从预训练模型和 PEFT 模型 ID 中加载 PEFT 模型
  8. model = PeftModel.from_pretrained(base_model, peft_model_id)
  9. # 合并 PEFT 模型并卸载不需要的部分
  10. merged_model = model.merge_and_unload()
6 unload

  unload 与 merge_and_unload 相反,把合并后的模型还原到基本模型

LoRA官网-> https://huggingface.co/docs/peft/package_reference/lora

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/煮酒与君饮/article/detail/932885
推荐阅读
相关标签
  

闽ICP备14008679号