赞
踩
LLMs之PEFT:大模型核心技术—PEFT(参数高效微调)的简介(指令微调/RLHF微调)、微调两大范式+三类五法—(Adapter/Prefix/P-tuning/HINT,Delta-tuning,LoRA/QLoRA/LOMO)之详细攻略
LLMs之PEFT:大模型核心技术—PEFT(参数高效微调)的简介(指令微调/RLHF微调)、微调两大范式+三类五法—基于添加式(引入额外可训练参数或模块,如Adapter/Prefix/P-tuning/HINT)、基于规范化(冻结某些固有模型参数同时指定要调整的参数,如Delta-tuning)、基于重参数化(假设模型自适应的低秩性→权重可重新参数化为低维子空间,如LoRA/QLoRA/LOMO)之详细攻略
目录
(2)、对比:训练技术(Finetuning/RLHF)、引导技术(Prompting/Instruction-Following)
(3)、对比:全参数微调(全新训练)、指令微调(增量训练+执行任务指令)、高效参数微调(增量训练+常结合提示工程)、提示工程(通用策略+只是引导)
PTMs:大模型领域之SOTA(最先进模型)的相关术语知识总结(微调/RLHF/提示/指令集)、每个LLM开发者都应知道的数字、SOTA算法(NLP领域+CV领域)核心技术重点梳理之详细攻略
1、参数高效微调(PEFT)技术的概述:PEFT技术带来平民化
2、参数高效微调三类五法(Adapter Tuning、Prefix Tuning、Prompt Tuning、P-tuning、LoRA)
0.0、LLMs:《A Survey of Large Language Models大语言模型综述》的翻译与解读(三)之适应LLMs(指令调优+对齐微调+参数高效微调+内存高效的模型自适应)
T1.1、Adapter Tuning【低维嵌入+只微调Adapter的参数】
T1.2、Prefix Tuning【隐式提示+Prefix层前需加MLP结构】
Prefix-Tuning: Optimizing Continuous Prompts for Generation (Li & Liang, ACL-IJCNLP 2021)
(1)、Prefix Tuning:如何在Prefix层前面加MLP结构?
T1.4、HINT微调=添加易于微调的模块(基于超网络数生成器生成适配器和前缀参数)+插入到骨干模型作为高效的微调模块
T2、基于规范化(冻结某些固有模型参数同时指定要调整的参数)
T2.1、Delta-tuning=优化和最优控制视角+将微调限制在低维流形上来执行子空间优化+微调参数充当最优控制器+在下游任务中引导模型行为
T3、基于重参数化(假设模型自适应的低秩性→权重可重新参数化为低维子空间)
T3.2、QLoRA【LoRA的量化版+NF4+双量化DQ+分页优化器PO】
PTMs:QLoRA技巧的简介、使用方法、论文解读、源码解读之详细攻略
LLMs之Guanaco:《QLoRA:Efficient Finetuning of Quantized LLMs》翻译与解读
T3.3、LOMO=降低梯度内存需求(融合梯度计算与参数更新+实时只存储单个参数的梯度)+稳定训练(梯度值裁剪+分离梯度范数计算+态损失缩放)+节省内存(激活检查点+ZeRO优化)
Py之peft:peft(一款最先进的参数高效微调方法库)的简介、安装、使用方法之详细攻略
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。