当前位置:   article > 正文

LLM参数高效微调(LORA,QLORA)

LLM参数高效微调(LORA,QLORA)

1. 全量微调和高效微调

全量微调(Full Fine-tuning)

全量微调是深度学习中的一种常见做法,尤其是在处理大型预训练模型如BERT或GPT时。它涉及到在特定任务的数据集上调整预训练模型的所有参数。这意味着模型的每一层和每一个权重都会在微调过程中更新,以适应新的任务。虽然这种方法通常可以达到很好的性能,因为它允许模型在目标任务上进行充分优化,但它也有几个缺点。最主要的是,它需要大量的计算资源和时间,尤其是当模型非常大时。此外,它也更容易过拟合,尤其是在小数据集上。

高效微调(Efficient Fine-tuning)

与全量微调相对,高效微调是近年来发展起来的,旨在减少在特定任务上调整大型预训练模型所需的资源和时间。它通常涉及到只更新模型的一小部分参数,比如模型的最后几层或者只有顶层。一些高效微调的方法包括适应性微调(Adaptive
Fine-tuning),其中只有模型的输出层或与任务最相关的层被更新;或是梯度更新的变体,如差分学习率(Differential
Learning Rates)和冻结部分网络层(Freezing Layers)。

高效微调的优点是它大大减少了所需的计算资源,因此可以更快速地适应新任务。它还可以减轻过拟合的风险,因为保留了更多的原始预训练知识。不过,这种方法也可能限制模型在新任务上的最大表现潜力,因为它只调整了参数的一部分。

2.参数高效微调分类

增加额外参数 (A)

这类方法通过向模型中添加额外的可训练参数来适应新任务,而不改变原始预训练模型的参数。这种方法主要有两个小类:

  1. 类适配器(Adapter-like)方法

    • 在模型的每一层或特定层中插入小型网络结构,称为适配器(Adapters),它们拥有少量的可训练参数。
    • 适配器可以学习到特定任务的特征表示,同时保留了预训练模型的大部分知识。
    • 这种方法适用于要快速适应多个不同任务的场景,因为适配器可以独立训练且交换。
  2. 软提示(Soft prompts)

    • 软提示是向模型输入添加可训练的标记(t
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/309064
推荐阅读
  

闽ICP备14008679号