赞
踩
Opus:
详述lora微调的基本原理
Claude-3-Opus
Poe
LoRA(Low-Rank Adaptation)是一种参数高效的微调方法,它通过向预训练模型中注入低秩分解矩阵来实现对模型的调整,从而显著减少需要训练的参数数量。下面我详细解释LoRA的基本原理。