赞
踩
目前,LoRA 仅支持UNet2DConditionalModel
. 我们还支持对 DreamBooth 文本编码器的 LoRA 微调,能力有限。有关我们如何支持文本编码器的 LoRA 微调的更多详细信息,请参阅此 PR上的讨论。
Low-Rank Adaptation of Large Language Models (LoRA)是一种训练方法,可以加速大型模型的训练,同时消耗更少的内存。它将成对的秩分解权重矩阵(称为更新矩阵)添加到现有权重中,并且只训练那些新添加的权重。这有两个优点:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。