赞
踩
还有一个重要的点,就是你想固化的特征不要去打tag,打的tag不是单纯的对图片进行描述,还要考虑到是否是变量, tag尽量都是变量,也就是说是你期望模型生成的时候可以根据你的文字改变的。举个例子,一个红头发女孩,如果tag里面有red hair,AI会认为这个是可变量,后面模型生成的时候你输入white hair就可以生成白发女孩,但如果tag里面没有red hair,AI会认为红发是这个女孩的本身特征是固定的,即使模型后面输入white hair,生成的女孩也只会是红发不会变白发。
如何从零开始训练一个高质量的LoRA模型 - 哔哩哔哩 (bilibili.com)
参考这篇博客对于tag部分的说明。所以总而言之,tag是变量,是未来想灵活调整的可以被替换的内容,如果不想被替换的就不要写。
————————————————
版权声明:本文为CSDN博主「不学能干嘛」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/m0_59805198/article/details/135070297
视频:lora训练教程
epoch多轮次比单轮次要好,通过设置可以每轮保存一组模型,多轮次说明有多组模型,得到好概率的可能是比单轮次就一个模型的概率是要高的,epoch一般设置5~10;
epoch=repeat*图片数量
取决硬件
同一时间学习几张图片
收敛;AI最终出来的图片跟你的原图有多像,原图越像,收敛越好
batch_size加大,收敛越慢
batch_size要是高,一是可能显存带不动,二是值越高训练越快 越可能学得囫囵吞枣收敛得慢。
BS从1到2,Ir就要*2
### 2.2.3 Optimizer(优化器)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。