赞
踩
https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast_stable_diffusion_AUTOMATIC1111.ipynb#scrollTo=PjzwxTkPSPHf
https://www.youtube.com/watch?v=Q37eGFvMDbY
https://www.youtube.com/watch?v=Q37eGFvMDbY
https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast_stable_diffusion_AUTOMATIC1111.ipynb#scrollTo=PjzwxTkPSPHf
底模(checkpoint) | Lora | VAE |
---|---|---|
比如大家都是计算机院的学生。有的学生是学物联网的、有的学生是学计算机网络的、有的是学软件工程的,最后他们就业理论上应该是不同的(虽然现在都是转Java) | 大家都是后端选手,有的学了 C,有的学了Java,有的学了Golang,虽然都是后端,你非要让写Java的人写C也能写,但是效果还是差点意思。 | 这个模型的作用就差点意思,把图片的信息压缩到潜在空间中去,实际反馈在图片的中的效果就是加不加滤镜,这个学到后面再研究 |
总结一下,底模就是决定了大方向,你要画二次元的图片、显示风格的图片等等。Lora就是纠正一下底模。
如果神经网络用 Y = WX的方式来表示,那么神经网络的训练核心就是通过反向传播的方式去训练W。训练不是一蹴而就的,而是通过一次一次的迭代训练成的。每一次训练,就是在对W这个矩阵中的每一个元素做加减肥。那么Lora就是记录这个差值的矩阵集合。
举个例子
有一个 2 * 2 的矩阵
1
1
1
1
这样的好处在于,在后面反向传播中,矩阵的计算是非常复杂的,使用Lora可以降低计算的难度。并且Lora记录差值,相对较小。并且还可以通过矩阵分解的方式进一步拆分Lora。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。