当前位置:   article > 正文

Stable diffusion(二)

Stable diffusion(二)
SD colab安装

https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast_stable_diffusion_AUTOMATIC1111.ipynb#scrollTo=PjzwxTkPSPHf
https://www.youtube.com/watch?v=Q37eGFvMDbY

https://www.youtube.com/watch?v=Q37eGFvMDbY
https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast_stable_diffusion_AUTOMATIC1111.ipynb#scrollTo=PjzwxTkPSPHf
  • 1
  • 2
界面介绍

在这里插入图片描述

  • 底模:不同的数据集训练出来的模型效果不同。有的是卡通风、有的是现实风。可以类比于GPT,用什么文案训练,对于改文案的语言通用能力就越强。
  • VAE:用于将图片压缩到潜在空间的组件,这里没有出现。
  • 采样器:用于调整迭代次数和迭代数的组合组件。不同的策略,不同结果
  • CLIP:tokenizer + text encoder。有些时候,会选择词向量/图向量的倒数第二层来作为输入。
  • CFG Scale:Classifier-Free Guidance scale,控制了提示词的参数。通常设置在7~9附近。
  • 图像生成种子/Seed:-1代表使用随机数。数量越高,代表加入的噪音越多。
  • 面部修复/高清修复:生分成真人模型的时候i要用,其他时候用不用都行
  • 脚本:用于规整化数据集的工具,后续再看用处
  • 图片信息:图片下的信息栏目,表示生成这张图片用到的参数是什么。
  • Embedding:在AI绘图里面,一个Embedding可以实现,一个关键词 = {词语1、词语2、词语3}这样的效果
VAE、底模(checkpoint)、Lora对于一张图片的影响
底模(checkpoint)LoraVAE
比如大家都是计算机院的学生。有的学生是学物联网的、有的学生是学计算机网络的、有的是学软件工程的,最后他们就业理论上应该是不同的(虽然现在都是转Java)大家都是后端选手,有的学了 C,有的学了Java,有的学了Golang,虽然都是后端,你非要让写Java的人写C也能写,但是效果还是差点意思。这个模型的作用就差点意思,把图片的信息压缩到潜在空间中去,实际反馈在图片的中的效果就是加不加滤镜,这个学到后面再研究

总结一下,底模就是决定了大方向,你要画二次元的图片、显示风格的图片等等。Lora就是纠正一下底模。

civita介绍

在这里插入图片描述

Lora介绍

如果神经网络用 Y = WX的方式来表示,那么神经网络的训练核心就是通过反向传播的方式去训练W。训练不是一蹴而就的,而是通过一次一次的迭代训练成的。每一次训练,就是在对W这个矩阵中的每一个元素做加减肥。那么Lora就是记录这个差值的矩阵集合。
举个例子
有一个 2 * 2 的矩阵 1 1 1 1

1111
1111经过两次训练变成了 3 3 3 3
3333
3333
训练过程就是每次每个元素加1,那么对应的Lora就是 两个 1 1 1 1
1111
1111

这样的好处在于,在后面反向传播中,矩阵的计算是非常复杂的,使用Lora可以降低计算的难度。并且Lora记录差值,相对较小。并且还可以通过矩阵分解的方式进一步拆分Lora。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/237337
推荐阅读
相关标签
  

闽ICP备14008679号