赞
踩
本文专门开一节写SD原理相关的内容,在看之前,可以同步关注:
stable diffusion实践操作
(后期补充)
<img src+“” width=600>
<img src+“” width=600>
所有的人图片都是从一张噪点图开始的。根据目标生成一张猫的图片,将噪点一步步转化为猫
<img src+“” width=600>
AI首先将图片一步步加入噪点。
<img src+“” width=600>
所以任何一张图都可以逆向这个过程
<img src+“” width=600>
<img src+“” width=600>
<img src+“” width=600>
生成图片,我们需要两个主要输入,提示词prompt和随机种子
本文知乎链接:
入口
clip模型
在 Stable Diffusion 模型中,prompt 是通过引导向量(guidance vector)来控制 U-Net 的。具体来说,prompt 会被编码成一个文本嵌入向量(text embeddings),然后与其他输入一起传递给 U-Net。这个过程可以分为以下几个步骤:
计算机不能直接理解文本和图片
而是通过特征向量来标记
而这一项工作是通过CLIP模型来完成的
clip模型包括文字编码器和图片编码器,将文字和图片都编码成向量
所以CLIP设置的层数越高,图片和文字相关度越低,一般设置为2就可以了。
SD绘制图片内容的时候,并不是直接绘制512512的图片,而是绘制核心内容,6464,然后再将图片放大还原。
所以绘图的实际过程就是去噪
SD会根据随机种子生成一张正态分布的噪点图,然后根据传入的文字,加入是狗,去向量数据库中搜索,生成狗的去噪方式。去噪方式又是采样器进行调用的
采样器会调用Unet模型,对图片中的噪点预测,生成噪点预测图
让噪点图减去预测出的全部噪点,生成最终的模型图片
Unet模型在噪点多的时候,预测并不理想,所以我们并不一次性全部采纳其预测的噪点,而是每次只采用一部分噪点,循环多次
这个过程就是下面的迭代步数
设置过小,图片与文本匹配度较低,过大,则会画蛇添足,一般我们设置为20-40步即可
采样所采用的算法,不同算法消耗的时间不同。
采样器时间对比
一般推荐大家 使用DPM++ SDE Karas/DPM2++ SDE Karas
对比:
在潜空间产生的图片比较小,我们需要VAE将其放大,优化细节。
这就是整个过程
例如:以上就是今天要讲的内容。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。