赞
踩
输入随机噪声和文本内容,通过多次预测并去除图片中的噪声后,最终生成清晰的图像。
以上左边这张图,刚开始是随机噪声,999为时间序列。
预测噪声还是简单一点。
具体的方法是自己去按步骤加噪音,这样就构建了训练样本。预测目标就是我们加的噪声。
可以看出,增加文字输入即可
当然具体的噪声loss计算,以及去噪公式稍微麻烦一点,并不是直接加减。
左图中为噪声的均方误差loss计算。
图中XT为T时刻的有噪图片,Xt-1为去噪后的图片。
对于Stable Diffusion等主流的扩散模型,噪声预测部分都是使用UNET。图示结构如下,可以看出输入含噪声图片,输出噪声
训练代码如下:
这里nn_model即为UNET网络,支持图片,时间和文本上下文嵌入等相关信息。参考代码如下:
比DDPM快10倍,采样步数到500步以上DDPM更好,否则DDIM更好。
其他模型结构如下,很类似。
为了加快图像生成过程,Stable Diffusion 并不是在像素图像本身上运行扩散过程,而是在图像的压缩版本上运行。该论文称其为“Departure to Latent Space”。
https://arxiv.org/abs/2112.10752
这种压缩(以及后来的解压缩/绘画)是通过自动编码器完成的。自动编码器将图像压缩到潜空间(Latents),然后使用解码器凭借这些压缩后的数据重建。
实际使用过程中直接调用已经训练好的VAE做编码和解码即可。原理如下:
参考:Stable Diffusion|图解稳定扩散原理 - 知乎
模型细节如下:
注意这里的文本也是做了编码为向量。
基于transformers的可扩展的扩散模型
DIT利用transformer替换了unet.
有什么好处? 更高的Gflops(网络复杂度),具备更好的扩展性scaling(tokens扩展,网络深度扩展,增加参数量就能有更好的性能),有较低的t FID of 2.27 (即预测效果)
transformer统一了NLP和视觉领域,SORA正是基于此论文完成主体部分。
即衡量两张图片之间的相似性。
从它的训练和预测代码中,我们看到也使用了训练好的VAE模型。
训练时调用encoder
预测时调用decoder
在上一篇文章中已经介绍过
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。