当前位置:   article > 正文

Stable Diffusion 2.0来了!

sd 2048x2048需要多大显存

关注公众号,发现CV技术之美

本文转载自机器之心。

如果你想,SD 2.0 能生成分辨率为 2048x2048 甚至更高的图像。

今日,Stability AI 官方宣布,那个爆红 AI 圈的 Stable Diffusion 来到了 2.0 版本(SD 2.0)!上线短短几个小时,点赞量已经很可观了。

e648876f7051c687194d4e7244a67f88.png

项目地址:https://github.com/Stability-AI/stablediffusion

可以说,这波更新速度够快的,就像网友说的,我从未见过任何技术发展如此之快。V1 还没整透彻,V2 就来了。

0c0c7c3071dca117d3676b71f241f8b5.png

7be9843be33e354db5f08da9c560a4b6.png

V1亮相之初,在Github 排行榜,Stable Diffusion 为所有软件中攀升至 10K star 最快的其中之一,在不到两个月的时间内飙升至 33K star。按照这个速度,2.0 版本很快就会赶上。

cfc3631242859c68b9760b21adfa9a6e.png

Stability AI 的产品副总裁兴奋的表示:Stable Diffusion 2.0 是有史以来发布的最强大的开源项目之一。这是迈向创造力、表达能力和沟通民主化的又一大步。

49b9f97a70d8c11b9ed4855b57bb187e.png

还有网友表示:「离完美不远了。可能是 V5 或 V6 版本」。

3091d8067c8d0b212c4f4d1cc5a47400.png

「新版本是改变游戏规则的更新。」

f1ac84a3697133d6462459da1ffd2b2e.png

与最初的 V1 版本相比,Stable Diffusion 2.0 提供了许多重大改进和特性,具体表现在:

Stable Diffusion 2.0 版本包含一个具有鲁棒性的文本 - 图像模型,在全新的文本编码器 (OpenCLIP) 上训练而成,与早期的 V1 版本相比,文本 - 图像模型大大提高了图像生成质量,可以生成默认分辨率为 512x512 像素和 768x768 像素的图像。

此外,文本 - 图像模型是在 LAION-5B 数据集上训练的,然后使用 NSFW filter 过滤掉一些不可描述的内容。

15c8845e9e6239d87998836e8a18d9e4.png

使用 Stable Diffusion 2.0 生成的图像示例,图像分辨率为 768x768

Stable Diffusion 2.0 还包括一个 Upscaler Diffusion 模型,该模型将生成图像的分辨率提高了 4 倍。具体效果如何呢?例如下图展示的是 Upscaler 将低分辨率生成的图像 (128x128) 升级(upscaling)为更高分辨率的图像(512x512)。现在的图像已经够清晰了,然后在结合上述提到的文本 - 图像模型, 比如将 512x512 像素的图像提高 4 倍,Stable Diffusion 2.0 现在可以将图像升级为分辨率为 2048x2048 甚至更高的图像。

a979d77d481a371ac56d656da9b999bd.png

左:128x128 低分辨率图像。右:由 Upscaler 生成的 512x512 分辨率图像

此外,Stable Diffusion 2.0 更新还包括 Depth2img(depth-guided stable diffusion)模型,它扩展了 V1 版本中图像 - 图像的特性,为创意应用提供了全新的可能性。Depth2img 用来推理输入图像的深度,然后使用文本和深度信息生成新图像。

1a57703d500c3cd8b781f4ba87590535.png

左边为输入图像,右边为新生成的图像,相同的动作,面貌各异。该新模型可用于图像 - 图像结构的保持和形状的合成。

Depth2img 提供了不同创新性应用,虽然生成的图像与原始图像有很大的不同,但仍然保持了图像的连贯性和深度:

06dda2f3b06070db288637f0fde909ec.gif

Stable Diffusion 2.0 生成的深度 - 图像保持一致性。

最后,Stable Diffusion 2.0 还引入了一个新的 text-guided 修复模型,用户可以非常智能、快递的切换图像部分内容,如下图中豹子的嘴巴和鼻子是不变的,其他部分可以随意改变。

da833e3362a2e910cb30d372291d379f.gif

研究者表示,他们正在努力优化模型以在单个 GPU 上运行,让尽可能多的人可以使用。

参考链接:https://stability.ai/blog/stable-diffusion-v2-release

428f2bbf16b7363377bea187fd4b5caa.jpeg

END

欢迎加入「计算机视觉交流群

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/426799
推荐阅读
相关标签