当前位置:   article > 正文

本地无限次体验AI绘画 — stable-diffusion-webui 本地部署指南(国内镜像加速版)

stable-diffusion-webui

本文提供的方法主要用于缓解国内访问GitHub不稳定导致安装出现错误,以及通过使用国内的镜像提升安装包的安装速度,同时尽可能不影响原本的安装过程和使用体验。

注:作者目前仅在Windows平台且有NIVIDA GPU的环境下部署,理论上Linux平台同样适用。若有问题,欢迎留言。

注:由于stable-diffusion-webui官方的手动安装教程落后于版本,因此不建议遵照手动安装教程进行安装。

stable-diffusion-webui 介绍

stable-diffusion-webui 是一个基于Gradio库的Stable Diffusion的浏览器界面,可以说是AI绘画集合体,支持目前主流的开源AI绘画模型,例如 NovelAi/Stable Diffusion,有了它,我们就可以很方便地配置和生成AI绘画作品,并且进行各种精细地配置。

img

stable-diffusion-webui 界面

Python环境配置以及基础包安装

安装Anaconda,同时配置好清华镜像,以及Pypi镜像,方法略,网上资料比较多。

Anaconda安装完成后,运行如下命令创建并激活python3.10的环境

conda create -n sdwebui python=3.10
conda activate sdwebui
  • 1
  • 2

stable-diffusion-webui 的源文件下载和配置

找个空间比较大的硬盘,执行下面的命令,下载stable-diffusion-webui 的源文件。(以下命令已经过镜像加速,但可能会失效,如有问题,请给我留言)

git clone https://github.moeyy.xyz/https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
  • 1

下载完成后,用任何编辑器打开launch.py文件,进行修改,但凡出现 https://github.com 的地方,在它的前面加上https://github.moeyy.xyz/ 即可,修改完成后的结果参考如下:

gfpgan_package = os.environ.get('GFPGAN_PACKAGE', "git+https://github.moeyy.xyz/https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379")
clip_package = os.environ.get('CLIP_PACKAGE', "git+https://github.moeyy.xyz/https://github.com/openai/CLIP.git@d50d76daa670286dd6cacf3bcd80b5e4823fc8e1")
openclip_package = os.environ.get('OPENCLIP_PACKAGE', "git+https://github.moeyy.xyz/https://github.com/mlfoundations/open_clip.git@bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b")

xformers_windows_package = os.environ.get('XFORMERS_WINDOWS_PACKAGE', 'https://github.moeyy.xyz/https://github.com/C43H66N12O12S2/stable-diffusion-webui/releases/download/f/xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl')

stable_diffusion_repo = os.environ.get('STABLE_DIFFUSION_REPO', "https://github.moeyy.xyz/https://github.com/Stability-AI/stablediffusion.git")
taming_transformers_repo = os.environ.get('TAMING_TRANSFORMERS_REPO', "https://github.moeyy.xyz/https://github.com/CompVis/taming-transformers.git")
k_diffusion_repo = os.environ.get('K_DIFFUSION_REPO', 'https://github.moeyy.xyz/https://github.com/crowsonkb/k-diffusion.git')
codeformer_repo = os.environ.get('CODEFORMER_REPO', 'https://github.moeyy.xyz/https://github.com/sczhou/CodeFormer.git')
blip_repo = os.environ.get('BLIP_REPO', 'https://github.moeyy.xyz/https://github.com/salesforce/BLIP.git')
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

Stable Diffusion 2.0/2.1模型的下载和配置

根据官方的信息,2.1版本模型结构和2.0版本一致,因此,两个版本的配置文件是通用的。

2.0版本:

768-v-ema.ckpt (model,config)

512-base-ema.ckpt (model,config).

2.1版本:

v2-1_768-ema-pruned.ckpt(model,config

v2-1_512-ema-pruned.ckpt(model,config

将下载的模型文件和配置文件放到 models/Stable-Diffusion 文件夹中(没有则自行创建)

修改模型文件和配置文件名,确保对应文件名相同,例:如果模型名为768-v-ema.ckpt,则配置文件名应为768-v-ema.yaml

启动安装

上述配置完成后,执行如下命令开始进行安装:

python .\launch.py --xformers
  • 1

在经历了一段时间的等待,中途可能还会出现网络错误,没关系,多试几次,最终会出现如下的一个地址:

Running on local URL:  http://127.0.0.1:7860

To create a public link, set `share=True` in `launch()`.
  • 1
  • 2
  • 3

这就说明本地已经部署成功,打开浏览器,输入上述地址,即可在本地进行AI绘画创作啦。

根据本地电脑显卡的性能强弱,出图速度会有所不同,但是,毕竟是自己电脑,所以慢点也是可以接受的。

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/正经夜光杯/article/detail/779956
推荐阅读
相关标签