赞
踩
本文提供的方法主要用于缓解国内访问GitHub不稳定导致安装出现错误,以及通过使用国内的镜像提升安装包的安装速度,同时尽可能不影响原本的安装过程和使用体验。
注:作者目前仅在Windows平台且有NIVIDA GPU的环境下部署,理论上Linux平台同样适用。若有问题,欢迎留言。
注:由于stable-diffusion-webui官方的手动安装教程落后于版本,因此不建议遵照手动安装教程进行安装。
stable-diffusion-webui 是一个基于Gradio库的Stable Diffusion的浏览器界面,可以说是AI绘画集合体,支持目前主流的开源AI绘画模型,例如 NovelAi/Stable Diffusion,有了它,我们就可以很方便地配置和生成AI绘画作品,并且进行各种精细地配置。
stable-diffusion-webui 界面
安装Anaconda,同时配置好清华镜像,以及Pypi镜像,方法略,网上资料比较多。
Anaconda安装完成后,运行如下命令创建并激活python3.10的环境
conda create -n sdwebui python=3.10
conda activate sdwebui
找个空间比较大的硬盘,执行下面的命令,下载stable-diffusion-webui 的源文件。(以下命令已经过镜像加速,但可能会失效,如有问题,请给我留言)
git clone https://github.moeyy.xyz/https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
下载完成后,用任何编辑器打开launch.py
文件,进行修改,但凡出现 https://github.com
的地方,在它的前面加上https://github.moeyy.xyz/
即可,修改完成后的结果参考如下:
gfpgan_package = os.environ.get('GFPGAN_PACKAGE', "git+https://github.moeyy.xyz/https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379")
clip_package = os.environ.get('CLIP_PACKAGE', "git+https://github.moeyy.xyz/https://github.com/openai/CLIP.git@d50d76daa670286dd6cacf3bcd80b5e4823fc8e1")
openclip_package = os.environ.get('OPENCLIP_PACKAGE', "git+https://github.moeyy.xyz/https://github.com/mlfoundations/open_clip.git@bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b")
xformers_windows_package = os.environ.get('XFORMERS_WINDOWS_PACKAGE', 'https://github.moeyy.xyz/https://github.com/C43H66N12O12S2/stable-diffusion-webui/releases/download/f/xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl')
stable_diffusion_repo = os.environ.get('STABLE_DIFFUSION_REPO', "https://github.moeyy.xyz/https://github.com/Stability-AI/stablediffusion.git")
taming_transformers_repo = os.environ.get('TAMING_TRANSFORMERS_REPO', "https://github.moeyy.xyz/https://github.com/CompVis/taming-transformers.git")
k_diffusion_repo = os.environ.get('K_DIFFUSION_REPO', 'https://github.moeyy.xyz/https://github.com/crowsonkb/k-diffusion.git')
codeformer_repo = os.environ.get('CODEFORMER_REPO', 'https://github.moeyy.xyz/https://github.com/sczhou/CodeFormer.git')
blip_repo = os.environ.get('BLIP_REPO', 'https://github.moeyy.xyz/https://github.com/salesforce/BLIP.git')
根据官方的信息,2.1版本模型结构和2.0版本一致,因此,两个版本的配置文件是通用的。
2.0版本:
512-base-ema.ckpt (model,config).
2.1版本:
v2-1_768-ema-pruned.ckpt(model,config)
v2-1_512-ema-pruned.ckpt(model,config)
将下载的模型文件和配置文件放到 models/Stable-Diffusion
文件夹中(没有则自行创建)
修改模型文件和配置文件名,确保对应文件名相同,例:如果模型名为768-v-ema.ckpt
,则配置文件名应为768-v-ema.yaml
上述配置完成后,执行如下命令开始进行安装:
python .\launch.py --xformers
在经历了一段时间的等待,中途可能还会出现网络错误,没关系,多试几次,最终会出现如下的一个地址:
Running on local URL: http://127.0.0.1:7860
To create a public link, set `share=True` in `launch()`.
这就说明本地已经部署成功,打开浏览器,输入上述地址,即可在本地进行AI绘画创作啦。
根据本地电脑显卡的性能强弱,出图速度会有所不同,但是,毕竟是自己电脑,所以慢点也是可以接受的。
学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/正经夜光杯/article/detail/779956
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。