赞
踩
一直在研究文生图,之前一直是用原始模型和diffuser跑SD模型,近来看到不少比较博主在用 SDWebui,于是想着在Linux服务器上部署体验一下,谁知道并没有想象的那么顺利,还是踩了不少坑。记录一下过程,也许能帮忙有同样需求的朋友。
conda create -n SDWebui python=3.10.6
conda activate SDWebui
mkdir SDWebui
cd SDWebui
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
在huggingface上下载三个模型文件(sd_xl_base_1.0.safetensors,sd_xl_refiner_1.0.safetensors,sdxl_vae.safetensors),分别放到models下的不同目录下,放完之后,目录结构如下:
2. 安装依赖环境
python -m pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 xformers
python -m pip install requirements.txt
python -m pip install -r requirements_versions.txt
mkdir openai
cd openai
git clone https://www.modelscope.cn/AI-ModelScope/clip-vit-large-patch14.git
import os
os.environ["PYTORCH_CUDA_ALLOC_CONF"] = "max_split_size_mb:512"
os.environ['CUDA_LAUNCH_BLOCKING'] = '1'
python launch.py --skip-torch-cuda-test --xformers --precision full --no-half --always-batch-cond-uncond --opt-split-attention
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。