赞
踩
下载stable-diffusion-webui,并准备py3.9, 升级pip, 设置云厂商镜像源
最好是python 3.10以上,和使用canda,本教程是3.10和venv部署,一样可以使用,不过好像是有限制的,目前还没遇到有什么功能体验不了
# 下载stable-diffusion-webui git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git # 进入目录 cd stable-diffusion-webui/ # libGL.so 报错需要的依赖 yum install -y mesa-libGL.x86_64 # 不允许用根用户安装,创建普通用户 useradd peter chown -R peter.peter . su peter # 创建虚拟环境,这个可以是conda等其他手段,具体可以百度python安装,这里是python3.9 python3.9 -m venv venv # 激活环境 source venv/bin/activate # 设置云厂商的pip镜像源 pip config set global.index-url 'http://mirrors.tencentyun.com/pypi/simple' pip config set global.trusted-host 'mirrors.tencentyun.com' python -m pip install --upgrade pip # libGL.so 报错需要的依赖 pip install opencv-python-headless
修改加载的lauch.py
, 设置pytorch源为厂商
torch_command = os.environ.get('TORCH_COMMAND', "pip install torch==1.13.1 torchvision==0.14.1")
安装
sh webui.sh --enable-insecure-extension-access --xformers --server-name 0.0.0.0
#安装过程会新增repositories文件夹,
#存放stable-diffusion-stability-ai,taming-transformers等模型
# 模型下载位置 /data/stable-diffusion-webui
yum -y install git git-lfs
github加速
,国内访问速度比较慢https://ghproxy.com/
https://ghproxy.com/https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui-extensions/master/index.json
sd-webui-controlnet 如果点击安装按钮不成功,则需要获取git地址手动安装,或者自己先把插件通过git clone或者github网页下载整个包之后放在stable-diffusion-webui > extensions 文件夹下面。安装好后记得在installed页面点击apply and restart(应用并重启)。
安装插件需要的模型文件,controlnet 模型地址,将模型放入“stable-diffusion-webui\extensions\sd-webui-controlnet\models”中。现在我们已经包含了所有“yaml”文件。您只需要下载“pth”文件。
# 进入ControlNet插件目录
cd {project}/models/ControlNet
git lfs install
git lfs clone https://huggingface.co/lllyasviel/ControlNet
模型可以下载单个,不一定全部都要
ControlNet/models/control_sd15_canny.pth
,用于使用精明边缘检测来控制 SD
。ControlNet/models/control_sd15_openpose.pth
使用 OpenPose
姿势检测控制 SD。直接操纵姿势骨架也应该有效。ControlNet/models/control_sd15_scribble.pth
ControlNet+SD1.5模型使用人类涂鸦控制SD。该模型使用边界边缘进行训练,具有非常强大的数据增强功能,以模拟类似于人类绘制的边界线。注意第一次使用control_sd15_openpose
模型,就会自动去下载相关的第三方模型,body_pose_model
,hand_pose_model
,facenet
加载模型,{project}
换成你的路径
cd {project}/models/ControlNet
ln -s {project}/sdmodels/ControlNet/models/control_sd15_* .
去huggingface找到chilloutmix_Ni、GuoFeng3.3等主模型安装方法是一样的
一般是存放在/data/stable-diffusion-webui/models/Stable-diffusion
文件后缀为safetensors
、ckpt
的文件
如何加载 chilloutmixni
模型(人物出图没得说)
# 根据实际存放修改即可
cd {project}
curl -Lo chilloutmixni.safetensors https://huggingface.co/nolanaatama/chomni/resolve/main/chomni.safetensors
ln -s {project}/sdmodels/chilloutmixni.safetensors {project}/stable-diffusion-webui/models/Stable-diffusion
如上,这个模型是下载完放在stable-diffusion-webui/models/stable-diffusion
当然,若有lora模型,需要放置到如下文件夹下
stable-diffusion-webui>>models>>Lora
模型:chilloutmixni ,选对模型比什么都重要,随便都能出好图
图片大小:512x786,竖图,表现人物效果更好,高挑
提示词:
- 高质量图片词,(masterpiece:1.0), (best quality:1.0), (ultra highres:1.0) ,(8k resolution:1.0),(realistic:1.0),(ultra detailed1:0), (sharp focus1:0), (RAW photo:1.0)
- 环境人物补充词,full body,simple background,beautifull girl,solo focus是solo描述,
- 把这些删除掉换成你的需要即可,tall,skirt,high heels,sea side,sky,tree
模板,理论上模型和参数都一样的情况下,出图是一模一样的,随机图片可以设置seed(批量出一个prompt的图)为-1
#提示词
(masterpiece:1.0), (best quality:1.0), (ultra highres:1.0) ,(8k resolution:1.0),(realistic:1.0),(ultra detailed1:0), (sharp focus1:0), (RAW photo:1.0),full body,simple background,beautifull girl,solo focus,
tall,skirt,high heels,sea side,sky,tree
# 负面
Negative prompt: (easynegative:1.2), (worst quality: 1.2), (low quality: 1.2),nsfw,by <bad-artist-anime:0.6> , by <bad-artist:0.6> , by <bad-hands-5:0.6>, by < bad_prompt_version2:0.8>
#模型参数
Steps: 40, Sampler: DPM++ SDE Karras,
CFG scale: 7, Seed: 1845414120,
Face restoration: CodeFormer,
Size: 512x786,
Model hash: 7234b76e42, Model: chilloutmixni,
Denoising strength: 0.45, Hires upscale: 1.4, Hires steps: 11, Hires upscaler: Latent (bicubic antialiased)
效果
GuoFeng3.3模型 + controlnet(学习客服姿势)
提示词就是官方的Demo这里就不放了,效果非常好
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。