当前位置:   article > 正文

Stable Diffusion教程|一篇讲透Controlnet实用高阶组合用法_stable diffusion 布局 控制

stable diffusion 布局 控制

本文将教会你,如何利用多个controlnet组合以及一些最新的SD插件,来精准的控制画面,生成角色三视图、光源和颜色控制、替换背景,控制手脚完美生成等极具实用性的高级技巧,更多内容详见目录。

笔者研究了不同的controlnet组合和参数调整,踩了无数的坑,总结了本篇,只要肯学,就一定给你带来意想不到的收获!

目录

1 单个controlnet配合插件的高级用法

1.1 角色三视图生产

1.2 精准控制光源

1.3 颜色控制画面
1.4 一键换背景
1.5 更精准的图生图控制

2 多个controlnet的组合用法

2.控制手脚完美生成

2.2 人物和背景分别控制生成

2.风格融合

2.4 分块控制

3 其他相关插件的用法

3.1 生成多人画面更精准分块控制

一、单个controlnet配合插件的高级用法

1角色三视图生产

Step1 找一张openpose的三视图

下载我这张即可:

图片

Step2 选择controlnet模型和参数配置

图片

Step3 输入咒语提示词+三视图Lora模型

高质量最好的质量,杰作best quality,masterpiece
人物男/女,发型,衣服1 girl,Braids, dresses
三视图关键词单人,(简单背景,白色背景:1.3),多个视图solo,(simple background,white background:1.3),multiple views

提示词1:

best quality,masterpiece,1 girl,Braids, dresses,solo,(simple background,white background:1.3),multiple views

提示词2:

masterpiece, best quality, mecha, no humans, black armor, blue eyes, science fiction, fire, laser canon beam, war, conflict, simple background, (white background:1.2)

Lora模型:

图片

模型名称:CharTurnerBeta

下载地址:2选1

https://civitai.com/models/7252/charturnerbeta-lora-experimental

https://www.liblib.art/modelinfo/dd506630e75364658286220cce8a554d

lora权重:0.3左右,选择高清修复重绘0.5:

图片

效果展示:

图片

图片

2精准控制光源

Step1 先用SD画一张图片

图片

Step2 找一些光源图素材

如下:

图片

图片

step3 通过图生图+controlnet-depth 组合

图片

生成对应对应光源风格的图片:

图片

图片

Tips:图生图的时候,controlnet里面的图需要SD生成的,并且提示词和其他参数,包括种子数,需要和原图保持一致。

3颜色控制画面

主要通过contentnet-segmentation语义分割模型来实现。

step1 不同颜色对应不同的类型

图片

图片

图片

step2 设置segmentation模型

1 随便找一张风景素材图上传到controlnet

模型选择:为了提高准确性,建议使用 seg_ofade20k 和 seg_ofcoco 而不是 seg_ufade20k。

3 点击大爆炸,语义分割

4 可以看到,深蓝色区域-海水,土黄色区域-沙滩,天蓝色区域-天空,参考上文的颜色图表。(你当然也可以自己用PS用不同色块画出来,涂鸦都行)

图片

step3 精准生成图片或修改局部内容

图片

提示词:best quality,masterpiece,blue sky,baiyun,ocean,white beach,green tree,

生成图片:

图片

图片

涂鸦一条船生成图片:

图片

提示词:best quality,masterpiece,blue sky,baiyun,ocean,white beach,green tree,a boat,

无需预处理:

图片

这样就指定的位置多了一条船,风格不变:

图片

4一键换背景

step1 图生图模型,保持原图的所有参数,只在提示词里面替换或新增目标背景的描述。

提示词:

best quality,masterpiece,1girl,half-body photo,future clothing,future style of technology,grassland background,

图片

step2 启用controlnet-depth ,无需传图,选择depth_leres++预处理,参数Remove Background % =(50%~75%最佳)

图片

step3 生成图片,效果如下:

图片

由于替换了大模型风格和之前不同了,另外衣服颜色和头发也有所改变,如果只换背景,人物变化极小,那就需要 Reference。

step4 启动第二个controlnet,上传原图,并使用Reference,配置如下图。

图片

生成效果如下:

图片

二、多个controlnet的组合用法

1更精准的图生图控制

技巧是 canny+depth组合

step1 图生图模式,选一个照片切换风格

切换模型或添加风格提示词或添加lora:

图片

step2 启用1controlnet-canny

图片

step3 启用2controlnet-depth,生成图片

 

图片

生成不同风格,但人物造型保持了一致。

图片

2控制手脚完美生成

技巧是使用 openpose+canny+depth组合生成图片。

step1 启用1controlnet,选择openpose,控制人物脸部和姿态。

图片

step2 通过插件制作手的深度图,下载图片

安装插件:深度图编辑器插件
下载地址:https://github.com/wywywywy/sd-webui-depth-lib.git

图片

step3 启用2controlnet,选择canny,导入手的深度图

图片

step4 启用2controlnet,选择depth,导入手的深度图

图片

step5 输入关键词,生成图片

图片

图片

3人物和背景分别控制生成

技巧是使用。人物openpose+背景depth组合生成图片。

step1 启用1controlnet,选择openpose,控制人物脸部和姿态。

图片

step2 启用2controlnet,选择depth,选择背景图片。

图片

step3 输入提示词,生成图片。

图片

图片

4风格融合

通过风格图片+主图线稿,生成各种风格的装修风格(有点像把一张图当成lora)

step1 模型下载,放在controlnet模型文件夹

https://huggingface.co/TencentARC/T2I-Adapter/tree/main/models

图片

step2 启用1controlnet,选择canny或者MLSD,导入装修线稿

图片

图片

step3 启用2controlnet,选T2I-Adapter,导入风格图片

图片

图片

图片

step4 不用提示词,直接生成图片

图片

普通线稿

图片

无风格上色

图片

梵高风格

图片

宇宙风格

图片

罗马风格

6分块控制

同两个canny组合一张图。

step1 启用1controlnet,选择canny,导入一只猫

图片

step2 启用2controlnet,选择canny,导入一条狗

图片

图片

三、其他相关插件的用法

1生成多人画面更精准分块控制

技巧是通过 Latent couple、Composable LoRA、openpose插件,来控制人物数量、比例、不同人物的不同风格。

step1 两个插件的下载地址:

Latent couple: 

https://github.com/opparco/stable-diffusion-webui-two-shot 

Composable LoRA: 

https://github.com/opparco/stable-diffusion-webui-composable-lora

step2 设置人物位置和比例

图片

step3 多人提示词写法

图片

step4 设置每个人的openpose,生成图片

图片

图片

人物都没问题了,但手指存在问题,后续详细介绍手指的修复!

这是一位SD资深大神整理的,100款Stable Diffusion超实用插件,涵盖目前几乎所有的,主流插件需求。

全文超过4000字。

我把它们整理成更适合大家下载安装的【压缩包】,无需梯子,并根据具体的内容,拆解成一二级目录,以方便大家查阅使用。

单单排版就差不多花费1个小时。

希望能让大家在使用Stable Diffusion工具时,可以更好、更快的获得自己想要的答案,以上。

如果感觉有用,帮忙点个支持,谢谢了。

想要原版100款插件整合包的小伙伴,可以来点击下方插件直接免费获取

img

100款Stable Diffusion插件:

面部&手部修复插件:After Detailer

在我们出图的时候,最头疼的就是出的图哪有满意,就是手部经常崩坏。只要放到 ControlNet 里面再修复。

现在我们只需要在出图的时候启动 Adetailer 就可以很大程度上修复脸部和手部的崩坏问题

img

AI换脸插件:sd-webui-roop

换脸插件,只需要提供一张照片,就可以将一张脸替换到另一个人物上,这在娱乐和创作中非常受欢迎。

img

模型预设管理器:Model Preset Manager

这个插件可以轻松的创建、组织和共享模型预设。有了这个功能,就不再需要记住每个模型的最佳 cfg_scale、实现卡通或现实风格的特定触发词,或者为特定图像类型产生令人印象深刻的结果的设置!

img

现代主题:Lobe Theme

已经被赞爆的现代化 Web UI 主题。相比传统的 Web UI 体验性大大加强。

img

提示词自动补齐插件:Tag Complete

使用这个插件可以直接输入中文,调取对应的英文提示词。并且能够根据未写完的英文提示词提供补全选项,在键盘上按↓箭头选择,按 enter 键选中

img

提示词翻译插件:sd-webui-bilingual-localization

这个插件提供双语翻译功能,使得界面可以支持两种语言,对于双语用户来说是一个很有用的功能。

img

提示词库:sd-webui-oldsix-prompt

提供提示词功能,可能帮助用户更好地指导图像生成的方向。

上千个提示词,无需英文基础快速输入提示词,该词库还在不断更新。

以后再也不担心英文写出不卡住思路了!

img

由于篇幅原因,有需要完整版Stable Diffusion插件库的小伙伴,点击下方插件即可免费领取

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/622335
推荐阅读
相关标签
  

闽ICP备14008679号