赞
踩
稳定扩散算法(stable diffusion)可以应用于图像处理中的许多问题,例如图像去噪、图像分割、图像增强和图像恢复等。在图像去噪方面,稳定扩散算法可以通过对图像进行平滑处理来减少噪声,并保留图像的细节信息。在图像分割方面,稳定扩散算法可以通过对图像进行聚类来将图像分成不同的区域。在图像增强方面,稳定扩散算法可以通过增加图像的对比度和亮度来使图像更加清晰。在图像恢复方面,稳定扩散算法可以通过重建缺失的像素来恢复图像的完整性。
再次感谢B站秋叶大佬的整合包,小白也能放心食用,B站秋叶大佬 一键三连
链接:https://pan.baidu.com/s/1r8nv5CbYRI4p6QSue5zeoA 提取码:lj33
下面介绍使用的细节
模型里面的文件复制放入
预处理器里的download放入
masterpiece,best quality,
lowres,bad anatomy,bad hands,text,error,missing fingers,extra digit,fewer digits,cropped,worst quality,low quality,normal quality,jpeg artifacts,signature,watermark,username,blurry
正向反向提示词,如果要加大提示词比重,(word:1.5) - 将权重提高 1.5 倍
Euler a(Eular ancestral)可以以较少的步数产生很大的多样性,不同的步数可能有不同的结果。
DPM 相关的采样器通常具有不错的效果,但耗时也会相应增加。
Euler 是最简单、最快的
Euler a 更多样,不同步数可以生产出不同的图片。但是太高步数 (>30) 效果不会更好。
DDIM 收敛快,但效率相对较低,因为需要很多 step 才能获得好的结果,适合在重绘时候使用。
LMS 是 Euler 的衍生,它们使用一种相关但稍有不同的方法(平均过去的几个步骤以提高准确性)。大概 30 step 可以得到稳定结果
PLMS 是 Euler 的衍生,可以更好地处理神经网络结构中的奇异性。
DPM2 是一种神奇的方法,它旨在改进 DDIM,减少步骤以获得良好的结果。它需要每一步运行两次去噪,它的速度大约是 DDIM 的两倍,生图效果也非常好。但是如果你在进行调试提示词的实验,这个采样器可能会有点慢了。
UniPC 效果较好且速度非常快,对平面、卡通的表现较好,推荐使用。
推荐 Euler a ,DPM2++2M Karras,DPM2++SDE Karras
Stable Diffusion 的工作方式是从以随机高斯噪声起步,向符合提示的图像一步步降噪接近。随着步数增多,可以得到对目标更小、更精确的图像。但增加步数也会增加生成图像所需的时间。增加步数的边际收益递减,取决于采样器。一般开到 20~30。
Controlnet 允许通过线稿、动作识别、深度信息等对生成的图像进行控制。
预处理器(只是一部分)
controlnet1.1模型
线稿上色
Invert Input Color
control_v11p_sd15s2_lineart_anime
control_v1le_sd15_ip2p
提示词需要写指令,例如make it night变为夜晚同时,可以也增加一些夜晚的tag。这个需要调低CFG,低到5以下,不稳定,酌情使用
tile_resample
control_v11fle_sd15_tile
神必特性:
·忽略图像中的细节并生成新的细节
·如果局部的内容与全局提示词不匹配,则忽略掉提示词,根据周围的图片尝试去推断局部的内容
带来的效果:
·图生图的功能,让画面更好的融合的功能(比如P上去一个物品,Tie可以推断周围融合)
·增加细节的功能
如果你直接拉大分辨率再用Tle,那他就可以有放大图片的功能
·配合其他图片放大器(例如后处理里面的放大,可以很好的修复因为放大导致的细节问题
姿态控制
openpose + control_openpose
还可以对姿态编辑,在扩展下载openpoe,对姿态图关键点拖动成自己想要的姿势
嵌入式(Embedding)模型:yaguru magiku +LORA:GuoFeng3.2 Lora
模型能够有效地控制生成的画风和内容。 常用的模型网站有:
Civitai | Stable Diffusion models, embeddings, hypernetworks and more Models - Hugging Face SD - WebUI 资源站 元素法典 AI 模型收集站 - AI 绘图指南 wiki (aiguidebook.top) [AI 绘画模型博物馆 (subrecovery.top)]
下载模型后需要将之放置在指定的目录下,请注意,不同类型的模型应该拖放到不同的目录下。 模型的类型可以通过Stable Diffusion 法术解析检测。
对人物、姿势、物体表现较好的模型,在 ckpt 模型上附加使用。 在 webui 界面的 Additional Networks 下勾线 Enable 启用,然后在 Model 下选择模型,并可用 Weight 调整权重。权重越大,该 Lora 的影响也越大。 不建议权重过大(超过 1.2),否则很容易出现扭曲的结果。
多个 lora 模型混合使用可以起到叠加效果,譬如一个控制面部的 lora 配合一个控制画风的 lora 就可以生成具有特定画风的特定人物。 因此可以使用多个专注于不同方面优化的 Lora,分别调整权重,结合出自己想要实现的效果。
LoHA 模型是一种 LORA 模型的改进。
LoCon 模型也一种 LORA 模型的改进,泛化能力更强。
对人物、画风都有调整效果的模型。在提示词中加入对应的关键词即可。大部分 Embedding 模型的关键词与文件名相同,譬如一个名为为“SomeCharacter.pt”的模型,触发它的关键词检索“SomeCharacter”。
栗子:1024x1024—》3072x3072
LOAR模型:就是别人训练好的模型,加载别人的模型就会使自己生成图片往别人训练好的风格上调整
启动器界面提供了LORA模型下载,或者去c站下载放到models/Lora 目录下,上面说过。重启客户端
随便写点提示词,之前的正反向提示词,使用一个国风模型,或者Additional Networks启用LORA
GuoFeng3.2 Lora 结果:为啥图片这么顶呢,绝对没有搞yellow
hanfu-v3.0-ming
hanfu-v3.0-song
MoXin-1.0
RainbowLinesStyle-linev1
Shukezouma-1.1
现在使用的大模型anything-v5-PrtRE
Counterfeit-V2.5
Pastel-Mix
AbyssOrangeMix2
Cetus-Mix
右上角可以选择不同的模型下载,然后放到模型文件路径下,前面讲过不同模型路径放置
将参数填入我们的界面中
majicMIX realistic 大模型
如果你要图片信息,下图操作,然后发送到文生图
majicMIX realistic +FilmGirl(LORA)
majicMIX fantasy
nwsj_realistic
用于图像分割的然后可以输入提示词变成你想要的样子,类似于p图,下面是github地址,里面有详细文档,下载代码和权重文件即可,8G显存选vit_l 1.25GB,分别放入
\sd-webui-aki-v4\extensions
\sd-webui-aki-v4\extensions\sd-webui-segment-anything-master\models\sam
https://github.com/continue-revolution/sd-webui-segment-anything
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。