赞
踩
在上一篇文章中,我为大家详细介绍了Stable Diffusion中一个非常有用的插件,名为ADetailer。
这个插件主要用于修复面部问题并为面部和手增加细节。目前,ADetailer包含了14个不同的模型,每个模型都有其独特的用途。我已经对其中大部分模型进行了对比分析。但有一个特殊的模型——DeepFashion,我之前并未介绍,因为它与其他模型有所不同。在这篇文章中,我将详细介绍DeepFashion。
DeepFashion模型的核心功能是处理服装。这个模型的数据集包括来自13个流行服装类别的80多万件服装。使用DeepFashion模型,ADetailer能够检测图像中的服装,并进行分割,以便进行单独处理。
我们都知道,Stable Diffusion的自然语言理解能力较弱,无法与DALL-E和Midjourney相提并论。例如,使用SDXL模型生成的这张图片,其提示词是“1位女孩,面带微笑,晨光打在脸上,黑色丝质吊带衫,领口处有精致的蕾丝边,酒红色格子高腰半身裙,全身拍摄,凉鞋,古色古香的鹅卵石街道,景深,虚化”。但是,女孩裙子上的格子图案并没有被体现出来。提示词越长,遗漏的细节就越多。
而使用DeepFashion后,可以看到明显的改进,如裙子上的格子图案就被准确体现出来了。
再比如,解决提示词污染的问题。例如,一张图片的背景是柠檬黄色,但Stable Diffusion可能会错误地将柠檬图案应用到女孩的裙子上,如下图所示:
这时,使用DeepFashion可以有效解决这一问题。它会将裙子单独分离出来,并使用专门的提示词进行描述。这样,如果提示词中不包含“柠檬”,裙子上就不会出现柠檬图案。
以下是DeepFashion模型的详细安装过程:
首先,确保已经安装了Adetailer插件。如果尚未安装,可以参考上一篇文章中的步骤进行安装。安装Adetailer是使用DeepFashion的前提条件。
安装Adetailer插件后,DeepFashion模型不会自动出现在模型列表中。要使用DeepFashion,您需要手动下载它。模型的下载链接是:
https://huggingface.co/Bingsu/adetailer/tree/main。
如果无法通过链接下载,请看文末获取本地插件安装包
在浏览器中输入下载地址后,你将被引导至HuggingFace下载页面。在这里,所有可用的模型都会被列出,你可以找到位于列表首位的DeepFashion模型。旁边有一个下载按钮,点击该按钮开始下载。
下载完成后,将下载的模型文件移动到Stable Diffusion的 “webui/models/adetailer” 文件夹内。这一步骤是必要的,以确保WebUI能够正确识别并加载模型。
将DeepFashion模型文件放置在正确的文件夹后,需要重启WebUI。重启后,DeepFashion模型应该出现在Adetailer的模型列表中,这意味着它已经准备好使用了。
安装完成以后,让我们通过两个案例,身临其境,体验DeepFashion的用法。
打开WebUI界面。
选择模型:“MajicmixRealistic”(在下一个案例中将使用SDXL模型)。
提示词内容:“在现代艺术画廊里穿着亮片裙子的女孩儿”。
根据需要调整其他参数。
点击“生成”查看效果。
为了更好地说明问题,我生成了几张不同的图片。从中选取了三张展示出来。可以看到,衣服上的亮片或金色部分错误地出现在了背景中。
首先生成一张衣服上没有亮片图案的底图。
指定裙子的颜色为黄色,以避免生成黑色裙子导致亮片不明显。
将“gold sequin pattern”从提示词中剪切出来,稍后在Adetailer中使用。
固定随机种子,勾选Adetailer插件。
在Adetailer的模型列表里选择DeepFashion。
使用刚才剪切的“gold sequin pattern”作为提示词。
生成图片,并观察过程:
Stable Diffusion首先根据随机种子生成底图。
DeepFashion接管,识别裙子,并对其进行标注和处理。
4️⃣ 调整去噪强度以改善效果:
如果亮片效果不足,可将去噪强度调至0.7再生成,观察效果。
如需更多亮片,继续将参数调至0.8。
DeepFashion能够有效地将服装从图片中分离出来进行单独处理,解决了提示词污染问题。这种技术特别适用于那些Stable Diffusion可能无法准确理解和渲染的复杂场景。
例如,使用albedobaseXL模型生成的图片中,绿色的裙子和柠檬黄的背景被准确分离,没有出现混淆。
而使用dreamshaperXL-Turbo模型生成的图片就出现了问题,背景中的柠檬黄色错误地出现在了裙子上。
在这种情况下,DeepFashion就显现出了其优越性,能够准确地处理和优化图片中的服装元素。
通过这个案例,我们可以看到,DeepFashion不仅提高了Stable Diffusion生成图像的质量,也为我们在图像生成过程中提供了更多的控制和创造力。
在Stable Diffusion的应用中,尤其是使用SDXL模型时,我们经常遇到提示词污染问题,特别是在处理颜色时。让我们通过一个实际案例,探索如何使用DeepFashion来解决这一挑战。
模型选择:更换为SDXL模型。
提示词设定:“年轻模特,时尚摄影,无袖祖母绿 A 字连衣裙,花朵蕾丝装饰,柠檬黄背景,漂浮的白色气球”。
分辨率:设为832x1216。
第一次重新生成:去除了绿色气球,但仍有黄色气球。
第二次重新生成:问题更加夸张,裙子上出现了花朵。
通过这个案例,我们看到了SDXL模型在处理特定颜色和元素时的挑战。虽然重复生成图片可能会带来一些改进,但结果仍然不稳定,且不符合我们的预期。为了解决这一问题,DeepFashion插件就显得尤为重要。
在接下来的内容中,我将展示如何使用DeepFashion来精确控制图像中的颜色元素,确保生成的图像更加符合我们的预期。
简化提示词:去掉“蕾丝装饰”。
在“裙子”和“柠檬黄背景”之后加入“BREAK”关键词。
2️⃣ 多次尝试改进:
再次生成:裙子和气球颜色正确,但背景色仍然不准确。
最后一次尝试:颜色终于正确,但方法不稳定,依赖运气。
我们用抽卡的方式实现了想要的效果。但是可以看到,这种方法不稳定,得靠运气。接下来我们用DeepFashion实现更可控的效果。
删除提示词中的“祖母绿”,准备稍后通过DeepFashion进行调整。
生成图片,确保背景和气球颜色正确。
固定随机种子。
启用Adetailer插件,选择DeepFashion模型。
添加描述:“祖母绿无袖 A 字裙,花朵蕾丝”。
3️⃣ 增强效果:
4️⃣ 微调蒙版处理:
DeepFashion作为Adetailer中的一个独特模型,可以独立处理服装,从而避免提示词污染问题,同时为服装增加细节。它不仅支持SD1.5模型,还支持SDXL模型。当你需要处理服装时,DeepFashion是一个值得考虑的选择。
感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。
AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。
一、AIGC所有方向的学习路线
AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、AIGC必备工具
工具都帮大家整理好了,安装就可直接上手!
三、最新AIGC学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。