赞
踩
从这一节开始开始我们正式开始学习 SD (Stable Diffusion)
第一节我们从 Web UI 开始讲解
基于使用最多的 文生图 模块来讲解
如果你使用是 SD,
那么你进入到 web ui 页面后可以看到下面这个页面
其中:
接下来会进一步的介绍每个模块的使用。
直白点说,
模型就是“模型训练师”们通过大量的图片进行训练得到的具备某种风格的模型。
我们使用某个模型后,
后续在出图的整体方向就会更靠近这个模型的风格。
你安装好之后默认可以看到两个模型
推荐的网站:
C站:civitai.com/ 需要魔法
www.aigodlike.com/ 如果没有魔法的话可以试试 这个 也不错
如果你学习过如何更好的编写 ChatGPT 的 prompt,
你会发现 Prompt 的编写都会遵守一定的范式,
这样得出来的效果才可能更贴近我们的想法。
选择完模型之后,
我们就可以给予这个模型风格,
告诉 SD prompt 画出什么样的图。
比如:直接告诉 SD 画一个女孩
虽然能出来一个 女孩,
emmm… 但是这个质量吧,还是很差的,
实事上呢,
是我们的 prompt 写的太差劲了 导致的
如果我们完善一点 (丰富一些 prompt )
会发现效果质量立竿见影;而我们只是加入了一些通用的 prompt 提示语
(masterpiece:1,2), best quality, masterpiece,best detail face
(((NSFW))), (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, (ugly:1.331), (duplicate:1.331), (morbid:1.21), (mutilated:1.21), (tranny:1.331), mutated hands, (poorly drawn hands:1.5), blurry, (bad anatomy:1.21), (bad proportions:1.331), extra limbs, (disfigured:1.331), (missing arms:1.331), (extra legs:1.331), (fused fingers:1.61051), (too many fingers:1.61051), (unclear eyes:1.331), lowers, bad hands, missing fingers, extra digit,bad hands, missing fingers, (((extra arms and legs))),
其中的一些细节,
比如 提示语的语法格式、公式、权重、模版和tag大全,我们会在 prompt 和 tag 课程中细讲。
有个比较有意思的 反向 tag 叫 NSFW(no sutiable for work)
一般情况尽量把这个加入到反向词中,特别是工作场合。不然惊喜可能随时都会出现(各种18+)…
想想在工作的时候,你信誓旦旦给你的同事来一张漂亮的小姐姐,结果…
如果你不太信的话,可以直接把 NSFW 放在正向里面试试…
采样区做的事就是,我们该用什么样的采样方式来画,画多少笔(多细致)
由于采样方式的原理比较深奥,涉及到很多的算法,我直接给结论,
我更加推荐使用下面这三个:
我们可以试试这三个不同采样方法的效果
整体的质量是非常好的,出图速度相对也会快很多
采样步数相当于是作画的时候画多少笔。
同样的也是先给结论,建议在 20-40之间,出图效果会更好。并不是越高越好
来看看效果
会发现步数到了60其实也还好,
但同时需要考虑到性价比,步数越高也就意味着耗费的资源会越多,对机器的配置会更高。
所以一般我们的步数设置到 20-40之间就可以了。
接着上节课,我们继续讲解 Stable Diffusion Web UI 的使用。
这节课我们会讲解 面部修复,高清修复和调参区的内容
面部修复的适用在画真人、三次元的场景,特别是在画全身的时候
一般在画全身,由于脸部占比的空间比较小,那么绘制出来的效果就会比较差
SD 支持直接一键进行脸部修复,但这效果可能不是非常好,也不是最终方案
举个例子:
模型选择:Realistic Vision V2.0 (如何下载模型可以参照课程
在没有开启面部修复的情况,脸部非常不自然(特别是在画全身的时候)
开启面部修复后:
出图的效果,脸部就自然了非常多
高清修复的原理相当于是把原分辨率的图放大进行绘制,
绘制结束后再做一个还原,从而达到脸部的优化。
这样对于电脑的资源消耗会更大。
其中有几个参数可以来说说:
我们可以来看看使用高清修复后优化的样子:
耗时要远大于不修复的出图时间,
但是效果也是比普通的面部修复要好。
主要是可以根据自己的需要调节参数。
如果我们把重绘幅度拉满,
会发现和原图就不太像了,甚至会… Emmm…
前面讲到的模型决定了出图的大方向
Prompt 决定了最终的图是什么样
调参区 则决定了一次出多少张图,分辨率以及随机性
当我们默认进入 SD Web UI 页面后的默认高度和宽度就是 512*512.
这是因为综合各方面来说这个分辨率的性价比是最高的
考虑到SD的最初模型几乎都是 512*512 ,
所以我们想要比较好的效果的时候,
至少应该要有个参数是在 512-768 之前,
这样出图的质量都可以得到保障。
设置的分辨率是:768*320
我们可以来思考一个问题,如果画一个全身的人出来?
第一反应是不是就是在 prompt 里面提出来对吧?
加上 full body ,我们可以来看看效果
出来的效果空间感很差,
为了不出现拉伸的情况,SD 会自动的做一些裁剪。
所以,我们可以调整分辨率来实现画全身的场景
这个看起来是不是就非常完美了!
当想要画全身的时候可以考虑用这种方式。
当然了,细心的同学们会发现,手指还是有问题,我们后续会讲到如何优化!
这个就很好理解了
(相当于有一个马路,生成批次决定了有几辆车按顺序通过,每批数量决定了有几个车道可以并行通过)
那我们选择哪种方式批量出图呢?
如果你的配置比较高,那么可以使用 每批数量 的方式出图,会更快。
否则就加大批次,每一批生成一个
可能会有同学发现前面我们出的图几乎都是一个样子。
只有细微的不同,这个就是固定了随机种子导致的。
默认随机种子的值是 -1,表示每次出图都会随机一个种子,根据这个种子进行出图。
如果我们想要固定某个形象,那么把对应种子的值填在这,那么每次出图的效果大致都会一样。
如果我们点开更多,会发现还有更多参数
感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。
AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。
一、AIGC所有方向的学习路线
AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、AIGC必备工具
工具都帮大家整理好了,安装就可直接上手!
三、最新AIGC学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。