赞
踩
大家好,我是雄雄,欢迎关注微信公众号:雄雄的小课堂
Stable Diffusion
是⼀种深度学习模型,主要⽤于将⽂本描述转化为详细的图像,也可以应⽤于其他图像处理任务 。 这个模型由创业公司Stability AI
与学术研究者合作开发,使⽤了⼀种称为潜在扩散模型(LDM)
的扩散模型。最近正好有个活动,参与体验了下阿里云的Stable Diffusion
,再此记录一下遇到的问题。
从大的方向,我们可以分为如上三个功能块,分别为:模型区、参数调整区以及生成结果区域,下面我们来分别看一下以上三个区域功能如何使用,尤其是参数调整区,核心中的核心,参数调好了,结果就是想要的,参数调整不好了,结果奇丑无比。
对于自然语言上特化训练的模型,建议使用描述物体的橘子座位提示词,补课太过于复杂,不然机器不一定能理解,可能会导致在解析上出现偏差
注意
一般来说,靠前的词汇权重会高。所以,最想实现的效果,在最前面写上,紧接着后面跟上修饰词,多个提示提之间用英文的逗号隔开(逗号前权重高)
文生图的精髓在于提示词,提示词写的好,效果就越好,提示词写的不好,效果图就不好。
比如内容型的提示词,我们可以这样写:
1. 人物主体特征:
服饰穿搭 white dress
发型发⾊ blonde hair, long hair
五官特点 small eyes, big mouth
⾯部表情 smile
肢体动作 stretching arms
2. 场景特征:
室内、室外 indoor / outcloor
⼤场景 forest, city, street
⼩细节 tree, bush, white flower
3. 环境光照:
⽩天⿊夜 day / night
特定时段 morning, sunset
光环境 sunlight, bright, dark
天空 blue sky, starry sky
4. 画幅视角:
距离 close-up, distant
⼈物⽐例 full body, upper body
观察视⻆ from above, view of back
镜头类型 wide angle, Sony A7
5. 通用高画质
best quality, ultra-detailed, masterpiece, hires, 8k
6.特定搞分辨率类型
extremely detailed CG unity 8k wallpaper(超精细的8K Unity游戏CG)
unreal engine rendered (虚幻引擎渲染)
7.花粉提示词
插画风: ilustration, painting, paintbrush
二次元:anime, comic, gamre CG
写实系:photorealistic, realistic, photograph
温馨提示:”
必要的时候,可以借助chatgpt
来实现提示词的罗列,比如:我们么想要绘制一幅女孩在咖啡馆里看书的画面,但不知道如何描述这个场景,那么我们借助chatgpt
来提供灵感,如下:
可以看出来,生成的内容,还是很不错的。
上面我们介绍了下正向提示词,但是我们可以看到界面上还有个反向提示词的概念,那么,什么是反向提示词?
正向提示词内输⼊的东⻄是想要⽣成的作品,
反向提示词内输⼊的是不希望画⾯⽣成的内容。
鉴于我们所使⽤的多种模型包含⼤量训练图⽚,其中可能存在⼤量低质量图像信息,因此我们需要通过输⼊反向提示词来排除这些内容。
我们可以将常见的一些反向提示词整理出来输入上去:
lowers, error, cropped, worst quality, low quality, jpeg artifacts, out of frame, watermark, signature
deformed, ugly, mutilated, disfigured, text, extra limbs, face cut, head cut, extra
fingers, extra arms, poorly drawn face, mutation, bad proportions, cropped head, malformed limbs, mutated hands, fused fingers, long neck
illustration, painting, drawing, art,
sketch
就是这个地方的选项,可以看到,有非常之多…一时都无从下手。其实我们常用的就三种,分别为:
DPM
系列更接近真实世界的效果,Euler
系列会让真实感减弱同事更加富有艺术感
各个采样器之间的对比如下图所示:
⼀般来说采样迭代步数保持在 18-30 左右即可。低的采样步数会导致画⾯计算不完整,⾼的采样步数仅在细节处进⾏优化,对⽐输出速度得不偿失。默认值为25,可以适应于大部分的生产场景。
那么,我们应该如何选择迭代步数呢?下面是一些参考建议:
为恢复脸部缺陷⽽训练的附加模型。
将⽣成的图⽚拼接在⼀起
通俗来说,就是以重新绘制的⽅式对图像进⾏放⼤,并且在放⼤的同时补充⼀些细节。
默认为512512,我们这边可以设置800800的,效果要相对好点儿。
单批次数:代表生成的批次
单批数量:代表每批生成的图像数量
如果我们将单批次数设置为2,单批数量设置为4,则出来的图片数量就为2*4=8张。(建议生成的批次高点,单批数量少点儿,这样速度快)
该值越低时,产⽣越有创意的结果;反之如果该参数越⾼会使得SD尽量去⽣成与Prompt ⼀致的结果。
一般选择7就行。
CFG ⽐例可以分为不同的范围:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。