赞
踩
英文原文:https://stable-diffusion-art.com/models/
Stable Diffusion模型或 checkpoint 模型是预先训练的稳定扩散权重,用于生成特定风格的图像。
模型生成什么样的图像取决于训练图像。如果训练数据中不存在猫,则模型将无法生成猫的图像。同样,如果您只用猫图像训练模型,它只会生成猫。
我们将介绍哪些模型、一些流行的模型以及如何安装、使用和合并它们。
微调是机器学习中的常用技术。它需要一个在宽数据集上训练的模型,并在窄数据集上进行更多训练。
经过微调的模型往往会生成与训练中使用的图像相似的图像。例如,Anything v3 模型是使用动漫图像进行训练的。因此,它默认生成动漫风格的图像。
稳定扩散基础模型很棒,但并不擅长所有事情。例如,它会在提示中生成带有关键字“anime”的动漫风格图像。然而,生成动漫子类型的图像可能很困难。您可以使用针对该子类型的图像进行微调的自定义模型,而不是修改提示。
下面的图像是使用相同的提示和设置但使用不同的模型生成的。
使用模型是实现某种风格的简单方法。
自定义检查点模型是通过 (1) 额外训练和 (2) Dreambooth 制作的。它们都以稳定扩散 v1.5 或 XL 等基本模型开始。
Additional training(额外的训练)是通过使用您感兴趣的附加数据集训练基本模型来实现的。例如,您可以使用老式汽车的附加数据集训练 Stable Diffusion v1.5,以使汽车的美感偏向老式子类型。
Dreambooth 由 Google 开发,是一种将自定义主题注入文本到图像模型的技术。它仅适用于 3-5 个自定义图像。您可以给自己拍几张照片,然后使用 Dreambooth 将自己放入模型中。使用 Dreambooth 训练的模型需要特殊的关键字来调节模型。
检查点模型并不是唯一的模型类型。我们还有文本反转(也称为嵌入)、LoRA、LyCORIS 和hypernetwork。我们将在本文中重点讨论检查点模型。
有数千个经过微调的稳定扩散模型。这个数字每天都在增加。以下是可用于一般用途的模型列表。
v1.4 模型由 Stability AI 于 2022 年 8 月发布,是第一个公开可用的稳定扩散模型。
它是一种通用模型,能够生产各种款式。
自 v1.5 版本发布以来,大多数人都已转向该版本。
v1.5 由 Stability AI 合作伙伴 Runway ML 于 2022 年 10 月发布。该模型基于 v1.2 进行了进一步训练。
模型页面没有提及改进是什么。与 v1.4 相比,它产生的结果略有不同,但尚不清楚它们是否更好。
与 v1.4 一样,您可以将 v1.5 视为通用模型。根据我的经验,v1.5 作为初始模型是一个不错的选择,并且可以与 v1.4 互换使用。
Realistic Vision v2 适合生成任何真实的东西,无论是人、物体还是场景。
详细了解如何生成现实的人。
Dreamshaper 模型针对介于照片写实和计算机图形之间的肖像插画风格进行了微调。它很容易使用,如果你喜欢这种风格,你就会喜欢它。
SDXL 模型是著名的 v1.5 和被遗忘的 v2 模型的升级版。
使用 SDXL 模型的好处是
Anything V3 是一种经过训练可生成高质量动漫风格图像的特殊用途模型。您可以在文本提示中使用 danbooru 标签(例如 1girl、白发)。
它可以将名人塑造成胺风格,然后与插画元素完美融合。
它的一个缺点(至少对我来说是这样)是生产出的女性体形比例失调。我喜欢用 F222 来调和它。
有数千种可用的稳定扩散模型。其中许多是专用模型,旨在生成特定风格。你应该从哪里开始?
除了我刚才提到的这些,以下是我经常使用的一些最佳模型。
Deliberate v2 是另一个必备模型(很多!),可以渲染逼真的插图。结果可能出奇的好。每当您有良好的提示时,请切换到此模型,看看您会得到什么!
F222 最初是为了生成裸体而训练的,但人们发现它有助于生成具有正确身体部位关系的美丽女性肖像。与您可能想象的相反,它非常擅长生成美观的服装。
F222适合拍摄人像。它很容易产生裸体。在提示中包含“连衣裙”和“牛仔裤”等服装术语。
在这篇文章中找到更真实的照片风格模型。
ChilloutMix 是一个用于生成照片质量的亚洲女性的特殊模型。它就像 F222 的亚洲版本。与韩语嵌入 ulzzang-6500-v1 一起使用来生成像 k-pop 这样的女孩。
与 F222 一样,它有时会生成裸体。在提示中抑制“dress”和“jeans”等衣柜术语,在否定提示中抑制“nude”。
Protogen v2.2 非常经典。它生成具有良好品味的插图和动漫风格图像。
GhostMix 采用 90 年代经典动漫《攻壳机动队》风格进行训练。您会发现它对于生成机器人和机器人很有用。
Waifu Diffusion 是一种日本动漫风格。
Inkpunk Diffusion 是一个经过 Dreambooth 训练的模型,具有非常独特的插画风格。
使用关键字:nvinkpunk
Civitai 是下载模型的首选地点。
Huggingface 是另一个很好的来源,尽管该界面不是为稳定扩散模型设计的。
Stable Diffusion v2 是两个官方的 Stable Diffusion 模型。 v2模型的主要变化是
您可能会假设每个人都已从 v1.5 开始使用 v2 模型。然而,稳定扩散社区发现 2.0 模型中的图像看起来更糟。人们也很难使用名人和艺术家名字等强大的关键词。
2.1 模型部分解决了这些问题。开箱后的图像看起来更好。更容易产生艺术风格。
现在,大多数人不使用 v2 模型。我们使用 v1 和 SDXL。但如果您想尝试 v2 模型,请查看这些提示以避免常见的挫败感。
这些说明适用于 v1 和 SDXL 型号。
要在 AUTOMATIC1111 GUI 中安装模型,请下载检查点模型文件并将其放置在以下文件夹中
stable-diffusion-webui/models/Stable-diffusion/
按左上角检查点下拉框旁边的重新加载按钮。
您应该会看到刚刚放入的检查点文件可供选择。选择新的检查点文件以使用该模型。
或者,选择 txt2img 或 img2img 页面上的检查点选项卡并选择模型。
如果您不熟悉 AUTOMATIC1111 GUI,快速入门指南中包含的 Colab 笔记本中已预加载了一些模型。
有关使用 SDXL 模型的信息,请参阅 SDXL 文章。
某些模型建议使用不同的“CLIP Skip”设置。您应该遵循此设置以获得预期的样式。
CLIP Skip 是一项功能,可在稳定扩散的图像生成过程中跳过 CLIP 文本嵌入网络中的最后一些层。 CLIP 是 Stable Diffusion v1.5 模型中使用的语言模型。它将提示中的文本标记转换为嵌入。它是一个包含许多层的深度神经网络模型。 CLIP Skip 指的是要跳过最后几层。
在 AUTOMATIC1111 和许多稳定扩散软件中,CLIP Skip of 1 不会跳过任何层。 CLIP Skip of 2 跳过最后一层,依此类推。
为什么要跳过一些 CLIP 层?神经网络在信息通过各层时对其进行总结。越早的层,包含的信息越丰富。
跳过 CLIP 图层会对图像产生巨大的影响。许多动漫模型都是使用 CLIP Skip 2 进行训练的。请参阅下面的示例,其中使用了不同的 CLIP Skip 但具有相同的提示和种子。
更改任何内容的剪辑跳过 v3. (CLIP 跳过建议为 2。)
您可以在“Settings” 页面>“Stable Diffusion”>“Clip Skip”中设置“Clip Skip”。调整值并单击Apply Settings。
但如果您需要定期更改 CLIP Skip,更好的方法是将其添加到“快速设置”中。转至Settings页面 > User Interface > Quicksettings list.。添加 CLIP_stop_at_last_layer。单击应用设置并重新加载 UI。
Clip Skip滑块应出现在 AUTOMATIC1111 的顶部。
用于合并两个模型的设置。
要使用 AUTOMATIC1111 GUI 合并两个模型,请转至Checkpoint Merger并选项卡,然后在Primary model (A) 和Secondary model (B) 中选择要合并的两个模型。
调整乘数(M)来调整两个模型的相对权重。将其设置为 0.5 会将两个具有同等重要性的模型合并。
按“运行”后,新的合并模型将可供使用。
以下是将 F222 和 Anything V3 合并为相同权重 (0.5) 的示例图像:
比较 F222、Anything V3 和 Merged(各 50%)
合并后的模型介于现实的 F222 和动画 Anything V3 风格之间。它是生成人物插画艺术的一个非常好的模型。
在模型下载页面上,您可能会看到多种模型文件格式。
这很令人困惑!您应该下载哪一个?
一些稳定扩散检查点模型由两组权重组成:(1) 最后一个训练步骤后的权重和 (2) 最后几个训练步骤的平均权重,称为 EMA(exponential moving average指数移动平均值)。
如果您只想使用该模型,则可以下载仅 EMA 模型。这些是您使用模型时使用的权重。它们有时被称为pruned models(修剪模型)。
如果您想通过额外的训练来微调模型,则只需要full model(即由两组权重组成的检查点文件)。
因此,如果您想使用 pruned 或 EMA-Only 模型来生成图像,请下载它。这可以节省一些磁盘空间。相信我,您的硬盘很快就会填满!
FP代表浮点数。这是计算机存储十进制数的方式。这里的小数是模型权重。 FP16 每个数字占用 16 位,称为半精度。 FP32 采用 32 位,称为全精度。
深度学习模型(例如稳定扩散)的训练数据非常嘈杂。您很少需要全精度模型。额外的精度只会存储噪音!
因此,请下载 FP16 模型(如果有)。它们大约有一半大。这可以为您节省几GB!
原始的pytorch模型格式是.pt。这种格式的缺点是不安全。有人可以在其中打包恶意代码。当您使用该模型时,代码可以在您的机器上运行。
Safetensors 是 PT 模型格式的改进版本。它的作用与存储权重相同,但不会执行任何代码
因此,请在可用时下载 safetensors 版本。如果没有,请从可信来源下载 PT 文件。
四种主要类型的文件可以称为“模型”。让我们澄清一下,这样你就知道人们在谈论什么。
我介绍了稳定扩散模型、它们是如何制作的、一些常见的以及如何合并它们。当您心中有特定的风格时,使用模型可以让您的生活更轻松。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。