当前位置:   article > 正文

AI绘画:多种XP一次满足(Stable Diffusion进阶篇:模型训练)

AI绘画:多种XP一次满足(Stable Diffusion进阶篇:模型训练)

前言

今天,是一个比较特殊的日子。

从我开始学习AI绘画开始到现在AI工具相关的笔记我已经写了50篇了,其中估摸着得近40篇都是关于Stable Diffusion的。

在这一天天的学习中我感受到了对知识的疲倦,是时候给自己来点奖励了!

所以!

今天开始和后续的一系列笔记内容将跟随小33学习如何训练出一个自己的Stable Diffusion模型,就像是用自己的双手捏出一个自己心目中的“伴侣”一样。

我知道很多人一直期待着这个环节,但是捏一个自己想要的模型并不是一件简单的事情,需要有足够的基本功作为铺垫。

今天!正是时候!

让我们废话少说,一起踏上“寻找理想伴侣”的旅程吧!

Stable Diffusion

AI绘画其实有很多家AI公司参与,旗下都有着自己的旗舰产品(Midjourney之类),但是为什么唯独是Stable Diffusion名气最响受众最广呢?

其中一个原因是它免费开源,还有一个原因则是Stable Diffusion有着包罗万象的模型生态。

像是以往封面的图片以及学习中所使用过的模型,超过99%都是由个人用户训练出来的微调模型。

像这样的

这些模型不仅弥补了原版模型绘制精度不足的局限性,还能让任何想要的人物、风景、物品出现在AI生成的作品里。这也一定程度上让AI绘画摆脱了抽卡式的随机性,这也是SD与其他的“闭源”图像生成应用的最大区别之一。

机器学习与模型训练

人工智能领域有一个专业词汇被称为“机器学习”,机器学习支持用户向计算机算法输送大量数据,让计算机分析这些数据后根据输入的数据给出数据驱动型建议和决策。

而我们提供数据和引导机器学习的过程就是“训练”,训练的结果是让AI得到我们想到他学到的“知识”,这个知识就是模型。后续用模型来解决问题的过程被称为推理。

图中的训练数据集就是要让AI学习的资料,而得到的新数据就是要让AI处理的工作。

AI绘画中要给AI灌输的学习资料就是从互联网上抓取的海量图片,这些图片连同描述图片的文字信息构成了用来训练的“数据集”。

数据集并不是像我们所想的一样把图片存进去,然后收到提示词信息后调用抓取图片。数据集所存储的是图片中蕴含的“像素分布规律”,每一张图片其实都是由不同的颜色的像素点所组成。


整理和输出教程属实不易,觉得这篇教程对你有所帮助的话,可以点击

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/寸_铁/article/detail/844594
推荐阅读
相关标签