赞
踩
发展阶段 | 发展介绍 |
早期探索 (20世纪60年代-20世纪90年代) | 文生图的概念最早出现于计算机视觉和图像处理的早期研究中。 早期的图像生成技术主要依赖于规则和模板匹配,通过预定义的规则将文本转换为简单的图形。 然而,由于计算能力和算法的限制,这一阶段的技术能力非常有限,生成的图像质量较低,应用场景也非常有限。 |
基于统计模型的方法 (2000年代) | 进入2000年代,随着统计模型和机器学习技术的发展,文生图技术开始得到更多关注。 研究者们开始利用概率图模型和统计语言模型来生成图像。尽管这一阶段的技术在生成图像的多样性和质量上有了一定提升,但由于模型的复杂性和计算资源的限制,生成的图像仍然较为粗糙,不够逼真。 |
深度学习的崛起 (2010年代)
| 2010年代是文生图技术发展的一个重要转折点。随着深度学习,尤其是卷积神经网络(CNN)和生成对抗网络(GAN)的发展,文生图技术取得了突破性进展。2014年,Goodfellow等人提出的GAN模型通过生成器和判别器的对抗训练,极大地提升了图像生成的质量。随后,各类变种GAN模型被提出,如DCGAN、Pix2Pix等,使得文生图技术在生成逼真图像方面达到了前所未有的高度。 |
大规模预训练模型 (2020年代) | 进入2020年代,大规模预训练模型如OpenAI的CLIP、DALL-E以及Stable Diffusion等的出现,标志着文生图技术进入了一个新的时代。 CLIP通过大规模的文本和图像配对数据训练,能够理解和生成高度一致的文本和图像;DALL-E和Stable Diffusion进一步提升了生成图像的创意和细节表现能力,使得通过简单的文本描述生成高质量、复杂图像成为可能。 这些技术的应用范围从艺术创作、广告设计到辅助医疗诊断,展现了广泛的商业价值和社会影响力。 |
文生图主要以SD系列基础模型为主,以及在其基础上微调的lora模型和人物基础模型等。
接下来,我们简单了解下提示词、lora、ComfyUI和参考图控制这些知识点。
提示词很重要,一般写法:主体描述,细节描述,修饰词,艺术风格,艺术家
举个例子
【promts】Beautiful and cute girl, smiling, 16 years old, denim jacket, gradient background, soft colors, soft lighting, cinematic edge lighting, light and dark contrast, anime, super detail, 8k
【负向prompts】(lowres, low quality, worst quality:1.2), (text:1.2), deformed, black and white,disfigured, low contrast, cropped, missing fingers
Stable Diffusion中的Lora(LoRA)模型是一种轻量级的微调方法,它代表了“Low-Rank Adaptation”,即低秩适应。Lora不是指单一的具体模型,而是指一类通过特定微调技术应用于基础模型的扩展应用。在Stable Diffusion这一文本到图像合成模型的框架下,Lora被用来对预训练好的大模型进行针对性优化,以实现对特定主题、风格或任务的精细化控制。
ComfyUI 是一个工作流工具,主要用于简化和优化 AI 模型的配置和训练过程。通过直观的界面和集成的功能,用户可以轻松地进行模型微调、数据预处理、图像生成等任务,从而提高工作效率和生成效果。
在ComfyUI平台的前端页面上,用户可以基于节点/流程图的界面设计并执行AIGC文生图或者文生视频的pipeline。
ControlNet是一种用于精确控制图像生成过程的技术组件。它是一个附加到预训练的扩散模型(如Stable Diffusion模型)上的可训练神经网络模块。扩散模型通常用于从随机噪声逐渐生成图像的过程,而ControlNet的作用在于引入额外的控制信号,使得用户能够更具体地指导图像生成的各个方面(如姿势关键点、分割图、深度图、颜色等)。
参考图控制类型 | 简介 | 示例 |
OpenPose姿势控制
| 输入是一张姿势图片(或者使用真人图片提取姿势)作为AI绘画的参考图,输入prompt后,之后AI就可以依据此生成一副相同姿势的图片 | |
Canny精准绘制 | 输入是一张线稿图作为AI绘画的参考图,输入prompt后,之后AI就可以根据此生成一幅根据线稿的精准绘制。 | |
Hed绘制
| Hed是一种可以获取渐变线条的线稿图控制方式,相比canny更加的灵活。 | |
深度图Midas | 输入是一张深度图,输入prompt后,之后AI就可以根据此生成一幅根据深度图的绘制。 | |
颜色color控制 | 通过参考图控制和颜色控制,实现更加精准和个性化的图像生成效果。
|
现在,让我们来开展实践吧!开始通过代码完成模型微调&AI生图实践!
开通PAI-DSW 试用 ,可获得 5000算力时!有效期3个月!
开通免费试用
在魔搭社区进行授权
链接:https://www.modelscope.cn/my/mynotebook/authorization
如果这一步授权失败,可跳过此步骤,继续往下进行
新用户需要先注册 & 绑定阿里云账号
新用户还需要完成阿里云账号的实名认证,直接完成即可
赛事链接:https://tianchi.aliyun.com/competition/entrance/532254
点击报名比赛,即可报名成功
链接:https://www.modelscope.cn/my/mynotebook/authorization
创建实例,启动!
如果在上一步授权失败,可到阿里云控制台创建 & 打开实例,具体步骤详见下方子步骤
如果 在魔搭无法授权 或 点击【打开】无法打开,可到阿里云控制台创建 & 打开实例
创建实例
打开实例
如果之前试用的额度已经过期,可使用魔搭的免费Notebook实例
下载baseline文件(大约需要2分钟)
- git lfs install
- git clone https://www.modelscope.cn/datasets/maochase/kolors.git
进入文件夹,打开baseline文件
安装环境,然后重启kernel
- 安装 Data-Juicer 和 DiffSynth-Studio
-
- Data-Juicer:数据处理和转换工具,旨在简化数据的提取、转换和加载过程
-
- DiffSynth-Studio:高效微调训练大模型工具
调整prompt,设置你想要的图片风格,依次修改8张图片的描述(可选)
正向描述词:你想要生成的图片应该包含的内容
反向提示词:你不希望生成的图片的内容
依次顺序运行剩余的代码块,点击代码框左上角执行按钮,最终获得图片(大约需要20分钟)
下面的代码块按照功能主要分成这几类
使用Data-Juicer处理数据,整理训练数据文件
使用DiffSynth-Studio在基础模型上,使用前面整理好的数据文件进行训练微调
加载训练微调后的模型
使用微调后的模型,生成用户指定的prompt提示词的图片
链接:https://www.modelscope.cn/models/create
移动结果文件
创建terminal,粘贴如下命令,回车执行
mkdir /mnt/workspace/kolors/output & cd cp /mnt/workspace/kolors/models/lightning_logs/version_0/checkpoints/epoch\=0-step\=500.ckpt /mnt/workspace/kolors/output/ cp /mnt/workspace/kolors/1.jpg /mnt/workspace/kolors/output/
下载结果文件
双击进入output文件夹,分别下载两个文件到本地
创建并上传模型所需内容
点击魔搭链接,创建模型,中文名称建议格式:队伍名称-可图Kolors训练-xxxxxx
链接:https://www.modelscope.cn/my/mynotebook/authorization
运行完成后,别忘了回到魔搭,【关闭】实例,否则会一直消耗你的试用额度!
每小时消耗大概7个试用额度!(总共5000个,有效期三个月)
恭喜你生成了自己的第一个图片!!!
参考链接:Datawhale (linklearner.com)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。