赞
踩
★★★ 本文源自AlStudio社区精品项目,【点击此处】查看更多精品内容 >>>
最近发飞桨更新了个比较好玩的模型DreamBooth,可以通过输入提示文本和图片实现自动切换主题背景,然后该模型也可以通过调整预训练模型来实现自定义的图片背景切换,类似一键切换背景,这个功能十分有趣,所以就想着可以自己导入图片让DreamBooth模型训练来生成一些相关有趣的新图片
DreamBooth是一款基于人工智能技术的照片亭,可以使用文本提示快速生成多种不同上下文环境中的照片。该技术旨在个性化文本到图像的扩散模型,并扩大语言-视觉词典,使其能够将新单词与特定主题绑定,从而允许在不同环境中呈现主题的新版本,同时保留其关键的识别特征。该方法使用一些主题的图像,并微调预训练的文本到图像模型,以学习特定主题的唯一标识符。然后,可以使用该模型在不同场景、姿态、视角和光照条件下合成不同的主题实例。该技术使合成的图像可以评估主题和提示的准确性。该方法具有重新定位主题、文本引导的视图合成和艺术渲染的潜在应用。下面是模型原理图:
只需要3步就可以构建1个自定义标签的DreamBooth模型,接下来会演示如何构建模型
首先需要安装模型所需的依赖库paddlenlp
、pddiffusers
、visuadl
(这个库是用来可视化训练Loss的)
├── train_dreambooth.py # 训练脚本
├── train_dreambooth_lora.py # 训练脚本lora版
├── export_model.py #导出Diffusion脚本
├── dream_image_single #训练集图片-单卡
├── dream_image_single #训练集图片-多卡
├── dream_image_single #训练集图片-类别(用于做先验训练,不用可略过)
├── dream_outputs_single # 单卡训练模型文件存储路径
├── dream_outputs_mulyiply # 多卡训练模型文件存储路径
├── dream_outputs_single_lora # 单卡+lora优化训练模型文件存储路径
├── models #存放导出Diffusion训练模型的文件夹
├── pics # 待训练图片存放文件夹
├── pic_class # 存放用于先验知识学习的同类图片
├── pic_train # 用于DreamBooth模型训练的训练图片
# 输出内容较多,需进行添加清理
from IPython.display import clear_output
!pip install --upgrade -U paddlenlp ppdiffusers visualdl --user
#!mkdir /home/aistudio/external-libraries
#!pip install --upgrade -U ppdiffusers visualdl -t /home/aistudio/external-libraries
clear_output()
print("依赖库安装成功")
依赖库安装成功
import sys
sys.path.append('/home/aistudio/external-libraries')
print(sys.path)
# 创建实例(物体)保存文件夹
!mkdir ./dream_image_single
!mkdir ./dream_outputs_single
!mkdir ./dream_image_class
!mkdir ./dream_outputs_single_lora
!mkdir ./dream_image_multiply
!mkdir ./dream_outputs_multiply
# 将pics中的图片复制到实例文件夹中
%cd /home/aistudio/pics/pic_train
!cp * /home/aistudio/dream_image_single
!cp * /home/aistudio/dream_image_multiply
/home/aistudio/pics/pic_train
#将data中的先验图片复制到class文件夹中
%cd /home/aistudio/pics/pic_class
!cp * /home/aistudio/dream_image_class
/home/aistudio/pics/pic_class
# 返回目录文件夹
%cd
/home/aistudio
安装好所需环境和将我们待训练图片放到训练文件夹后我们就可以准备训练,模型训练有一些参数可选择,以下是可选择的参数列表
pretrained_model_name_or_path
:预训练模型名称,其他可用的预训练模型可参考ppdiffusersinstance_data_dir
:待训练图片保存路径output_dir
:输出图片路径instance_prompt
:图片文字提示(描述)信息,需给模型指定要学习的类别resolution=512
:输入给模型图片的分辨率,当高度或宽度为None
时,我们将会使用resolution
,默认值为512train_batch_size
:每次喂入batch
的数据量,显卡显存少需要低点,过高精度会下降gradient_accumulation_steps
:梯度累积的步数learning_rate=5e-6
:训练网络的学习率lr_scheduler="constant"
:要使用的学习率调度策略。默认为constant
lr_warmup_steps=0
:用于从 0 到 learning_rate
的线性 warmup
的步数max_train_steps
:最大训练次数为防止模型过拟合可加入下列参数:
with_prior_preservation
: 是否将生成的同类图片(先验知识)一同加入训练,当为True
的时候,class_prompt
、class_data_dir
、num_class_images
、sample_batch_size
和prior_loss_weight
才生效。class_prompt
:类别(class)提示词文本,该提示器要与训练图片是同一种类别,例如a photo of dog
,主要作为先验知识class_data_dir
:类别(class)图片文件夹地址,主要作为先验知识num_class_images
:事先需要从class_prompt
中生成多少张图片,主要作为先验知识sample_batch_size
:生成class_prompt文本对应的图片所用的批次(batch size),注意,当GPU显卡显存较小的时候需要将这个默认值改成1prior_loss_weight
: 先验loss
占比权重# 输出内容较多,需进行添加清理
from IPython.display import clear_output
# 单卡训练 !python -u train_dreambooth.py \ --pretrained_model_name_or_path="CompVis/stable-diffusion-v1-4" \ --instance_data_dir="dream_image_single" \ --output_dir="dream_outputs_single" \ --instance_prompt="a photo of kunkun" \ --resolution=512 \ --train_batch_size=1 \ --gradient_accumulation_steps=1 \ --learning_rate=5e-6 \ --lr_scheduler="constant" \ --lr_warmup_steps=0 \ --max_train_steps=500 # 先验知识参数(添加会增加训练时间) """ --with_prior_preservation \ --class_prompt="a photo of kunkun" \ --class_data_dir="dream_image_class" \ --num_class_images=300 \ --sample_batch_size=5 \ --prior_loss_weight=1.0 \ """ # 输出太长清理 clear_output() # 添加提示 print("训练结束")
训练结束
# 使用多卡训练,参数与单卡类似,--gpus可调gpu使用数量,这个cell只能用V100来运行 import paddle !python -u -m paddle.distributed.launch --gpus "0,1,2,3" train_dreambooth.py \ --pretrained_model_name_or_path="CompVis/stable-diffusion-v1-4" \ --instance_data_dir="dream_image_multiply" \ --output_dir="dream_outputs_multiply" \ --instance_prompt="a photo of kunkun" \ --resolution=512 \ --train_batch_size=1 \ --gradient_accumulation_steps=1 \ --learning_rate=5e-6 \ --lr_scheduler="constant" \ --lr_warmup_steps=0 \ --max_train_steps=500 # 先验知识参数(添加会增加训练时间) """ --with_prior_preservation \ --class_prompt="a photo of kunkun" \ --class_data_dir="dream_image_class" \ --num_class_images=200 \ --sample_batch_size=5 \ --prior_loss_weight=1.0 \ """ # 输出太长清理 clear_output() # 添加提示 print("训练结束")
训练结束
LoRA (Low-Rank Adaptation of Large Language Models) 是微软研究员引入的一项新技术,用于处理大模型微调的问题。当前拥有数十亿参数及强大性能的大型语言模型,如 GPT-3,通常需要巨大的开销来适应其下游任务的微调。为此,LoRA 建议冻结预训练模型的权重,并在每个 Transformer 块中注入可训练层(秩-分解矩阵)。由于不需要为大多数模型权重计算梯度,因此大大减少了需要训练的参数数量,并降低了 GPU 的内存要求。
通过聚焦大模型的 Transformer 注意力块,研究人员发现使用 LoRA 进行的微调质量与全模型微调相当,同时速度更快且需要更少的计算。这种技术可以帮助提升大型语言模型的微调效率,缩短微调时间,减小GPU内存需求和算力要求,对于加速自然语言处理应用的发展具有重要作用。
# 加入Lora进行模型优化 !python train_dreambooth_lora.py \ --pretrained_model_name_or_path="runwayml/stable-diffusion-v1-5" \ --instance_data_dir="dream_image_single" \ --output_dir="dream_outputs_single_lora" \ --instance_prompt="a photo of kunkun" \ --resolution=768 \ --train_batch_size=1 \ --gradient_accumulation_steps=1 \ --learning_rate=1e-4 \ --lr_scheduler="constant" \ --lr_warmup_steps=0 \ --max_train_steps=500 \ --validation_prompt="A photo of kunkun in a state" \ --validation_epochs=50 \ --lora_rank=4 \ --seed=0 # 先验知识参数(添加会增加训练时间) """ --with_prior_preservation \ --class_prompt="a photo of kunkun" \ --class_data_dir="dream_image_class" \ --num_class_images=300 \ --sample_batch_size=5 \ --prior_loss_weight=1.0 \ """ # 输出太长清理 clear_output() # 添加提示 print("训练结束")
训练结束
训练结束
可以使用visuadl
观察网络训练的Loss情况,这里简单展示使用方法
1.选择模型
2.进入可视化界面
在我们训练好我们自定义类模型后我们就可以来做模型的推理了,只需要加载我们训练好的模型和给模型的提示语句,就可以生成我们想要主题的图片了
# 模型推理部分 from ppdiffusers import StableDiffusionPipeline,DiffusionPipeline, DPMSolverMultistepScheduler # 模型的加载地址,这里我们输入了训练时候使用的 output_dir 地址 model_path_single = "./dream_outputs_single" model_path_multiply="./dream_outputs_multiply" # 将加载到pipe中 pipe_single = StableDiffusionPipeline.from_pretrained(model_path_single) pipe_multiply = StableDiffusionPipeline.from_pretrained(model_path_multiply) # 输出太长清理 clear_output() # 文字提示输入 prompt = "A photo of kunkun in Eiffel Tower" # 图片生成 image1 = pipe_single(prompt).images[0] image2 = pipe_multiply(prompt).images[0] # 保存图片,我们可以查看image image1.save("kunkun1.png") image2.save("kunkun2.png")
# lora训练的模型
# 模型的加载地址,这里我们输入了训练时候使用的 output_dir 地址
model_path_lora="./dream_outputs_single_lora"
# 将加载到pipe中
pipe_lora = DiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5")
pipe_lora.scheduler = DPMSolverMultistepScheduler.from_config(pipe_lora.scheduler.config)
pipe_lora.unet.load_attn_procs("dream_outputs_single_lora", from_hf_hub=True)
# 文字提示输入
prompt = "A photo of kunkun in Eiffel Tower"
# 图片生成
image3 = pipe_lora(prompt, num_inference_steps=25).images[0]
# 保存图片,我们可以查看image
image3.save("kunkun3.png")
#让我们来看下实例的效果
image1
image2
image3
这生成的图片好像有点抽象
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。