赞
踩
作者:段忠杰(终劫)、刘冰雁(伍拾)、汪诚愚(熊兮)、黄俊(临在)
以Stable Diffusion模型为代表,AI生成内容(AI Generated Content,AIGC)的模型和应用呈现出井喷式的增长趋势。在先前的工作中,阿里云机器学习PAI团队开源了PAI-Diffusion系列模型(看这里),包括一系列通用场景和特定场景的文图生成模型,例如古诗配图、二次元动漫、魔幻现实等。这些模型的Pipeline除了包括标准的Diffusion Model,还集成了PAI团队先前提出的中文CLIP跨模态对齐模型(看这里)使得模型可以生成符合中文文本描述的、各种场景下的高清大图。此外,由于Diffusion模型推理速度比较慢,而且需要耗费较多的硬件资源,我们结合由PAI自主研发的编译优化工具 PAI-Blade,支持对PAI-Diffusion模型的端到端的导出和推理加速,在A10机器下做到了1s内的中文大图生成(看这里)。在本次的工作中,我们对之前的PAI-Diffusion中文模型进行大幅升级,主要的功能扩展包括:
在下文中,我们详细介绍PAI-Diffusion中文模型的新功能和新特性。
在详细介绍PAI-Diffusion中文模型及其功能前,我们首先带大家参观我们的艺术画廊,下面的所有图片都采用PAI-Diffusion中文模型真实生成。
positive prompt: 人工智能,未来派,4k,科幻 negative prompt: 模糊 | positive prompt: 魔法药瓶 negative prompt: |
|
|
positive prompt: 雄鹰展翅,风暴,动漫风格 negative prompt: | positive prompt: 中国风景图 远山、清水、古楼、古船、飞鸟、云雾,光线灿烂,远距离透视,超广角,气势磅礴,色彩逼真 negative prompt: 丑陋,畸形,模糊,画面不连贯,污染,噪声 |
|
|
positive prompt: 带墨镜的猫,黑客,特工,西装 negative prompt: | positive prompt: 海底世界,各种鱼类,海草 negative prompt: |
|
|
positive prompt: 白瓷的咖啡杯,质地细腻、透光性好,中国传统的瓷器。深蓝色主色调。 高贵、优雅、沉稳 negative prompt: 斑点 | positive prompt: 柴犬小狗,机甲,机器人,未来科技 negative prompt: |
|
|
positive prompt: 白色小狐狸,扁平画风 negative prompt: 斑点,噪点 | positive prompt: 参天大树,浮雕,画框 negative prompt: |
|
|
positive prompt: 东方美女,学妹,少女,精致面容,可爱,长发,古装,汉服,画面精致,完美造型,柔和的色彩,电影感 negative prompt: | positive prompt: 奇妙几何形别墅,悬崖上 negative prompt: |
|
|
positive prompt: 粉红色羽毛的猫头鹰 negative prompt: | positive prompt: 浮岛,天空,白云,城堡,幻想世界 negative prompt: 油画,模糊,雾蒙蒙 |
|
|
positive prompt: 一个抽烟的美丽女人的画像,梦幻般的色彩,精美细节 negative prompt: 丑陋,畸形,污染,噪声 | positive prompt: 一个穿着连帽衫的酷女孩,日蚀背景,精美细节,赛博朋克 negative prompt: 噪声,污染 |
|
|
positive prompt: 火车,雪地,隧道,昏暗灯光,恐怖片 negative prompt: 多个铁轨 | positive prompt: 金属盒子,宝箱,神秘,反光,骷髅,草地上 negative prompt: |
|
|
positive prompt: 镜中花,水中月,水彩画,大量笔墨 negative prompt: | positive prompt: 阳光,彩虹,小白马 negative prompt: |
|
|
positive prompt: 中国剪纸画,雪山,白云,落日 negative prompt: | positive prompt: 日落时分城市的鸟瞰图,日蚀行星建构主义风格 negative prompt: 噪点,扭曲 |
|
|
positive prompt: 山水画,流畅的线条,优美的山水图案 negative prompt: 斑点 | positive prompt: 亭台楼阁,曲径通幽,水墨绘画,中国风 negative prompt: 油画,彩色 |
|
|
positive prompt: 洋葱头小精灵,可爱,童话 negative prompt: | positive prompt: 一只小猪在夕阳下奔跑,童话绘本 negative prompt: |
|
|
positive prompt: 一个戴着眼镜的女孩 ,精致的五官,白皮肤,赛博朋克场景,全身照片 negative prompt: | positive prompt: 一个在上学路上的女孩,宫崎骏的绘画风格,清晰 negative prompt: 摄影,写实,模糊 |
|
|
positive prompt: 向日葵花海,最高的质量,8K,超精细刻画 negative prompt: | positive prompt: 落日风景油画,朦胧美 negative prompt: 画框,画笔 |
|
|
positive prompt: 生肖兔,武侠风,仙气,紫砂盔甲配剑,细节,特写 negative prompt: | positive prompt: 盛世莲花,传说,荷塘,发光,柔和光线,CG感 negative prompt: 斑点 |
|
|
positive prompt: 陶瓷大花瓶,牡丹花 negative prompt: | positive prompt: 童话绘本,蘑菇,树林,低饱和度氛围,可爱,萌萌哒 negative prompt: |
|
|
positive prompt: 未来战士,机械装甲,光剑,红眼,科幻 negative prompt: 景深,模糊 | positive prompt: 蝴蝶,对称美感,数字艺术 negative prompt: |
|
|
我们利用海量中文图文对数据,训练了多个Diffusion中文模型,参数量均在10亿左右。本次我们开源了如下两个模型。概述如下所示:
模型名 | 使用场景 |
pai-diffusion-artist-large-zh | 中文文图生成艺术模型,默认支持生成图像分辨率为512*512 |
pai-diffusion-artist-xlarge-zh | 中文文图生成艺术模型(更大分辨率),默认支持生成图像分辨率为768*768 |
为了提升模型输出图像的质量,在最大限度内避免出现不合规或低质量内容,我们搜集海量开源的图文对数据集,包括大规模中文跨模态预训练数据集WuKong、大规模多语言多模态数据集LAION-5B等。我们针对图像和文本进行了多种清洗方式,筛选掉违规和低质量数据。具体的数据处理方式包括NSFW(Not Safe From Work)数据过滤、水印数据去除,以及使用CLIP分数和美观值分数评分,选出最合适的预训练数据子集进行训练。与英文开源社区的Diffusion模型不同,我们的CLIP Text Encoder采用EasyNLP自研的中文CLIP模型(GitHub - alibaba/EasyNLP: EasyNLP: A Comprehensive and Easy-to-use NLP Toolkit),并且在Diffusion训练过程中冻结其参数,使得模型对中文语义的建模更加精确。值得注意的是,上表的图像分辨率指训练过程中的图像分辨率,在模型推理阶段可以设置不同的分辨率。
为了更加便于广大用户使用PAI-Diffusion模型,我们从如下几个方面详细介绍PAI-Diffusion模型的特性。
PAI-Diffusion模型和社区Stable Diffusion等模型的参数量一般在十亿左右。这些模型的全量参数微调往往需要消耗大量计算资源。除了标准的模型微调,PAI-Diffusion模型支持多种轻量化微调算法,支持用户在计算量尽可能少的情况下,实现模型的特定领域、特定场景的微调。以下,我们也给出两个轻量化微调的示例。
PAI-Diffusion模型可以使用LoRA(Low-Rank Adaptation)算法进行轻量化微调,大幅降低计算量。调用开源脚本train_text_to_image_lora.py,我们同样可以实现PAI-Diffusion中文模型的轻量化微调。训练命令示例如下:
- export MODEL_NAME="model_name"
- export TRAIN_DIR="path_to_your_dataset"
- export OUTPUT_DIR="path_to_save_model"
-
- accelerate launch train_text_to_image_lora.py \
- --pretrained_model_name_or_path=$MODEL_NAME \
- --train_data_dir=$TRAIN_DIR \
- --resolution=512 --center_crop --random_flip \
- --train_batch_size=1 \
- --gradient_accumulation_steps=4 \
- --max_train_steps=15000 \
- --learning_rate=1e-04 \
- --max_grad_norm=1 \
- --lr_scheduler="cosine" --lr_warmup_steps=0 \
- --output_dir=$OUTPUT_DIR
其中,MODEL_NAME是用于微调的PAI-Diffusion模型名称或路径,TRAIN_DIR是训练集的本地路径,OUTPUT_DIR为模型保存的本地路径(只包含LoRA微调参数部分)。当模型LoRA轻量化微调完毕之后可以使用如下示例代码进行文图生成:
- from diffusers import StableDiffusionPipeline
-
- model_id = "model_name"
- lora_path = "model_path/checkpoint-xxx/pytorch_model.bin"
- pipe = StableDiffusionPipeline.from_pretrained(model_id)
- pipe.unet.load_attn_procs(torch.load(lora_path))
- pipe.to("cuda")
- image = pipe("input text").images[0]
- image.save("result.png")
其中,model_path即为微调后的模型保存的本地路径(只包含LoRA微调参数部分),即前一步骤的OUTPUT_DIR;model_id为原始的没有经过LoRA微调的模型。
由于PAI-Diffusion模型一般用于生成各种通用场景下的图像,Textual Inversion是一种定制化轻量微调技术,使模型生成原来模型没有学会的、新的概念相关图像。PAI-Diffusion模型可以使用Textual Inversion算法进行轻量化微调。同样地,我们可以运行脚本textual_inversion.py,训练命令示例如下:
- export MODEL_NAME="model_name"
- export TRAIN_DIR="path_to_your_dataset"
- export OUTPUT_DIR="path_to_save_model"
-
- accelerate launch textual_inversion.py \
- --pretrained_model_name_or_path=$MODEL_NAME \
- --train_data_dir=$TRAIN_DIR \
- --learnable_property="object" \
- --placeholder_token="<小奶猫>" --initializer_token="猫" \
- --resolution=512 \
- --train_batch_size=1 \
- --gradient_accumulation_steps=4 \
- --max_train_steps=100 \
- --learning_rate=5.0e-04 --scale_lr \
- --lr_scheduler="constant" \
- --lr_warmup_steps=0 \
- --output_dir=$OUTPUT_DIR
其中,MODEL_NAME是用于微调的PAI-Diffusion模型名称,TRAIN_DIR是前述训练集的本地路径,OUTPUT_DIR为模型保存的本地路径。其中placeholder_token
是与新的概念相关的文本,initializer_token
是与新的概念密切相关的字(用于初始化新的概念对应的参数),这里我们以小奶猫为例。当模型轻量化微调完毕之后可以使用如下示例代码进行文图生成:
- from diffusers import StableDiffusionPipeline
-
- model_path = "path_to_save_model"
- pipe = StableDiffusionPipeline.from_pretrained(model_path).to("cuda")
- image = pipe("input text").images[0]
- image.save("result.png")
其中,model_path即为微调后的模型保存的本地路径,即前一步骤的OUTPUT_DIR。注意在使用微调后的模型生成包含新的概念的图像时,文本中新的概念用步骤二中的placeholder_token
表示,例如:
输入文本:一只<小奶猫>在草地上 | 输入文本:一只<小奶猫>在沙发上 |
输出图像 | 输出图像 |
AIGC系列模型的潜在风险在于容易生成不可控的、带有违法信息的内容,影响了这些模型在下游业务场景中的应用。PAI-Diffusion中文模型支持多种可控的图像编辑功能,允许用户对生成的图像内容作出限制,从而使得结果更加可用。PAI-Diffusion中文模型对StableDiffusionImg2ImgPipeline做到完全兼容,这一文本引导的图像编辑Pipeline允许模型在给定输入文本和图像的基础上,生成相关的图像,示例脚本如下:
- from diffusers import StableDiffusionImg2ImgPipeline
-
- pipe = StableDiffusionImg2ImgPipeline.from_pretrained("model_name").to("cuda")
- image = pipe(prompt="input text", image=init_image, strength=0.75, guidance_scale=7.5).images[0]
- image.save("result.png")
以下给出一个输入输出的示例:
输入文本:雪地里的两只企鹅 | |
输入图像 | 输出图像 |
除了用于生成艺术大图,通过对PAI-Diffusion中文模型进行继续预训练,我们也可以得到高度场景化的中文模型。以下是PAI-Diffusion中文模型在美食数据上继续预训练后生成的结果,可以看出只要拥有高质量的业务数据,可以产出针对不同业务场景的Diffusion模型。这些模型可以进一步与LoRA、ControlNet等技术进行无缝结合,做到与业务更契合、更可控的图像编辑与生成。
菠萝炒饭 | 韭菜鸡蛋水饺 |
|
|
番茄炒蛋 | 韩式炸鸡 |
|
|
红烧狮子头 | 清汤娃娃菜 |
|
|
为了方便开源社区使用这些模型,我们将这两个模型接入了两个知名的开源模型分享社区HuggingFace和ModelScope。以HuggingFace为例,我们可以使用如下代码进行模型推理:
- from diffusers import StableDiffusionPipeline
-
- model_id = "alibaba-pai/pai-diffusion-artist-large-zh"
- pipe = StableDiffusionPipeline.from_pretrained(model_id)
- pipe = pipe.to("cuda")
-
- prompt = "雾蒙蒙的日出在湖面上"
- image = pipe(prompt).images[0]
- image.save("result.png")
在ModelScope的使用接口示例如下:
- from modelscope.pipelines import pipeline
- import cv2
-
- p = pipeline('text-to-image-synthesis', 'PAI/pai-diffusion-artist-large-zh', model_revision='v1.0.0')
- result = p({'text': '雾蒙蒙的日出在湖面上'})
- image = result["output_imgs"][0]
- cv2.imwrite("image.png", image)
此外,我们也在EasyNLP算法框架中开设了Diffusion算法专区(链接),提供各种PAI-Diffusio模型的使用脚本和教程。
PAI-DSW(Data Science Workshop)是阿里云机器学习平台PAI开发的云上IDE,面向不同水平的开发者,提供了交互式的编程环境(文档)。在DSW Gallery中,提供了各种Notebook示例,方便用户轻松上手DSW,搭建各种机器学习应用。我们也在DSW Gallery中上架了使用PAI-Diffusion中文模型的Sample Notebook,欢迎大家体验!
免费领取:阿里云机器学习平台PAI为开发者提供免费试用额度,包含DSW、DLC、EAS多款产品。阿里云免费试用 - 阿里云
在这一期的工作中,我们对PAI-Diffusion中文模型的效果和功能进行了大幅扩展,使得图像生成质量的大幅提升、风格多样化。同时,我们支持包括LoRA、Textual Inversion等多种精细化模型微调和编辑功能。此外,我们也展示了多种场景化定制方案,方便用户在特定场景下训练和使用自己的Diffusion中文模型。在未来,我们计划进一步扩展各种场景的模型功能。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。