当前位置:   article > 正文

Stable Diffusion 3技术报告出炉:揭露Sora同款架构细节

Stable Diffusion 3技术报告出炉:揭露Sora同款架构细节
丰色 发自 凹非寺
量子位 | 公众号 QbitAI

很快啊,“文生图新王”Stable Diffusion 3的技术报告,这就来了。

全文一共28页,诚意满满。

cf4df46c743331715d4ab3fdd7de3e3c.png

“老规矩”,宣传海报(⬇️)直接用模型生成,再秀一把文字渲染能力:

96f0c4cf467d7e96c12b32b2f5fdcdd4.png

所以,SD3这比DALL·E 3和Midjourney v6都要强的文字以及指令跟随技能,究竟怎么点亮的?

技术报告揭露:

全靠多模态扩散Transformer架构MMDiT

成功关键是对图像和文本表示使用单独两组权重的方式,由此实现了比SD3之前的版本都要强的性能飞升。

具体几何,我们翻开报告来看。

微调DiT,提升文本渲染能力

在发布SD3之初,官方就已经透露它的架构和Sora同源,属于扩散型Transformer——DiT

现在答案揭晓:

由于文生图模型需要考虑文本和图像两种模式,Stability AI比DiT更近一步,提出了新架构MMDiT。

这里的“MM”就是指“multimodal”。

和Stable Diffusion此前的版本一样,官方用两个预训练模型来获得合适和文本和图像表示。

其中文本表示的编码用三种不同的文本嵌入器(embedders)来搞定,包括两个CLIP模型和一个T5模型

图像token的编码则用一个改进的自动编码器模型来完成。

由于文本和图像的embedding在概念上完全不是一个东西,因此,SD3对这两种模式使用了两组独立的权重

72763568a9c42c0df33687fddcf24baa.png

(有网友吐槽:这个架构图好像要启动“人类补完计划”啊,嗯是的,有人就是“看到了《新世纪福音战士》的资料才点进来这篇报告的”98958cf46056e52d330fa5ba26ca0b1f.png

bc0a986bb9316a7acd6ff7202f2878aa.png

言归正传,如上图所示,这相当于每种模态都有两个独立的transformer,但是会将它们的序列连接起来进行注意力操作

这样,两种表示都可以在自己的空间中工作,同时还能考虑到另一种。

最终,通过这种方法,信息就可以在图像和文本token之间“流动”,在输出时提高模型的整体理解能力和文字渲染能力。

并且正如之前的效果展示,这种架构还可以轻松扩展到视频等多种模式。

823a65774acbe4d8f7d09f627f43491f.gif

具体测试则显示,MMDiT出于DiT却胜于DiT:

它在训练过程中的视觉保真度和文本对齐度都优于现有的文本到图像backbone,比如UViT、DiT。

a3fe378c8273016b6bc14080ab646064.png

重新加权流技术,不断提升性能

在发布之初,除了扩散型Transformer架构,官方还透露SD3结合了flow matching

什么“流”?

如今天发布的论文标题所揭露,SD3采用的正是“Rectified Flow”(RF)。

e2fd078f2afb02203e9e986da33b17c2.png

这是一个“极度简化、一步生成”的扩散模型生成新方法,入选了ICLR2023。

它可以使模型的数据和噪声在训练期间以线性轨迹进行连接,产生更“直”的推理路径,从而可以使用更少的步骤进行采样。

基于RF,SD3在训练过程中引入了一张全新的轨迹采样。

主打给轨迹的中间部分更多权重,因为作者假设这些部分会完成更具挑战性的预测任务。

通过多个数据集、指标和采样器配置,与其他60个扩散轨迹方法(比如LDM、EDM和ADM)测试这一生成方法发现:

虽然以前的RF方法在少步采样方案中表现出不错的性能,但它们的相对性能随着步数的增加而下降。

相比之下,SD3重新加权的RF变体可以不断提高性能。

模型能力还可进一步提高

官方使用重新加权的RF方法和MMDiT架构对文本到图像的生成进行了规模化研究(scaling study)。

训练的模型范围从15个具有4.5亿参数的模块到38个具有80亿参数的模块。

从中他们观察到:随着模型大小和训练步骤的增加,验证损失呈现出平滑的下降趋势,即模型通过不断学习适应了更为复杂的数据。

e428fa2a55ddba505470ae9f9c5fc95d.png

为了测试这是否在模型输出上转化为更有意义的改进,官方还评估了自动图像对齐指标(GenEval)以及人类偏好评分(ELO)。

结果是:

两者有很强的相关性。即验证损失可以作为一个很有力的指标,预测整体模型表现。

f799f9723435fd0cab9a2dc389a3488d.png

此外,由于这里的扩展趋势没有出现饱和迹象(即即随着模型规模的增加,性能仍在提升,没有达到极限),官方很乐观地表示:

未来的SD3性能还能继续提高。

最后,技术报告还提到了文本编码器的问题:

通过移除用于推理的47亿参数、内存密集型T5文本编码器,SD3的内存需求可以显著降低,但同时,性能损失很小(win rate从50%降到46%)。

不过,为了文字渲染能力,官方还是建议不要去掉T5,因为没有它,文本表示的win rate将跌至38%。

dca9d0903605b142b12e37ea80f26406.png

那么总结一下就是说:SD3的3个文本编码器中,T5在生成带文本图像(以及高度详细的场景描述图)时贡献是最大的

网友:开源承诺如期兑现,感恩

SD3报告一出,不少网友就表示:

Stability AI对开源的承诺如期而至很是欣慰,希望他们能够继续保持并长久运营下去。

9430b291584064eeb71d5e001fb334b3.png

还有人就差报OpenAI大名了:

da87b99e32b3a4f03f5639269e9f31c2.png

更加值得欣慰的是,有人在评论区提到:

SD3模型的权重全部都可以下载,目前规划的是8亿参数、20亿参数和80亿参数。

ca30627283e475065aaea8e5f0bdf2ab.png
4bad7a42f6a8019ceac824862dcf3a15.png

速度怎么样?

咳咳,技术报告有提:

80亿的SD3在24GB的RTX 4090上需要34s才能生成1024*1024的图像(采样步骤50个)——不过这只是早期未经优化的初步推理测试结果。

报告全文:
https://stabilityai-public-packages.s3.us-west-2.amazonaws.com/Stable+Diffusion+3+Paper.pdf 
参考链接:
[1]https://stability.ai/news/stable-diffusion-3-research-paper
[2]https://news.ycombinator.com/item?id=39599958

报名中!

2024年值得关注的AIGC企业&产品

量子位正在评选2024年最值得关注的AIGC企业、 2024年最值得期待的AIGC产品两类奖项,欢迎报名评选!

评选报名截至2024年3月31日 1ff4b92ac046a00180c6498437f7f21b.png

6a61a2421594953b07e0b3e613d94225.png

中国AIGC产业峰会同步火热筹备中,了解更多请戳:Sora时代,我们该如何关注新应用?一切尽在中国AIGC产业峰会

商务合作请联络微信:18600164356 徐峰

活动合作请联络微信:18801103170 王琳玉

点这里

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/467214
推荐阅读
相关标签