当前位置:   article > 正文

一键虚拟换衣项目OOTDiffusion整合包发布

ootdiffusion

今天给大家分享个一键虚拟换装的项目。我们只需要上传模特图和服饰图就可以实现一键换装。我为大家准备了整合包和使用教程。(文章末尾自取)

配置要求

Windows

  • N卡显存8G以上

  • 不支持cpu模式

Mac

该项目某些依赖项对MacOS的支持不好,所以这次整合包只有Windows版本的。Mac用户可以使用网页在线体验。

网页地址(需科学上网):https://huggingface.co/spaces/levihsu/OOTDiffusion

性能测试

这里用的是默认的参考图,使用全身模式,生成图片一张所需要的时间

  • RTX 2080 11min

  • RTX 3060 28s

  • RTX 4090 3s

机器有限,这里仅供参考,还是以大家自己实际的生成时长为准。

使用说明

半身模式

基础界面

使用非常简单。准备好一张模特图、一张服装图,分别拖拽到对应的窗口中,点击Run就能得到换装后的图片。默认会有很多样例图可以直接使用。

参数解析:

Images 生成图片的数量,默认为1。

Steps 步数,默认为20。Step值能够影响画面的完成度(Step越高,越会在后面的步数中倾向于渲染细节)。

Guidance scale 指导尺度。调整它可以更好的使用图像质量更好或更具备多样性。默认为2。

Seed 种子参数。默认为-1。

全身模式

全身模式的使用方式基本和半身模式类似。唯一不同的点在于需要注意下服装类别这个选项。

比如你上传的是上衣,你这里需要选择Upper-body。其他的参数和半身模式一样。

技术解析

OOTDiffusion主要使用了以下关键技术:

  1. 预训练的潜在扩散模型:利用预训练的潜在扩散模型确保生成图像的高逼真度和自然的试穿效果。

  2. Outfitting UNet:设计了Outfitting UNet来学习服装的详细特征,实现服装特征的精确对齐。

  3. Outfitting Fusion:在去噪UNet的自注意层中进行Outfitting融合,有效地将服装特征与目标人体对齐,避免冗余的变形过程。

  4. Outfitting Dropout:在训练过程中引入Outfitting Dropout,通过无分类器的指导调整服装特征的强度,增强可控性。

  5. CLIP文本反演:尝试通过CLIP文本反演学习服装特征,以保留服装细节。

OOTDiffusion通过结合预训练的潜在扩散模型和自定义网络架构,实现了高逼真度和可控性的虚拟试穿效果。其中,通过Outfitting UNet学习服装的详细特征,再通过Outfitting Fusion将服装特征与目标人体精确对齐,避免了冗余的变形过程。在训练过程中引入Outfitting Dropout,通过无分类器的指导调整服装特征的强度,增强了试穿效果的可控性。

常见问题

服装换上去不合身怎么办?

试着调节下Guidance scaleSteps参数。多生成几个看下效果。项目还在测试阶段,不能保证所有的情况都能正确换装。

生成的速度很慢怎么办?

Steps看下是否设置的太高了。如果是默认的还是很慢,升级下机器配置吧。这个项目比较吃GPU。或者使用网页版在线使用。

整合包获取

关注公众号,发送【OOTDiffusion】关键字获取整合包

如果本文对您有帮助,还请给文章点个赞,感谢您的阅读。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/522720
推荐阅读
相关标签
  

闽ICP备14008679号