赞
踩
新加坡国立大学 Show 实验室和字节联合做了一项类似的研究。他们提出了一个基于扩散的框架 MagicAnimate,旨在增强时间一致性、忠实地保留参考图像并提升动画保真度。并且,MagicAnimate 项目是开源的,目前推理代码和 gradio 在线 demo 已经发布。
论文地址:MagicAnimate: Temporally Consistent Human Image Animation using Diffusion Model
GitHub项目地址:https://github.com/magic-research/magic-animate
镜像下载地址:git clone https://gitclone.com/github.com/magic-research/magic-animate
可以通过readme了解项目大概,
需要下载预训练的基本模型 StableDiffusion V1.5
和 MSE-finetuned VAE
且需要下载下列检查点,
magic-animate |----pretrained_models |----MagicAnimate |----appearance_encoder |----diffusion_pytorch_model.safetensors |----config.json |----densepose_controlnet |----diffusion_pytorch_model.safetensors |----config.json |----temporal_attention |----temporal_attention.ckpt |----sd-vae-ft-mse |----... |----stable-diffusion-v1-5 |----... |----...
前提: python>=3.8, CUDA>=11.3, and ffmpeg
.
且需要安装的三方包列表在requirements.txt
文件中,创建虚拟环境后即可进行安装。
1、https://baijiahao.baidu.com/s?id=1784426435369033621&wfr=spider&for=pc
2、https://zhuanlan.zhihu.com/p/670641392
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。