赞
踩
MuseV 是基于扩散模型的虚拟人视频生成框架,具有以下特点:
MuseV开源地址:https://github.com/TMElyralab/MuseV
MuseTalk开源地址:https://github.com/TMElyralab/MuseTalk
MuseV在线试用地址(需要魔法):https://huggingface.co/spaces/AnchorFake/MuseVDemo
github上提供了源码搭建运行环境的中文和英文教程,因此本文只详细介绍整合包的获取和使用教程。
点击打开我的个人博客主页,扫码关注微信公众号回复关键词【muse】获取整合包
获取安装包后解压,双击【01运行程序.bat】去运行
运行成功后会在浏览器中打开如下界面,可以看到支持Text to Video和 Video to Video两种模式。Text to Video 各个参数含义如下图,其中输入的图像的越小生成视频的动作幅度越大,所以输入图像的宽高尽量不要设置太大,但是小的话也会导致视频分辨率降低,设置图像宽高的时候尽量去设置 img_edge_ratio,这个参数会等比例缩放图像,如果直接设置width和height比例不对的话会导致图像变形 ;另外视频的帧率也不要设置太大,因为生成的帧数最大为144,设置的越大会导致视频的时长越短,分辨率和帧率的问题可以另外通过补帧和视频高清化工具去处理。
可以参照我下面的设置,设置完成后点击Generate按钮等待视频生成即可,生成完成后可以点击图中的下载箭头下载到本地,也可以在Video窗口点击鼠标右键将视频另存为本地
生成视频效果如下:
musev-text-video
Video to Video 各个参数含义如下图,其中没写的与Text to Video相同,不再赘述。其中图片和参考视频要保持一致性,可以通过sd或者mj拿参考视频的第一帧通过图生图生成图片,控制条件的意思是生成的视频按照参考视频的什么条件去生成,webui中只支持dwpose_body_hand,即模仿参考视频中人物的身体和手的姿势去生成,通过命令行运行的方式可以支持多种,如何命令行运行可以去github中查看。
可以参照我下面的设置,设置完成后点击Generate按钮等待视频生成即可,生成完成后可以点击下载箭头下载到本地,也可以在Video窗口点击鼠标右键将视频另存为本地
最终生成的效果如下:
musev-video-video
点击打开我的个人博客主页,扫码关注微信公众号回复关键词【muse】获取整合包
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。