当前位置:   article > 正文

Wav2Lip使用教程

wav2lip


前言

提示:基本准备工作:

项目名称: Wav2Lip
git地址 : https://github.com/Rudrabha/Wav2Lip.git

工具:
使用语言: python
编辑器: PyCharm
包管理工具: Anaconda

一、基本环境配置流程

  1. Python 3.6 语言环境
  2. ffmpeg: sudo apt-get install ffmpeg 安装
  3. pip install -r requirements.txt 【系统用要求安装的依赖包】
  4. 人脸检测预训练模型应下载到Face_detection/detection/sfd/s3fd.pth。如果以上内容不起作用,请选择其他链接。【需要一个预训练模型】

**

在 PyCharm 中 新建一个项目 并关联 Anaconda 创建一个新的环境

**

注意: 在项目的 pip install requirements.txt 文件中

librosa==0.7.0
numpy==1.17.1
opencv-contrib-python>=4.2.0.34
opencv-python==4.1.0.25
torch==1.1.0    这个地方最好改成   torch==1.10.0   加一个 0 
torchvision==0.3.0
tqdm==4.45.0
numba==0.48  至于这个地方版本冲突的问题  最好直接删除与他冲突的包  pip uninstall
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

二、下载模型

获得模型
模型说明

Wav2Lip高度精确的唇同步
Wav2Lip + GAN嘴唇同步稍差,但视觉质量更好
Expert Discriminator专家鉴别器的权重
Visual Quality Discriminator在GAN设置中训练的视盘重量

根据自己需求在git地址中进行下载
项目根目录/Face_detection/detection/sfd/模型放置位置

1.命令行启动

代码如下(示例):

命令行启动开始生成
python inference.py --checkpoint_path /face_detection/detection/sfd/wav2lip.pth  --face video.mp4 --audio 1.mp3 

根据需求进行修改或者在根目录中添加目录,然后在启动命令中也要添加文件夹路径在命令中

  • 1
  • 2
  • 3
  • 4
  • 5

总结

下一节开始配置如何训练自己的模型

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/323420
推荐阅读
相关标签
  

闽ICP备14008679号