赞
踩
目录
MODA 基于人脸关键点的语音驱动单张图数字人生成(ICCV2023)
GitHub - KU-CVLAB/GaussianTalker
https://download.csdn.net/download/u014361280/12096164
https://download.csdn.net/download/jacke121/89222783
- if cfg.dataset == "BIWI":
- template_file = os.path.join(cfg.data_root, "BIWI.ply")
- elif cfg.dataset == "vocaset":
- template_file = os.path.join(cfg.data_root, "FLAME_sample.ply")
-
- print("rendering: ", test_name)
-
- template = Mesh(filename=template_file)
GitHub - uuembodiedsocialai/FaceDiffuser
依赖项:
需要版本tokenizers==0.11
安装报错error: can't find Rust compiler
https://github.com/FACEGOOD/FACEGOOD-Audio2Face/tree/main
这个是TensorFlow平台,有演示demo,训练代码,没有发现数据集
https://github.com/psyai-net/EmoTalk_release/tree/main
训练代码是faceformer
[audio2face]FaceFormer: 基于Transformers的,语音驱动的3D人脸动画生成 - 知乎
直观感受:
【数字人】2、MODA | 基于人脸关键点的语音驱动单张图数字人生成(ICCV2023)_moda face-CSDN博客
根据音频驱动图片动起来
数字人解决方案— SadTalker语音驱动图像生成视频原理与源码部署_sadtalker 调参-CSDN博客
没开源
AniTalker是由来自上海交大X-LANCE实验室和思必驰AISpeech的研究人员推出的一个对口型说话视频生成框架,能够将单张静态人像和输入的音频转换成栩栩如生的动画对话视频。该框架通过自监督学习策略捕捉面部的复杂动态,包括微妙的表情和头部动作。AniTalker利用通用运动表示和身份解耦技术,减少了对标记数据的依赖,同时结合扩散模型和方差适配器,生成多样化和可控制的面部动画,可实现类似阿里EMO和腾讯AniPortrait的效果。
好像没有预训练
main.py
- import numpy as np
- import cv2
-
- from utils.facemesh import FaceMesh
- from utils.renderer import Renderer, images_to_video
-
-
- if __name__ == "__main__":
- texture_mesh = FaceMesh.load("assets/FLAME_sample.obj")
- renderer = Renderer(texture_mesh)
- verts = np.load("assets/verts_sample.npy")
- rendered_images = renderer.render(verts)
- out='output'
- os.makedirs(out,exist_ok=True)
- images_to_video(rendered_images, out)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。