当前位置:   article > 正文

TTS | emotional-vits情绪语音合成的实现_emotion vits =环境配置

emotion vits =环境配置

本文主要介绍了情绪语音合成项目训练自己的数据集的实现过程~

innnky/emotional-vits: 无需情感标注的情感可控语音合成模型,基于VITS (github.com)

目录

0.环境设置

 1.数据预处理

2..提取情绪

3.训练

4.推理

过程中遇到的问题与解决【PS】


0.环境设置

因为我用的是之前设置vits的虚拟环境,这里可能也有写不全的的地方~

  1. git clone https://github.com/innnky/emotional-vits
  2. cd emotional-vits
  3. pip install -r requirements.txt
  4. # MAS 对印发音和文本:Cython-version Monotonoic Alignment Search
  5. cd monotonic_align
  6. python setup.py build_ext --inplace

 1.数据预处理

  1. # 处理数据集
  2. python preprocess.py --text_index 2 --filelists /jf-training-home/src/emotional-vits/filelists/bea_train.txt /jf-training-home/src/emotional-vits/filelists/val.txt --text_cleaners korean_cleaners

生成文本处理文件

对数据进行16000重采样:

  1. import os
  2. import librosa
  3. import tqdm
  4. import soundfile as sf
  5. import time
  6. if __name__ == '__main__':
  7. audioExt = 'WAV'
  8. input_sample = 22050
  9. output_sample = 16000
  10. audioDirectory = ['/jf-training-home/src/emotional-vits/dataset/bae_before']
  11. outputDirectory = ['/jf-training-home/src/emotional-vits/dataset/bae']
  12. start_time=time.time()
  13. for i, dire in enumerate(audioDirectory):
  14. clean_speech_paths = librosa.util.find_files(
  15. directory=dire,
  16. ext=audioExt,
  17. recurse=True,
  18. )
  19. for file in tqdm.tqdm(clean_speech_paths, desc='No.{} dataset resampling'.format(i)):
  20. fileName = os.path.basename(file)
  21. y, sr = librosa.load(file, sr=input_sample)
  22. y_16k = librosa.resample(y, orig_sr=sr, target_sr=output_sample)
  23. outputFileName = os.path.join(outputDirectory[i], fileName)
  24. sf.write(outputFileName, y_16k, output_sample)
  25. end_time=time.time()
  26. runTime=end_time - start_time
  27. print("Run Time: {} sec ~".format(runTime))

2..提取情绪

*注意:如果数据集是英文,可以默认提取情绪信息,如果是中文,需要更换预训练权重
!!

修改emotion_extract.py文件的第94行,改为自己的数据集路径

原代码rootpath = "dataset/nene"

改为自己的rootpath = "dataset/bae"

python emotion_extract.py --filelists src/emotional-vits/filelists/bae_train.txt src/emotional-vits/filelists/bae_val.txt

 如果出现问题参考【PS2】,运行时如图

文件内会生成

3.训练

  1. #python train_ms.py -c configs/nene.json -m nene --ckptD /path/to/D_xxxx.pth --ckptG /path/to/G_xxxx.pth
  2. python train_ms.py -c configs/bae.json -m emo_bae

如果出现错误,参考【PS3】 

 开始训练

一共3000条数据,8个小时epoch410->step24000

4.推理

推理使用inference.ipynb,修改配置文件,以及权重文件路径

推理结果并不是完整的句子,可能是因为ser预训练加载的是英文的,而训练的数据集并非英文。

过程中遇到的问题与解决【PS】

【PS1】RuntimeError: Given groups=1, weight of size [512, 1, 10], expected input[1, 45140, 1] to have 1 channels, but got 45140 channels instead

 

 解决方案

  1. pip install transformers==4.25.1
  2. #或者在emotion_extract.py文件77行增加一个维度
  3. y = y.unsqueeze(0)

 然后就解决啦~

【PS2】安装setuptools出错

 删掉使用日语的库

【PS3】RuntimeError: stft requires the return_complex parameter be given for real inputs, and will further require that return_complex=True in a future PyTorch release.

打开emotional-vits/mel_processing.py, 111行

添加了 return_complex=True

然后出现RuntimeError: mat1 and mat2 shapes cannot be multiplied (80x513 and 32x513)

解决办法

pytorch包太新了导致的修改emotional-vits/mel_processing.py,

66行,67行【增加return_complex=False】

104行,105行【onesided=True后增加,return_complex=False】

其他

Q&A

怎么根据Ubuntu进程判断运行的程序?

第一步查询GPU进程

fuser使用

  • 安装: sudo apt-get update
  • sudo apt-get install psmisc
  • 查看显卡占用的进程: 
  • fuser -v /dev/nvidia*
  • 杀掉进程 kill -9 PID

后面都是python,说明都是python命令

通过名称查看进程

ps -ef | grep python

 

 对比删除自己不用的进程就可以啦~

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/278287
推荐阅读
相关标签
  

闽ICP备14008679号