赞
踩
本文主要介绍了情绪语音合成项目训练自己的数据集的实现过程~
innnky/emotional-vits: 无需情感标注的情感可控语音合成模型,基于VITS (github.com)
目录
因为我用的是之前设置vits的虚拟环境,这里可能也有写不全的的地方~
- git clone https://github.com/innnky/emotional-vits
- cd emotional-vits
- pip install -r requirements.txt
-
- # MAS 对印发音和文本:Cython-version Monotonoic Alignment Search
- cd monotonic_align
- python setup.py build_ext --inplace
-
-
- # 处理数据集
- python preprocess.py --text_index 2 --filelists /jf-training-home/src/emotional-vits/filelists/bea_train.txt /jf-training-home/src/emotional-vits/filelists/val.txt --text_cleaners korean_cleaners
生成文本处理文件
对数据进行16000重采样:
- import os
- import librosa
- import tqdm
- import soundfile as sf
- import time
-
- if __name__ == '__main__':
-
- audioExt = 'WAV'
-
- input_sample = 22050
-
- output_sample = 16000
-
-
- audioDirectory = ['/jf-training-home/src/emotional-vits/dataset/bae_before']
-
-
- outputDirectory = ['/jf-training-home/src/emotional-vits/dataset/bae']
-
- start_time=time.time()
-
- for i, dire in enumerate(audioDirectory):
-
- clean_speech_paths = librosa.util.find_files(
- directory=dire,
- ext=audioExt,
- recurse=True,
- )
-
- for file in tqdm.tqdm(clean_speech_paths, desc='No.{} dataset resampling'.format(i)):
-
- fileName = os.path.basename(file)
-
- y, sr = librosa.load(file, sr=input_sample)
-
- y_16k = librosa.resample(y, orig_sr=sr, target_sr=output_sample)
-
- outputFileName = os.path.join(outputDirectory[i], fileName)
-
- sf.write(outputFileName, y_16k, output_sample)
- end_time=time.time()
- runTime=end_time - start_time
- print("Run Time: {} sec ~".format(runTime))
*注意:如果数据集是英文,可以默认提取情绪信息,如果是中文,需要更换预训练权重
!!
修改emotion_extract.py文件的第94行,改为自己的数据集路径
原代码rootpath = "dataset/nene"
改为自己的rootpath = "dataset/bae"
python emotion_extract.py --filelists src/emotional-vits/filelists/bae_train.txt src/emotional-vits/filelists/bae_val.txt
如果出现问题参考【PS2】,运行时如图
文件内会生成
- #python train_ms.py -c configs/nene.json -m nene --ckptD /path/to/D_xxxx.pth --ckptG /path/to/G_xxxx.pth
-
- python train_ms.py -c configs/bae.json -m emo_bae
如果出现错误,参考【PS3】
开始训练
一共3000条数据,8个小时epoch410->step24000
推理使用inference.ipynb,修改配置文件,以及权重文件路径
推理结果并不是完整的句子,可能是因为ser预训练加载的是英文的,而训练的数据集并非英文。
解决方案
- pip install transformers==4.25.1
-
- #或者在emotion_extract.py文件77行增加一个维度
- y = y.unsqueeze(0)
然后就解决啦~
删掉使用日语的库
打开emotional-vits/mel_processing.py, 111行
添加了 return_complex=True
然后出现RuntimeError: mat1 and mat2 shapes cannot be multiplied (80x513 and 32x513)
解决办法
pytorch包太新了导致的修改emotional-vits/mel_processing.py,
66行,67行【增加return_complex=False】
104行,105行【onesided=True后增加,return_complex=False】
其他
Q&A
怎么根据Ubuntu进程判断运行的程序?
第一步查询GPU进程
后面都是python,说明都是python命令
通过名称查看进程
ps -ef | grep python
对比删除自己不用的进程就可以啦~
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。