赞
踩
分别在VCTK、AISHELL1 和 VoxCeleb1 三个标准公开数据集上对三种端到端声纹模型框架(Deep Speaker, RawNet, GE2E)进行实验比较。
GitHub代码:
DeepSpeaker_RawNet_GE2E
代码里,SpeakerRecognition_demo使用的是RawNet在VCTK数据集上训练得到的模型,声纹确认demo录屏.mp4为相应的录屏。
共设置了七组对比分析。第一是各模型在不同数据集上的识别性能比较;第二是不同数据集上Deep Speaker模型和GE2E模型损失随迭代次数的变化比较;第三是不同模型大小比较;第四是VCTK数据集上改变人均音频条数对各模型等错误率的影响;第五是VCTK数据集改变人均音频条数的条件下各模型每个epoch的训练耗时对比;第六是VCT
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。