赞
踩
Kaldi 是由 C++ 编写的语音识别工具,其目的在于为语音识别研究者提供一个研究和使用的平台。
本文主要通过使用 Docker 和 Nvidia-docker 构建 Ubuntu 环境对 Kaldi 进行搭建。Docker 针对的是无 GPU 的环境,Nvidia-docker 针对的是需要使用 GPU 计算的环境,如果读者机器上存在 GPU 计算资源,请使用 Nvidia-docker,使用 Nvidia 官方提供的 CUDA 镜像,可以省去安装 CUDA 的麻烦。Kaldi 的环境搭建分为两部分,一部分为依赖工具安装,另一部分为自身源码编译。
Docker 基础命令
本节简单介绍在安装 Kaldi 过程中使用到的 Docker 基础命令,如读者需要更加详细的学习 Docker ,请主动寻找相应的专业书籍、文档学习。
本章中所用到的 Docker 命令如下:
- docker pull 从 Docker Hub 中拉取镜像
- docker images 查看系统中所有 Docker 镜像
- docker run 运行 Docker 镜像
- docker exec 登陆已经运行的 Docker 镜像
- docker commit 在原有镜像基础上创建新镜像
- docker ps 查看镜像是否运行
注意: 如果读者需要使用 GPU 来进行计算,需要安装 Nvidia-docker , 该软件的运行命令与 Docker 的运行命令一致。Docker 与 Nvidia-docker 的安装过程这里不做介绍。
Kaldi 环境搭建
这里假设读者电脑已经安装 Docker 和 Nvidia-docker ,如果未安装,请先安装再进行如下操作。
首先通过 Docker 获取相应的 Ubuntu 系统。
docker pull nvidia/cuda:9.0-base-ubuntu16.04
之后启动该镜像,并安装相应软件
- nvidia-docker run -itd nvidia/cuda:9.0-base-ubuntu16.04 /bin/bash 启动镜像并保持后台运行
-
- nvidia-docker ps 获取该启动镜像的 Container ID
-
- nvidia-docker exec -it <Container ID> /bin/bash 进入系统
-
- apt-get update
-
- apt-get install git vim
-
- cd /opt && git clone https://github.com/kaldi-asr/kaldi.git && cd kaldi
接下来进行 Kaldi 的第一部分安装,第一部分主要是针对 Kaldi 依赖工具的安装比如 Openfst、Portaudio 等。安装步骤如下:
- cd tools && extras/check_dependencies.sh
-
- apt-get install g++ zlib1g-dev make automake autoconf bzip2 unzip wget sox libtool subversion python2.7 python3 libatlas-dev libatlas-base-dev
-
- make
-
- extras/install_irstlm.sh
Kaldi 安装的第二部分为源码编译部分,这里的首要条件是第一部分正常安装之后,第二部分才能顺利完成。安装步骤如下:
- cd /opt/kaldi/src
-
- ./configure --shared
-
- make depend -j 8
-
- make -j 8
只有以上两部顺利安装,Kaldi 的安装才算成功。
最后读者可以退出终端,使用命令:
docker commit <Container ID> kaldi:latest
来构建一个可以长时间使用的 Docker 镜像,当然读者也可以使用作者已经做好的 Dockerfile 文件来生成 Docker 镜像,或者直接拉取作者已经做好的 Docker 镜像。
本节主要对 Kaldi 的目录进行详细介绍。
Kaldi 一级目录
在 Kaldi 的一级主目录中(也就是进入 kaldi 目录之后大家所看到的所有目录)包括:egs、misc、scripts、src、tools、windows。
这里只是针对性的对 egs 和 src 目录进行介绍,其他目录读者可以自行了解。
Kaldi 一级目录 Egs
Egs 目录主要用于存放 Kaldi 的所有例程,这里会统一罗列出相关文件所包含的相关例子。
注意: 虽然 Egs 中存放了大量的例子,但由于某些外部原因并不是所有例子的数据都能免费获得。
Kaldi 一级目录 src
src 目录为 Kaldi 的源码目录,主要保存了包括 GMM、HMM 等在内的大部分 Kaldi 语音项目源代码。这里分别对相关算法目录进行介绍。
在 src 目录中,有两类文件夹,一类是算法原目录,一类为算法组合生成bin(可执行程序)目录。
- base: Kaldi 基础目录,主要包括与 Kaldi 项目相关的基础宏定义、类型定义等。
-
- bin: Kaldi 的基础 bin 目录,主要是包括基础的执行程序。例如,查看 tree 信息、矩阵拷贝等基础操作。
-
- cudamatrix: Kaldi 矩阵计算相关 GPU 计算目录
-
- matrix : Kaldi 矩阵计算相关 CPU 计算目录
-
- itf: Kaldi 相关的 interface
-
- hmm : Kaldi 相关隐马尔可夫算法的代码目录
-
- utils: Kaldi 相关,语音算法无关的工具目录,例如,线程操作、io操作、文本操作等。
-
- probe: Kaldi 相关的 exp(指数) 测试目录
-
- transform: Kaldi 相关的特征转换算法目录
-
- fstext: Kaldi 中 fst 相关的算法基础目录
-
- fstbin: Kaldi 中 fst 对应的算法执行文件夹
-
- feat: Kaldi 相关的特征提取算法目录
-
- featbin: Kaldi 相关的特征提取可执行目录
-
- gmm: Kaldi 相关的 GMM 算法基础目录
-
- gmmbin: Kaldi 相关的 GMM 算法可执行文件目录
-
- ivector: Kaldi 相关的 ivector 算法基础目录
-
- ivectorbin: Kaldi 相关的 ivector 算法的可执行目录,以及基于能量的 vad 执行目录。
-
- kws: Kaldi 相关的关键字搜索基础算法目录
-
- kwsbin: Kaldi 相关的关键字搜索执行目录
-
- lat: Kaldi 相关的网格生成基础算法目录
-
- latbin: Kaldi 相关的网格生成算法的可执行文件目录
-
- lm: Kaldi 自带的语言模型基础算法目录
-
- lmbin: Kaldi 相关语音模型的可执行文件目录
-
- nnet: Kaldi 相关的 nnet1 基础算法实现目录
-
- nnetbin: Kaldi nnet1相关的算法可执行文件目录
-
- nnet2: Kaldi nnet2 相关的基础算法实现目录
-
- nnet2bin: Kaldi nnet2 相关的算法可执行文件目录
-
- nnet3: Kaldi nnet3 相关基础算法实现目录
-
- nnet3bin: Kaldi nnet3 相关实现算法的可执行文件目录
-
- online: Kaldi online1 相关解码算法的实现目录
-
- onlinebin: Kaldi online1 相关解码器算法的可执行目录
-
- online2: Kaldi online2 相关解码器算法的实现目录
-
- online2bin: Kaldi online2 相关解码器算法的可执行目录
-
- rnnlm: Kaldi rnnlm 相关的语音模型基础算法实现目录
-
- rnnlmbin: Kaldi rnnlm 相关的语音模型的可执行目录
-
- sgmm2: Kaldi sgmm2 相关的子空间 GMM 基础算法实现目录
-
- sgmm2bin: Kaldi sgmm2 相关的子空间 GMM 基础算法可执行目录
-
- tfrnnlm: Kaldi 相关的 Tensorflow rnnlm 基础算法目录
-
- tfrnnlmbin: Kaldi 相关的 Tensorflow rnnlm 基础算法实现的可执行目录
本节的目的在于,让读者在不了解 Kaldi 语音识别相关的算法的情况下,能过顺利运行 Aishell 的例子,并顺利获得语音识别模型。
首先需要有几个注意点:
本例子完全运行需要硬盘资源为 76G,所以需要确定硬盘是否有足够的空间。
Aishell 例子运行
为了能过顺利黑箱运行 Aishell 语音识别的例子。需要对 /opt/kaldi/egs/Aishell/s5 中的 run.sh 脚本进行几点修改。
假设 Aishell 的语音数据已经全部下载,目录存放于 /newdata/corpus/Aishell , 那么对应的 run.sh 脚本修改如下:
同时,由于我们的数据集已经下载,故需要注释掉与 Aishell 数据相关的下载脚本,修改如下:
由于大家机器、内存和 CPU 数量的不同,在部分脚本相对应的运行进程上也要进行部分修改,这里需要大家根据自己实际机器情况。假设运行的机器为 16G 内存,run.sh 脚本修改为,vim 打开 run.sh ,进入命令模式:
:%s/--nj 10/--nj 5/g
同时,需要修改 local/nnet3/run_ivector_common.sh
该脚本中对应的 nj 个数,修改方法如上一步。
注意: 由于在运行神经网络计算之前会进行 ivector 计算,因此需要根据运行机器的内存情况进行重新设置。这里建议:如果运行机器内存不到32G,在此例子中 ivector 的 nj 个数设置为 1,对应之上脚本的 118 行。
最后,需要注意,如果需要进行神经网络相关训练操作,需要对 local/chain/run_tdnn.sh
进行修改,修改操作为将 num_jobs_initial
和 num_jobs_final
统一修改成该训练机器所对应的 GPU 个数。修改如下图:
最后,回到 run.sh 的目录中,使用命令:
nohup sh run.sh &
确保 run.sh 能够在后台运行。直至出现错误或者运行成功自动结束。
运行结束之后,我们可以在 exp 目录下的对应目录下找到对应的错误率,以及识别结果。例如,使用 chain 来构建的神经网络,目录位置如下:
exp/chain/tdnn_1a_sp/
目录中存放的解码所需要的大部分信息。
本节假设读者已经成功运行上一节黑箱的例子,相信大家做语音识别的初衷亦或者兴趣点在于如何使用自己的语音训练模型,那么本节的主要目的就在于告诉大家如何在 Aishell 的基础上,使用自己的语音构建模型。
学习本节,读者依旧不需要了解任何的 Kaldi 语音识别相关内容。此时,读者可能会有疑问,既然是黑箱,那如何能够使用独立语音训练集训练出自己的模型呢?
其实很简单,我们这里有两种方法提供给大家:
方法一: 我们只需要模仿 Aishell 的数据存放规律进行存放即可。
方法二: 如果我们现有的独立数据集有自己的规律存放,那么只需要修改针对性的修改 run.sh 中的两个脚本即可。
方法一这里不做详细说明,大家根据上一节使用的 Aishell 的数据方式模仿存储即可。这里针对方法二进行示范。
再次回到 run.sh 脚本中,我们可以发现,Aishell 的数据处理逻辑主要存在于两个子脚本中。他们分别为如图所示:
这两个脚本即是我们需要修改的数据处理脚本。
首先看第一个脚本: local/Aishell_prepare_dict.sh
,此脚本的作用在于处理 Aishell 语音数据集所包含的发音字典信息。由于我们使用的是我们自己的独立数据集合,因此,我们需要通过我们自己的独立语音数据集获取相对应的发音词典。对应于 Aishell 数据集中的 lexicon.txt 文件。
第二步:修改local/Aishell_data_prep.sh
脚本。该脚本主要是用来读取训练数据集、验证集以及测试集相对应的语音和语音相对应文本的对应关系。
由于第一步只需要进行匹配和人工标注,这里不多赘述。这里简单说明一下第二部分如何修改。
假设我们的语音数据集的分布为如图所示:
同时,我们可以通过 Aishell 的数据,看出数据存放格式如下图所示:
那么,我们只需要将我们的数据集中 session 文件夹去除掉,亦或者修改脚本中如下图所示的代码即可:
只需要将 49 行的 NF-1 修改为 NF-2 即可。 这样就可以顺利运行我们自己的独立语音数据集合。
本章主要介绍了 Kaldi 相关的 Docker 基础操作,并介绍了如何正确安装 Kaldi 以及 Kaldi 相关的目录结构,之后介绍了黑盒运行 Aishell 的例子,最后简单介绍了如何修改脚本来运行自己的独立语音数据集。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。