赞
踩
本博客的完整代码获取:
MATLAB神经网络43个案例分析 - MATLAB & Simulink Books
BP神经网络是一种多层前馈神经网络,该网络的主要特点是信号前向传递,误差反向传播。在前向传递中,输入信号从输人层经隐含层逐层处理,直至输出层。每一层的神经元状态只影响下一层神经元状态。如果输出层得不到期望输出,则转入反向传播,根据预测误差调整网络权值和阈值,从而使BP神经网络预测输出不断逼近期望输出。BP神经网络的拓扑结构如图1一1所示。
语音特征信号识别是语音识别研究领域中的一个重要方面,一般采用模式匹配的原理解决。语音识别的运算过程为:首先,待识别语音转化为电信号后输入识别系统,经过预处理后用数学方法提取语音特征信号,提取出的语音特征信号可以看成该段语音的模式;然后,将该段语音模型同已知参考模式相比较,获得最佳匹配的参考模式为该段语音的识别结果。语音识别流程如图1-2所示。
本案例选取了民歌、古筝、摇滚和流行四类不同音乐,用BP神经网络实现对这四类音乐的有效分类。每段音乐都用倒谱系数法提取500组24维语音特征信号,提取出的语音特征信号如图1-3所示。
基于BP神经网络的语音特征信号分类算法建模包括BP神经网络构建、BP神经网络训练和 BP神经网络分类三步,算法流程如图1-4所示。
根据BP神经网络理论,在 MATLAB软件中编程实现基于BP神经网络的语音特征信号分类算法。
数据归一化方法是神经网络预测前对数据常做的一种处理方法。数据归一化处理把所有数据都转化为[0,1]之间的数,其目的是取消各维数据间数量级差别,避免因为输入输出数据数量级差别较大而造成网络预测误差较大。数据归一化的方法主要有以下两种
本案例采用第一种数据归一化方法,归一化函数采用MATLAB自带函数mapminmax,该函数有多种形式,常用的方法如下:
- % input_train, output_train分别是训练输人、输出数据
- [inputn,inputps] = mapminmax(input_train);
- [outputn,outputps] = mapminmax(output_train);
input_train,output_train是训练输人,输出原始数据; inputn, outputn是归一化后的数据, inputps,outputps为数据归一化后得到的结构体,里面包含了数据最大值、最小值和平均值等信息,可用于测试数据归一化和反归一化。测试数据归一化和反归一化程序如下:
- inputn_test = mapminmax('apply',input_test,inputps);%测试输入数据归一化
- BPoutput = mapminmax(' reverse ',an, outputps);%网络预测数据反归一化
input_test是预测输人数据;inputn_test是归一化后的预测数据;apply'表示根据inputps的值对input_test进行归一化。an是网络预测结果; outputps是训练输出数据归一化得到的结构体;BPoutput是反归一化之后的网络预测输出;'reverse'表示对数据进行反归一化。
程序中,首先根据倒谱系数法提取四类音乐语音特征信号,不同的语音信号分别用1,2,3,4标识,提取出的信号分别存储于datal. mat, data2.mat, data3.mat,data4. mat数据库文件中,每组数据为25维,第1维为类别标识,后24维为语音特征信号。然后把四类语音特征信号合为一组,从中随机选取1500组数据作为训练数据,500组数据作为测试数据,并对训练数据进行归一化处理。根据语音类别标识设定每组语音信号的期望输出值,如标识类为1时,期望输出向量为[1 0 0 0]。
- %% 该代码为基于BP网络的语言识别
-
- %% 清空环境变量
- clc
- clear
-
- %% 训练数据预测数据提取及归一化
-
- %下载四类语音信号
- load data1 c1
- load data2 c2
- load data3 c3
- load data4 c4
-
- %四个特征信号矩阵合成一个矩阵
- data(1:500,:)=c1(1:500,:);
- data(501:1000,:)=c2(1:500,:);
- data(1001:1500,:)=c3(1:500,:);
- data(1501:2000,:)=c4(1:500,:);
-
- %从1到2000间随机排序
- k=rand(1,2000);
- [m,n]=sort(k);
-
- %输入输出数据
- input=data(:,2:25);
- output1 =data(:,1);
-
- %把输出从1维变成4维
- output=zeros(2000,4);
- for i=1:2000
- switch output1(i)
- case 1
- output(i,:)=[1 0 0 0];
- case 2
- output(i,:)=[0 1 0 0];
- case 3
- output(i,:)=[0 0 1 0];
- case 4
- output(i,:)=[0 0 0 1];
- end
- end
-
- %随机提取1500个样本为训练样本,500个样本为预测样本
- input_train=input(n(1:1500),:)';
- output_train=output(n(1:1500),:)';
- input_test=input(n(1501:2000),:)';
- output_test=output(n(1501:2000),:)';
-
- %输入数据归一化
- [inputn,inputps]=mapminmax(input_train);
-
- %% 网络结构初始化
- innum=24;
- midnum=25;
- outnum=4;
-
-
- %权值初始化
- w1=rands(midnum,innum);
- b1=rands(midnum,1);
- w2=rands(midnum,outnum);
- b2=rands(outnum,1);
-
- w2_1=w2;w2_2=w2_1;
- w1_1=w1;w1_2=w1_1;
- b1_1=b1;b1_2=b1_1;
- b2_1=b2;b2_2=b2_1;
-
- %学习率
- xite=0.1;
- alfa=0.01;
- loopNumber=10;
- I=zeros(1,midnum);
- Iout=zeros(1,midnum);
- FI=zeros(1,midnum);
- dw1=zeros(innum,midnum);
- db1=zeros(1,midnum);
-
- %% 网络训练
- E=zeros(1,loopNumber);
- for ii=1:loopNumber
- E(ii)=0;
- for i=1:1:1500
- %% 网络预测输出
- x=inputn(:,i);
- % 隐含层输出
- for j=1:1:midnum
- I(j)=inputn(:,i)'*w1(j,:)'+b1(j);
- Iout(j)=1/(1+exp(-I(j)));
- end
- % 输出层输出
- yn=w2'*Iout'+b2;
-
- %% 权值阀值修正
- %计算误差
- e=output_train(:,i)-yn;
- E(ii)=E(ii)+sum(abs(e));
-
- %计算权值变化率
- dw2=e*Iout;
- db2=e';
-
- for j=1:1:midnum
- S=1/(1+exp(-I(j)));
- FI(j)=S*(1-S);
- end
- for k=1:1:innum
- for j=1:1:midnum
- dw1(k,j)=FI(j)*x(k)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4));
- db1(j)=FI(j)*(e(1)*w2(j,1)+e(2)*w2(j,2)+e(3)*w2(j,3)+e(4)*w2(j,4));
- end
- end
-
- w1=w1_1+xite*dw1';
- b1=b1_1+xite*db1';
- w2=w2_1+xite*dw2';
- b2=b2_1+xite*db2';
-
- w1_2=w1_1;w1_1=w1;
- w2_2=w2_1;w2_1=w2;
- b1_2=b1_1;b1_1=b1;
- b2_2=b2_1;b2_1=b2;
- end
- end
-
- %% 语音特征信号分类
- inputn_test=mapminmax('apply',input_test,inputps);
- fore=zeros(4,500);
- for ii=1:1
- for i=1:500%1500
- %隐含层输出
- for j=1:1:midnum
- I(j)=inputn_test(:,i)'*w1(j,:)'+b1(j);
- Iout(j)=1/(1+exp(-I(j)));
- end
-
- fore(:,i)=w2'*Iout'+b2;
- end
- end
- %% 结果分析
- %根据网络输出找出数据属于哪类
- output_fore=zeros(1,500);
- for i=1:500
- output_fore(i)=find(fore(:,i)==max(fore(:,i)));
- end
- %BP网络预测误差
- error=output_fore-output1(n(1501:2000))';
-
- %画出预测语音种类和实际语音种类的分类图
- figure(1)
- plot(output_fore,'r')
- hold on
- plot(output1(n(1501:2000))','b')
- legend('预测语音类别','实际语音类别')
- %画出误差图
- figure(2)
- plot(error)
- title('BP网络分类误差','fontsize',12)
- xlabel('语音信号','fontsize',12)
- ylabel('分类误差','fontsize',12)
- %print -dtiff -r600 1-4
- k=zeros(1,4);
- %找出判断错误的分类属于哪一类
- for i=1:500
- if error(i)~=0
- [b,c]=max(output_test(:,i));
- switch c
- case 1
- k(1)=k(1)+1;
- case 2
- k(2)=k(2)+1;
- case 3
- k(3)=k(3)+1;
- case 4
- k(4)=k(4)+1;
- end
- end
- end
- %找出每类的个体和
- kk=zeros(1,4);
- for i=1:500
- [b,c]=max(output_test(:,i));
- switch c
- case 1
- kk(1)=kk(1)+1;
- case 2
- kk(2)=kk(2)+1;
- case 3
- kk(3)=kk(3)+1;
- case 4
- kk(4)=kk(4)+1;
- end
- end
- %正确率
- rightridio=(kk-k)./kk;
- disp('正确率')
- disp(rightridio);
- web browser www.matlabsky.com
用训练好的BP神经网络分类语音特征信号测试数据,BP神经网络分类误差如图1-5所示。
图1-5 BP神经网络分类误差
BP神经网络分类正确率如下:
从BP神经网络分类结果可以看出,基于BP神经网络的语音信号分类算法具有较高的准确性,能够准确识别出语音信号所属类别。
BP神经网络的隐含层节点数对BP神经网络预测精度有较大的影响:节点数太少,网络不能很好地学习,需要增加训练次数,训练的精度也受影响;节点数太多,训练时间增加,网络容易过拟合。最佳隐含层节点数选择可参考如下公式:
从图1-6可以看出,本案例中BP神经网络分类误差率随着隐含层节点数的增加而减小。对于一般问题来说,BP神经网络的分类误差随着隐含层节点数的增加呈现先减少后增加的趋势。
BP神经网络的采用梯度修正法作为权值和阈值的学习算法,从网络预测误差的负梯度方向修正权值和阈值,没有考虑以前经验的积累,学习过程收敛缓慢。对于这个问题,可以采用附加动量方法来解决,带附加动量的权值学习公式为
- xite,alfa为学习率
- w1=w1_1+xitedw1'+alfa*(w1_1-w1_2);
- b1=b1_1+xite*dbl'+alfa*(b1_1-b1_2);
- w2=w2_1+xite*dw2'+alfa*(w2_1-w2_2);
- b2=b2_1+xite*db2'+alfa*(b2_1-b2_2);
BP神经网络学习率n的取值在[0,1]之间,学习率n越大,对权值的修改越大,网络学习速度越快。但过大的学习速率n将使权值学习过程产生震荡,过小的学习概率使网络收敛过慢,权值难以趋于稳定。变学习率方法是指学习概率┐在BP神经网络进化初期较大,网络收敛迅速,随着学习过程的进行,学习率不断减小,网络趋于稳定。变学习率计算公式为
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。