赞
踩
原文来自 老饼玩转-BP神经网络http://httsp://www.bbbdata.com/nn
目录
本文展示一个完整的BP神经网络训练例子,包含归一化、训练与测试数据分割、BP网络训练、训练结果与测试结果展示,和最后提取模型的数学表达式共6个完整步骤(使用matlab2014b)。
作为一个完整的base Demo供参考和学习。
本例从 中采取100个样本建立BP神经网络,然后与原函数进行比较。
步骤包括
(1)数据生成
(2)数据归一化
(3)训练测试数据分割
(4)网络训练
(5)展示训练结果
(6)泛化检验-测试数据的测试结果
(7)模型的使用
(8)提取模型的表达式
(9)模型表达式的反归一化
附加:模型表达式的打印。
运行结果如下
训练得到的模型表达式
13.8247*tansig(-0.94451*x1+0.33945*x2+2.1889)+18.6309*tansig(0.38004*x1+0.38706*x2+0.095989)-15.5021*tansig(0.7589*x1-0.06713*x2+2.0389)+1.6125
- clear all;close all ;
- %------------------原始数据-----------------------------------
- x1 = linspace(-3,3,100); % 在[-3,3]之间线性生成100个数据
- x2 = linspace(-2,1.5,100); % 在[-2,1.5]之间线性生成100个数据
- y = 10*sin(x1)+0.2*x2.*x2; % 生成y
-
- inputData = [x1;x2]; % 将x1,x2作为输入数据
- outputData = y; % 将y作为输出数据
-
- %--------------数据预处理:归一化-------------------------------
- %由于有归一化,必须先将归一化信息抓取出来
- iMax = max(inputData,[],2);
- iMin = min(inputData,[],2);
- oMax = max(outputData,[],2);
- oMin = min(outputData,[],2);
-
- normInputData=2*(inputData -repmat(iMin,1,size(inputData,2)))./repmat(iMax-iMin,1,size(inputData,2)) -1;
- normOutPutData=2*(outputData -repmat(oMin,1,size(outputData,2)))./repmat(oMax-oMin,1,size(outputData,2)) -1;
-
- %---------------数据预处理:预留检验数据----------------------------------
- randIndex = randperm(100);
- trainIndex = sort(randIndex(1:80)); % 随机选出80个数据作为训练数据(这里先选出数据的序号)
- testIndex = sort(randIndex(81:100)); % 将剩下的20个数据作为检验数据(这里先选出数据的序号)
-
- inputData_train = normInputData(:,trainIndex); % 根据序号选出80个用于训练的输入
- inputData_test = normInputData(:,testIndex); % 根据序号选出20个用于检验的输入
- outputData_train = normOutPutData(:,trainIndex); % 根据序号选出80个用于训练的输出
- outputData_test = normOutPutData(:,testIndex); % 根据序号选出20个用于检验的输出
-
- %----------------网络训练 -----------------------------------------------
- %使用用输入输出数据(inputData_train、outputData_train)建立网络,隐节点个数设为3.其中输入层到隐层、隐层到输出层的节点分别为tansig和purelin,使用trainlm方法训练。
- net = newff(inputData_train,outputData_train,3,{'tansig','purelin'},'trainlm');
-
- %设置一些常用参数
- net.trainparam.goal = 0.00001; % 训练目标:均方误差低于0.0001
- net.trainparam.show = 400; % 每训练400次展示一次结果
- net.trainparam.epochs = 15000; % 最大训练次数:15000.
-
- [net,tr] = train(net,inputData_train,outputData_train); % 调用matlab神经网络工具箱自带的train函数训练网络
-
- %----------训练数据的拟合效果-----------------------------
- figure;
- %训练数据的拟合效果
- simout_train = sim(net,inputData_train);
- subplot(2,1,1);
- title('训练数据的拟合效果')
- hold on
- t=1:length(simout_train);
- plot(t,outputData_train,t,simout_train,'r')%画图,对比原来的y和网络预测的y
-
- %检验数据的拟合效果
- simout_test = sim(net,inputData_test);
- subplot(2,1,2);
- title('未训练数据的拟合效果')
- hold on
-
- t=1:length(simout_test);
- plot(t,outputData_test,t,simout_test,'r')%画图,对比原来的y和网络预测的y
-
- %-----------------------真正使用时的流程--------------------
- X= [-2.9;-1.9]; % 要预测的X
- normX=2*(X -iMin)./(iMax-iMin) -1; % 对X归一化
- normSimY = sim(net,normX); % 用网络预测
- simy = (normSimY+1).*(oMax-oMin)./2 + oMin; % 对结果反归一
-
- %----------------------提取表达式(对应归一化数据)------------------------------------
- %提取权重
- w12 = net.iw{1,1}; % 第1层(输入层)到第2层(隐层)的权值
- b2 = net.b{1}; % 第2层(隐层)的神经元阈值
-
- w23 = net.lw{2,1}; % 第2层(输入层)到第3层(输出层)的权值
- b3 = net.b{2}; % 第3层(输出层)的神经元阈值
-
- %对应的数学表达式:
- sim_y_norm = w23 *tansig( w12 *inputData + repmat(b2,1,size(inputData,2))) + repmat(b3,1,size(inputData,2));
-
- %----------------------提取表达式(对应原始数据)------------------------------------
- %权重反归一化
- W12 = w12 * 2 ./repmat(iMax' -iMin',size(w12,1),1);
- B2 = -w12* (2*iMin ./(iMax - iMin) + 1) + b2;
-
- W23 = w23 .*repmat((oMax -oMin),1,size(w23,2))/2;
- B3 = (oMax -oMin) .*b3 /2 + (oMax -oMin)/2 + oMin;
-
- %最终的数学表达式:
- sim_y = W23 *tansig( W12 *inputData + repmat(B2,1,size(inputData,2))) + repmat(B3,1,size(inputData,2));
-
- %数学表达式与工具箱预测结果的比较
- net_sim_y = sim(net,normInputData);
- net_sim_y=(net_sim_y+1).*(oMax-oMin)./2 + oMin; % 对结果反归一
- formula_err=max(max(abs(net_sim_y - sim_y)));
加入以下一段,可以打印表达式(仅为参考DEMO,非通用函数)
- [hn,xn] = size(W12);%隐节点个数,输入个数
- f_str = '';
- for i=1:hn
- cur_tansig = [num2str(W23(i)),'*tansig('];
- if(i>1 && W23(i)>0)
- cur_tansig =['+',cur_tansig] ;
- endfor j = 1: xn
- sign_str = '';
- if(j>1 && W12(i,j)>0 )
- sign_str='+';
- end
- cur_tansig = [cur_tansig,sign_str,num2str(W12(i,j)),'*x',num2str(j)];
- end
- sign_str = '';
- if( B2(i)>0 )
- sign_str='+';
- end
- cur_tansig = [cur_tansig,sign_str,num2str(B2(i)),')'];
- f_str= [f_str,cur_tansig];
- end
- sign_str = '';
- if( B3>0 )sign_str='+';
- end
- f_str=[f_str,sign_str,num2str(B3)]
运行结果:
13.8247*tansig(-0.94451*x1+0.33945*x2+2.1889)+18.6309*tansig(0.38004*x1+0.38706*x2+0.095989)-15.5021*tansig(0.7589*x1-0.06713*x2+2.0389)+1.6125
相关文章
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。