当前位置:   article > 正文

BP神经网络回归预测-MATLAB代码实现-代码完整直接可用_bp神经网络预测模型matlab

bp神经网络预测模型matlab

一、前言(代码获取:底部公众号)

BP神经网络预测回归MATLAB代码(代码完整可用,复制后即可运行使用,操作简单)
(1)BP神经网络的知识想必不用再过多介绍,本篇文章从实际应用的角度,针对新手应用者,针对不需要过多了解BP,但是需使用MATLAB进行BP预测使用的童鞋们(就是那些我不需要懂,能用就行的童鞋们),展示了一套完整且注释详细的BP神经网络MATLAB代码,供各位直接使用。
(2)此代码展示了丰富的结果表现形式,包含了常用的各种结果指标,包括误差平方和SSE、平均绝对误差MAE、均方误差MSE、均方根误差RMSE、平均百分比误差MAPE、预测准确率、相关系数R。此外,本代码还包含了隐含层节点的寻优过程,自动计算出最佳隐含层节点,避免了随意设置导致的误差增大和反复的实验过程。
(3)代码共分为9部分,分别为:初始化、读取数据、设置训练集和测试集、数据归一化、求解最佳隐含层、构建最佳隐含层的BP神经网络、网络训练、网络测试、结果输出。

二、完整代码展示

  1. %% BP神经网络回归预测
  2. %% 1.初始化
  3. clear
  4. close all
  5. clc
  6. format bank %2位小数,format short精确4位,format long精确15位
  7. %% 2.读取数据
  8. data=xlsread('数据.xlsx'); % xlsread函数报错时,可用Load函数替代
  9. % 设置神经网络的输入和输出
  10. input=data(:,1:end-1); %第1列至倒数第2列为输入
  11. output=data(:,end); %最后1列为输出
  12. N=length(output); %计算样本数量
  13. %% 3.设置训练集和测试集
  14. %(1)随机选取测试样本
  15. k=rand(1,N);
  16. [m,n]=sort(k);
  17. testNum=500; %设定测试集样本数量 !仅需修改这里
  18. trainNum=N-testNum; %设定训练集样本数量
  19. input_train = input(n(1:trainNum),:)'; % 训练集输入
  20. output_train =output(n(1:trainNum))'; % 训练集输出
  21. input_test =input(n(trainNum+1:trainNum+testNum),:)'; % 测试集输入
  22. output_test =output(n(trainNum+1:trainNum+testNum))'; % 测试集输出
  23. %(2)从数据后面选取测试样本
  24. %testNum=50; %设定测试集样本数量
  25. %trainNum=N-testNum; %设定训练集样本数量
  26. %input_train = input(1:trainNum,:)'; % 训练集输入
  27. %output_train =output(1:trainNum)'; % 训练集输出
  28. %input_test =input(trainNum+1:trainNum+testNum,:)'; % 测试集输入
  29. %output_test =output(trainNum+1:trainNum+testNum)'; % 测试集输出
  30. %% 4.数据归一化
  31. [inputn,inputps]=mapminmax(input_train,0,1); % 训练集输入归一化到[0,1]之间
  32. [outputn,outputps]=mapminmax(output_train); % 训练集输出归一化到默认区间[-1, 1]
  33. inputn_test=mapminmax('apply',input_test,inputps); % 测试集输入采用和训练集输入相同的归一化方式
  34. %% 5.求解最佳隐含层
  35. inputnum=size(input,2); %size用来求取矩阵的行数和列数,1代表行数,2代表列数
  36. outputnum=size(output,2);
  37. disp(['输入层节点数:',num2str(inputnum),', 输出层节点数:',num2str(outputnum)])
  38. disp(['隐含层节点数范围为 ',num2str(fix(sqrt(inputnum+outputnum))+1),' 至 ',num2str(fix(sqrt(inputnum+outputnum))+10)])
  39. disp(' ')
  40. disp('最佳隐含层节点的确定...')
  41. %根据hiddennum=sqrt(m+n)+a,m为输入层节点数,n为输出层节点数,a取值[1,10]之间的整数
  42. MSE=1e+5; %误差初始化
  43. transform_func={'tansig','purelin'}; %激活函数采用tan-sigmoid和purelin
  44. train_func='trainlm'; %训练算法
  45. for hiddennum=fix(sqrt(inputnum+outputnum))+1:fix(sqrt(inputnum+outputnum))+10
  46. net=newff(inputn,outputn,hiddennum,transform_func,train_func); %构建BP网络
  47. % 设置网络参数
  48. net.trainParam.epochs=1000; % 设置训练次数
  49. net.trainParam.lr=0.01; % 设置学习速率
  50. net.trainParam.goal=0.000001; % 设置训练目标最小误差
  51. % 进行网络训练
  52. net=train(net,inputn,outputn);
  53. an0=sim(net,inputn); %仿真结果
  54. mse0=mse(outputn,an0); %仿真的均方误差
  55. disp(['当隐含层节点数为',num2str(hiddennum),'时,训练集均方误差为:',num2str(mse0)])
  56. %不断更新最佳隐含层节点
  57. if mse0<MSE
  58. MSE=mse0;
  59. hiddennum_best=hiddennum;
  60. end
  61. end
  62. disp(['最佳隐含层节点数为:',num2str(hiddennum_best),',均方误差为:',num2str(MSE)])
  63. %% 6.构建最佳隐含层的BP神经网络
  64. net=newff(inputn,outputn,hiddennum_best,transform_func,train_func);
  65. % 网络参数
  66. net.trainParam.epochs=1000; % 训练次数
  67. net.trainParam.lr=0.01; % 学习速率
  68. net.trainParam.goal=0.000001; % 训练目标最小误差
  69. %% 7.网络训练
  70. net=train(net,inputn,outputn); % train函数用于训练神经网络,调用蓝色仿真界面
  71. %% 8.网络测试
  72. an=sim(net,inputn_test); % 训练完成的模型进行仿真测试
  73. test_simu=mapminmax('reverse',an,outputps); % 测试结果反归一化
  74. error=test_simu-output_test; % 测试值和真实值的误差
  75. % 权值阈值
  76. W1 = net.iw{1, 1}; %输入层到中间层的权值
  77. B1 = net.b{1}; %中间各层神经元阈值
  78. W2 = net.lw{2,1}; %中间层到输出层的权值
  79. B2 = net.b{2}; %输出层各神经元阈值
  80. %% 9.结果输出
  81. % BP预测值和实际值的对比图
  82. figure
  83. plot(output_test,'bo-','linewidth',1.5)
  84. hold on
  85. plot(test_simu,'rs-','linewidth',1.5)
  86. legend('实际值','预测值')
  87. xlabel('测试样本'),ylabel('指标值')
  88. title('BP预测值和实际值的对比')
  89. set(gca,'fontsize',12)
  90. % BP测试集的预测误差图
  91. figure
  92. plot(error,'bo-','linewidth',1.5)
  93. xlabel('测试样本'),ylabel('预测误差')
  94. title('BP神经网络测试集的预测误差')
  95. set(gca,'fontsize',12)
  96. %计算各项误差参数
  97. [~,len]=size(output_test); % len获取测试样本个数,数值等于testNum,用于求各指标平均值
  98. SSE1=sum(error.^2); % 误差平方和
  99. MAE1=sum(abs(error))/len; % 平均绝对误差
  100. MSE1=error*error'/len; % 均方误差
  101. RMSE1=MSE1^(1/2); % 均方根误差
  102. MAPE1=mean(abs(error./output_test)); % 平均百分比误差
  103. r=corrcoef(output_test,test_simu); % corrcoef计算相关系数矩阵,包括自相关和互相关系数
  104. R1=r(1,2);
  105. % 显示各指标结果
  106. disp(' ')
  107. disp('各项误差指标结果:')
  108. disp(['误差平方和SSE:',num2str(SSE1)])
  109. disp(['平均绝对误差MAE:',num2str(MAE1)])
  110. disp(['均方误差MSE:',num2str(MSE1)])
  111. disp(['均方根误差RMSE:',num2str(RMSE1)])
  112. disp(['平均百分比误差MAPE:',num2str(MAPE1*100),'%'])
  113. disp(['预测准确率为:',num2str(100-MAPE1*100),'%'])
  114. disp(['相关系数R: ',num2str(R1)])

三、运行结果展示

(1)最佳隐含层节点的确定过程:

在这里插入图片描述

(2)各项误差指标结果

在这里插入图片描述

(3)打印测试集结果

在这里插入图片描述

(4)BP预测值和实际值的对比以及预测误差

在这里插入图片描述

(5)回归图和误差直方图

在这里插入图片描述

(6)其他训练结果

在这里插入图片描述

四、BP算法优化

BP算法优化
遗传算法  GA-BP灰狼算法  GWO-BP
鲸鱼算法  WOA-BP粒子群算法  PSO-BP
麻雀算法  SSA-BP布谷鸟算法  CS-BP

五、结语

(1)本代码可以算作是BP神经网络预测的较为优质的代码,大部分的设置是自动计算,无需手动修改,替换数据集后可直接使用,不懂得小伙伴根据文章也可直接使用,非常便捷;
(2)本代码为多输出单输出神经网络,后续会发布多输出多输出的BP代码,敬请期待。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/739027
推荐阅读
相关标签
  

闽ICP备14008679号