当前位置:   article > 正文

BP神经网络回归预测-附完整MATLAB代码(代码完整可直接用,注释详细,可供学习)

神经网络回归预测

一、BP神经网络

BP神经网络(Backpropagation Neural Network)是一种常用的人工神经网络,可用于回归预测任务。它通过在网络中进行前向传播和反向传播的过程来学习输入和输出之间的非线性映射关系。下面是使用BP神经网络进行回归预测的一般步骤:

1. 数据准备:准备用于回归预测的训练集和测试集数据。确保数据已经进行预处理,例如归一化或标准化。

2. 网络构建:构建BP神经网络模型。BP神经网络由输入层、隐藏层和输出层组成。隐藏层的数量和节点数可以根据问题的复杂性和数据特征进行选择。

3. 初始化权重和偏置:初始化网络中的权重和偏置参数。通常,这些参数可以使用随机初始化的方式。

4. 前向传播:将训练集的输入数据通过网络进行前向传播,计算每个神经元的输出值,并将输出传递到下一层。

5. 计算损失:根据网络输出和训练集的真实值,计算损失函数(如均方误差)来衡量网络的预测误差。

6. 反向传播:根据损失函数,使用反向传播算法计算每个权重和偏置参数对损失的梯度,并根据梯度更新参数。

7. 参数优化:使用优化算法(如随机梯度下降)来更新网络中的权重和偏置参数,以最小化损失函数。

8. 迭代训练:重复执行步骤4至步骤7,直到达到预定的训练停止条件(如达到最大迭代次数或损失函数收敛)。

9. 预测:使用训练好的BP神经网络对测试集数据进行预测。将测试集的输入数据通过网络进行前向传播,得到回归预测值。

10. 评估模型:使用适当的评估指标(例如均方根误差)评估模型在测试集上的性能。

二、MATLAB仿真结果

1. 最佳隐含层节点的确定过程

2. 各项误差指标结果

3. 打印测试集结果

4. BP预测值和实际值的对比以及预测误差

5. 回归图和误差直方图

三、BP优化模型

遗传算法 GA-BP粒子群优化算法 PSO-BP
灰狼优化算法 GWO-BP鲸鱼优化算法 WOA-BP
麻雀搜索算法 SSA-BP布谷鸟搜索算法 CS-BP

 四、BP代码

代码获取:点击跳转(链接安全)icon-default.png?t=N6B9https://kdocs.cn/l/cv16i3LNubfz

  1. %% BP神经网络回归预测
  2. %% 1.初始化
  3. clear
  4. close all
  5. clc
  6. format bank %2位小数,format short精确4位,format long精确15位
  7. %% 2.读取数据
  8. data=xlsread('数据.xlsx'); % xlsread函数报错时,可用Load函数替代
  9. % 设置神经网络的输入和输出
  10. input=data(:,1:end-1); %第1列至倒数第2列为输入
  11. output=data(:,end); %最后1列为输出
  12. N=length(output); %计算样本数量
  13. %% 3.设置训练集和测试集
  14. %(1)随机选取测试样本
  15. k=rand(1,N);
  16. [m,n]=sort(k);
  17. testNum=500; %设定测试集样本数量 !仅需修改这里
  18. trainNum=N-testNum; %设定训练集样本数量
  19. input_train = input(n(1:trainNum),:)'; % 训练集输入
  20. output_train =output(n(1:trainNum))'; % 训练集输出
  21. input_test =input(n(trainNum+1:trainNum+testNum),:)'; % 测试集输入
  22. output_test =output(n(trainNum+1:trainNum+testNum))'; % 测试集输出
  23. %(2)从数据后面选取测试样本
  24. %testNum=50; %设定测试集样本数量
  25. %trainNum=N-testNum; %设定训练集样本数量
  26. %input_train = input(1:trainNum,:)'; % 训练集输入
  27. %output_train =output(1:trainNum)'; % 训练集输出
  28. %input_test =input(trainNum+1:trainNum+testNum,:)'; % 测试集输入
  29. %output_test =output(trainNum+1:trainNum+testNum)'; % 测试集输出
  30. %% 4.数据归一化
  31. [inputn,inputps]=mapminmax(input_train,0,1); % 训练集输入归一化到[0,1]之间
  32. [outputn,outputps]=mapminmax(output_train); % 训练集输出归一化到默认区间[-1, 1]
  33. inputn_test=mapminmax('apply',input_test,inputps); % 测试集输入采用和训练集输入相同的归一化方式
  34. %% 5.求解最佳隐含层
  35. inputnum=size(input,2); %size用来求取矩阵的行数和列数,1代表行数,2代表列数
  36. outputnum=size(output,2);
  37. disp(['输入层节点数:',num2str(inputnum),', 输出层节点数:',num2str(outputnum)])
  38. disp(['隐含层节点数范围为 ',num2str(fix(sqrt(inputnum+outputnum))+1),' 至 ',num2str(fix(sqrt(inputnum+outputnum))+10)])
  39. disp(' ')
  40. disp('最佳隐含层节点的确定...')
  41. %根据hiddennum=sqrt(m+n)+a,m为输入层节点数,n为输出层节点数,a取值[1,10]之间的整数
  42. MSE=1e+5; %误差初始化
  43. transform_func={'tansig','purelin'}; %激活函数采用tan-sigmoid和purelin
  44. train_func='trainlm'; %训练算法
  45. for hiddennum=fix(sqrt(inputnum+outputnum))+1:fix(sqrt(inputnum+outputnum))+10
  46. net=newff(inputn,outputn,hiddennum,transform_func,train_func); %构建BP网络
  47. % 设置网络参数
  48. net.trainParam.epochs=1000; % 设置训练次数
  49. net.trainParam.lr=0.01; % 设置学习速率
  50. net.trainParam.goal=0.000001; % 设置训练目标最小误差
  51. % 进行网络训练
  52. net=train(net,inputn,outputn);
  53. an0=sim(net,inputn); %仿真结果
  54. mse0=mse(outputn,an0); %仿真的均方误差
  55. disp(['当隐含层节点数为',num2str(hiddennum),'时,训练集均方误差为:',num2str(mse0)])
  56. %不断更新最佳隐含层节点
  57. if mse0<MSE
  58. MSE=mse0;
  59. hiddennum_best=hiddennum;
  60. end
  61. end
  62. disp(['最佳隐含层节点数为:',num2str(hiddennum_best),',均方误差为:',num2str(MSE)])
  63. %% 6.构建最佳隐含层的BP神经网络
  64. net=newff(inputn,outputn,hiddennum_best,transform_func,train_func);
  65. % 网络参数
  66. net.trainParam.epochs=1000; % 训练次数
  67. net.trainParam.lr=0.01; % 学习速率
  68. net.trainParam.goal=0.000001; % 训练目标最小误差
  69. %% 7.网络训练
  70. net=train(net,inputn,outputn); % train函数用于训练神经网络,调用蓝色仿真界面
  71. %% 8.网络测试
  72. an=sim(net,inputn_test); % 训练完成的模型进行仿真测试
  73. test_simu=mapminmax('reverse',an,outputps); % 测试结果反归一化
  74. error=test_simu-output_test; % 测试值和真实值的误差
  75. % 权值阈值
  76. W1 = net.iw{1, 1}; %输入层到中间层的权值
  77. B1 = net.b{1}; %中间各层神经元阈值
  78. W2 = net.lw{2,1}; %中间层到输出层的权值
  79. B2 = net.b{2}; %输出层各神经元阈值
  80. %% 9.结果输出
  81. % BP预测值和实际值的对比图
  82. figure
  83. plot(output_test,'bo-','linewidth',1.5)
  84. hold on
  85. plot(test_simu,'rs-','linewidth',1.5)
  86. legend('实际值','预测值')
  87. xlabel('测试样本'),ylabel('指标值')
  88. title('BP预测值和实际值的对比')
  89. set(gca,'fontsize',12)
  90. % BP测试集的预测误差图
  91. figure
  92. plot(error,'bo-','linewidth',1.5)
  93. xlabel('测试样本'),ylabel('预测误差')
  94. title('BP神经网络测试集的预测误差')
  95. set(gca,'fontsize',12)
  96. %计算各项误差参数
  97. [~,len]=size(output_test); % len获取测试样本个数,数值等于testNum,用于求各指标平均值
  98. SSE1=sum(error.^2); % 误差平方和
  99. MAE1=sum(abs(error))/len; % 平均绝对误差
  100. MSE1=error*error'/len; % 均方误差
  101. RMSE1=MSE1^(1/2); % 均方根误差
  102. MAPE1=mean(abs(error./output_test)); % 平均百分比误差
  103. r=corrcoef(output_test,test_simu); % corrcoef计算相关系数矩阵,包括自相关和互相关系数
  104. R1=r(1,2);
  105. % 显示各指标结果
  106. disp(' ')
  107. disp('各项误差指标结果:')
  108. disp(['误差平方和SSE:',num2str(SSE1)])
  109. disp(['平均绝对误差MAE:',num2str(MAE1)])
  110. disp(['均方误差MSE:',num2str(MSE1)])
  111. disp(['均方根误差RMSE:',num2str(RMSE1)])
  112. disp(['平均百分比误差MAPE:',num2str(MAPE1*100),'%'])
  113. disp(['预测准确率为:',num2str(100-MAPE1*100),'%'])
  114. disp(['相关系数R: ',num2str(R1)])

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/103835
推荐阅读
相关标签
  

闽ICP备14008679号