当前位置:   article > 正文

基于MATLAB的多输入多输出神经网络代码_matlab 多变量控制 神经网络 code

matlab 多变量控制 神经网络 code

之前因为毕设要做MATLAB多输入多输出的东西,在网上找了半天也没有,有也是要付费的,最后自己弄出来了,给大家分享一下。

我分别做出了LSTM长短期记忆神经网络多输入多输出、径向基神经网络多输入多输出、BP神经网络多输入多输出和卷积神经网络多输入多输出。

首先说明一下数据集,我的数据都是通过ANSYS软件仿真得到的,输入是应变数据100*10,输出是位移数据100*10。最终目的是输入应变得到相对应的位移,所以我将数据reshape成1000*1构建模型之后再变回100*10,思路大概就是这样。我把数据集放在开头免费分享,可是发现它下载还是要VIP,想要数据集的可以私信我发给你,等人多了我再整个百度网盘。

一、从文件夹中读取数据

我的数据全部放在一个文件夹里面方便读取

 上面是输出的位移数据,下面是输入的应变数据,一一对应。

  1. clc %清空命令行
  2. clear %清空变量
  3. close all %关闭开启的图窗
  4. %% 导入并读取数据
  5. path = 'C:\Users\14737\Desktop\基于人工神经网络的应变重构研究\自测数据(一端固定,100个点)\'; %此处文件地址改为需要的文件夹路径
  6. Filesname = dir(strcat(path,'*.xlsx')); %找到当前路径文件夹下的以.xlsx为后缀的文件名,strcat是横向连接字符的函数
  7. Length = length(Filesname ); %计算文件夹里xls文档的个数
  8. Z_3=zeros(Length/2,100,10);
  9. X_3=zeros(Length/2,100,10);
  10. for i = 1:Length %批量读取文件的内容并保存
  11. xls_data = readmatrix(strcat(path,Filesname (i).name));%读取这个循环中的这组数据
  12. data = xls_data(3:end,2:end);
  13. if i<=100
  14. Z_3(i,:,:)=data;
  15. else
  16. j=i-100;
  17. X_3(j,:,:)=data;
  18. end
  19. end

相关代码的注释我都写上去了。

这里面要注意的是,我读取的数据Z_3,X_3是3维的,第一个维度代表是文件,二三维度代表行和列。

二、三维转二维

这一步实现了100*10到1000*1的转变。

  1. %% 三维转二维(200:100:10变成200:1000)
  2. Z_2 = zeros(100,1000);
  3. X_2 = zeros(100,1000);
  4. for i = 1:100
  5. Z_2(i,:) = reshape(Z_3(i,:,:),1000,1);
  6. X_2(i,:) = reshape(X_3(i,:,:),1000,1);
  7. end

三、划分数据集和测试集

这里我的数据量是100,所以我按照8:2的比例划分数据集和测试集。

  1. temp = randperm(100); %生成100的乱序数组,temp = 1:1:100;打乱顺序
  2. Z_train = Z_2(temp(1:80),:);
  3. X_train = X_2(temp(1:80),:);
  4. Z_test = Z_2(temp(81:end),:);
  5. X_test = X_2(temp(81:end),:);

四、归一化

这里要注意理解!

  1. %% 归一化
  2. [X_train_1,X_train_iutput]=mapminmax(X_train',-1,1); %训练输入归一化
  3. X_test_1=mapminmax('apply',X_test',X_train_iutput); %测试输入归一化
  4. [Z_train_1,Z_train_output]=mapminmax(Z_train',-1,1); %训练输出归一化

        这里要注意归一化时,只能将训练集的输入与输出归一化,然后用训练集归一化的映射关系去归一化测试集,再将已经归一化完成的测试集放入已经用归一化好的训练集输出与输入训练出来的模型中得到输出,最后将得到的输出用训练集输出映射关系来反归一化。之所以这样做是因为在真实情况中很难得到输入输出的数据集,只有单个输入来放入已经训练好的模型中。是否用测试集本身归一化与反归一化还是用训练集的映射来归一化与反归一化对最后的结果影响比较大。

五、训练神经网络

1、BP神经网络

        BP神经网络是最常规的,构建BP神经网络的时候首先要确定训练集与测试集的比例,根据一般经验将训练集与测试集的比例设置为8:2。然后设置训练次数,训练次数为200次,但是因为MATLAB中BP神经网络训练的时候如果损失函数的值在5次迭代之后都没有明显的改善的话就会停止迭代,所以要设置net1.divideFcn = ''才可以一直迭代下去。学习率设置的是0.01。隐藏层神经数设为一层。因为仿真的时候设置的是10条path,每一条path上面有100个感应点,所以每组不同力大小的应变和位移数据大小为10*100。所以输入层和输出层的神经元数目设置为1000个,隐藏层神经元数目设置为10个。隐藏层神经元的激活函数是'tansig'表示双曲正切 sigmoid 传递函数,输出层神经元的激活函数是'purelin'表示线性函数。训练方法为'trainrp'神经网络结构图。

  1. %% 创建网络&设置训练参数&训练网络(训练方法trainrp)
  2. net1 = newff(X_train_1,Z_train_1,10,{'tansig','purelin'},'trainrp');
  3. net1.trainParam.goal = 1e-4;%优化目标 MSE
  4. net1.trainParam.epochs = 200;%迭代次数
  5. net1.trainParam.lr = 0.1;%学习率
  6. net1.trainParam.min_grad = 1e-10;%最小梯度
  7. net1.divideFcn = '';
  8. [net1,w1] = train(net1,X_train_1,Z_train_1);
  9. mse1 = w1.perf;
  10. %% trainrp网络仿真
  11. Y= sim( net1 , X_test_1) ;
  12. %% 测试结果反归一化
  13. Y_sim=mapminmax('reverse',Y,Z_train_output');

2、径向基神经网络

        径向基函数是一种前馈神经网络,它的隐藏层的激活函数是径向基函数,这是它的特征。径向基函数是一种只和中心点距离有关的非负实值函数,具有径向对称性。隐藏层的维数通常较高,这使得它能够更好地逼近目标函数。径向基神经网络的非线性转换发生在输入层和隐含层之间,而隐含层和输出层之间是线性转换,并且两个层间的转换参数可以分别进行学习,与其他神经网络相比,其学习速度较快且可以避免局部极小问题。接下来将用广义回归神经网络和精确径向基神经网络来实现多输入多输出神经网络的搭建(因为MATLAB中只有这两种)。

(1)广义回归神经网络

        广义回归神经网络(Generalized Regression Neural NetworkGRNN是一种四层前馈神经网络,它能够非线性地近似各种函数,是径向基神经网络的一种改进。与之不同的是,该网络无需训练过程,只需通过优化模式层的平滑因子来获得较好的输出结果。

        GRNN有高效的非线性表征能力和极快的学习能力,比RBF更有优势,样本数据少时,预测效果更好,广义回归神经网络也可以用来处理不稳定数据。

 GRNN只需要调节一个参数,spead是传播率(应该?)我设置的是0.02。

  1. %% 设置grnn网络并且仿真
  2. net = newgrnn(X_train_1,Z_train_1,0.02);%建立grnn 训练网络
  3. Y = sim(net,X_test_1);
  4. %% 测试结果反归一化
  5. Y_sim=mapminmax('reverse',Y,Z_train_output');

(2)精确径向基神经网络

        精确径向基神经网络是径向基神经网络的特殊情况的一种,精确径向基神经网络的结构与径向基神经网络的结构完全一样,只是径向基神经网络的隐节点是固定个数(与样本个数相同),而精确径向基神经网络则会使用最小二乘法(Ordinary Least Square,OLS)算法逐个添加神经元,直到误差小于指定误差。即当精确径向基神经网络拥有与样本个数一样的神经元时,此时它就是径向基神经网络。

  1. %% 设置rbe网络并且仿真
  2. net = newrbe(X_train_1,Z_train_1);%建立grnn 训练网络
  3. Y = sim(net,X_test_1);
  4. %% 测试结果反归一化
  5. Y_sim=mapminmax('reverse',Y,Z_train_output');

3、LSTM长短期记忆神经网络

        LSTM网络是循环神经网络模型中的一种,它的结构很特殊。LSTM能有效地捕捉序列中的长期和短期模式,也能缓解RNN中的梯度消失或梯度爆炸问题,使梯度保持在合理的区间范围内,避免训练不稳定。LSTM可以加强模型的泛化能力和表达能力。总之,LSTM比RNN更进一步,可以处理更复杂和更长的序列数据。

  1. %% 设置参数
  2. inputSize = size(X_train_1',2);
  3. numHiddenUnits = 100;
  4. numResponses = size(Z_train_1',2);
  5. layers = [ ...
  6. sequenceInputLayer(inputSize)
  7. lstmLayer(numHiddenUnits,'OutputMode','sequence')
  8. fullyConnectedLayer(numResponses)
  9. regressionLayer];
  10. options = trainingOptions('adam', ...//训练网络的解决方法,自适应动量的随机优化方法
  11. 'MaxEpochs',1000, ...
  12. 'GradientThreshold',1e-5, ...
  13. 'InitialLearnRate',0.01, ...
  14. 'LearnRateSchedule','piecewise', ...
  15. 'LearnRateDropFactor',0.5, ...
  16. 'LearnRateDropPeriod',500, ...
  17. 'Plots', 'training-progress', ...
  18. 'Verbose',0);
  19. %% 创建网络
  20. [net,info2] = trainNetwork(X_train_1,Z_train_1,layers,options);
  21. %% 仿真
  22. Y= predict(net,X_test_1) ;
  23. %% 测试结果反归一化
  24. Y_sim=mapminmax('reverse',Y,Z_test_output);

4、卷积神经网络

        CNN模型通常由四个部分组成,分别是卷积,池化,激活和全连接。卷积是提取特征的核心步骤。卷积的输出叫做特征图。为了不失去边缘的信息,我们需要用零值对输入进行填充,这样可以间接改变大小。另外,为了调节卷积的稀疏性,使用了步长。步长越大,稀疏性越高。卷积之后,特征图包含了大量容易造成过拟合问题的特征。所以,一般用池化的方法来消除冗余,防止过拟合的发生。

        MATLAB中有自带的trainNetwork()函数,它可以练卷积神经网络用于深度学习分类和回归问题。net = trainNetwork(X,Y,layers,options)为图像分类或回归问题训练网络。数字数组X包含预测变量,Y数组包含分类标签或数字响应。其中X必须要转化为四维数组,每个维度分别代表输入矩阵长度,输入矩阵宽度,输入矩阵通道数和样本数目,用reshape将数组从二维变成四维。构造网络结构layers时,在卷积层设置了32个10*3的卷积核,还设置了Dropout层,丢弃了20%的数据,来防止过拟合。最后还要设置回归层,表示做的时回归任务。参数设置trainingOptions中,训练网络的解算器不能设置为sgdm(随机梯度下降法),要设置为adam(自适应学习率的梯度下降算法)。初始学习率为0.01。

  1. %% 构造网络结构
  2. layers = [
  3. imageInputLayer([100, 10, 1]) % 输入层 输入数据规模[1000, 1, 1]
  4. convolution2dLayer([10, 3], 32) % 卷积核大小 3*1 生成16张特征图
  5. batchNormalizationLayer % 批归一化层
  6. reluLayer % Relu激活层
  7. % convolution2dLayer([20, 5], 32) % 卷积核大小 3*1 生成32张特征图
  8. % batchNormalizationLayer % 批归一化层
  9. % reluLayer % Relu激活层
  10. dropoutLayer(0.2) % Dropout层,防止过拟合
  11. fullyConnectedLayer(1000) % 全连接层
  12. regressionLayer]; % 回归层
  13. %% 参数设置
  14. options = trainingOptions('adam', ... % adam 自适应
  15. 'MiniBatchSize', 40, ... % 批大小,每次训练样本个数30
  16. 'MaxEpochs', 100, ... % 最大训练次数 800
  17. 'InitialLearnRate', 0.005, ... % 初始学习率为0.01
  18. 'LearnRateSchedule', 'piecewise', ... % 学习率下降
  19. 'LearnRateDropFactor', 0.5, ... % 学习率下降因子
  20. 'LearnRateDropPeriod', 500, ... % 经过400次训练后 学习率为 0.01 * 0.5
  21. 'Shuffle', 'every-epoch', ... % 每次训练打乱数据集
  22. 'Plots', 'training-progress', ... % 画出曲线
  23. 'Verbose', false);
  24. %% 训练模型
  25. net = trainNetwork(X_train_1, Z_train_1, layers, options);
  26. %% 预测
  27. Y_sim = predict(net,X_test_1);

 六、得到数据二维转三维

  1. Y_3 = zeros(20,100,10);
  2. for i = 1:20
  3. Y_3(i,:,:) = reshape(Y_sim(i,:),100,10);
  4. end
  5. Z_test_3 = zeros(20,100,10);
  6. for i = 1:20
  7. Z_test_3(i,:,:) = reshape(Z_test(i,:),100,10);
  8. end

七、计算评价指标

  1. R = corrcoef(Z_test,Y_sim);
  2. R2 = R(1,2)^2;%R2(决定系数)是一种用于衡量回归模型拟合优度的统计量。R2的值介于0和1之间,越接近1表示模型对数据的拟合越好。R2的计算公式为:R2 = 1 - SSresid/SStotal,其中SSresid是残差平方和,SStotal是总平方和1
  3. MSE = immse(Z_test,double(Y_sim));%均方误差
  4. RMSE = sqrt(MSE);%均方根误差

八、画出得到的Z位移与实际Z位移3D图

  1. D = 1;
  2. x = 460/101*2:460/101:460;
  3. y = (-180:40:180);
  4. z_sim = reshape(Y_3(D,:,:),100,10)';
  5. z_real = reshape(Z_test_3(D,:,:),100,10)';
  6. xi = x;
  7. yi = (-180:360/99:180)';
  8. zi_real = interp2(x,y,z_real,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  9. zi_sim = interp2(x,y,z_sim,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  10. figure;
  11. subplot(1,2,2)
  12. mesh(xi,yi,zi_real);
  13. title('\fontname{宋体}\fontsize{20}实际一端受力\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移')
  14. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  15. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  16. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  17. subplot(1,2,1)
  18. mesh(xi,yi,zi_sim);
  19. title('\fontname{宋体}\fontsize{20}训练一端受力\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移')
  20. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  21. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  22. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  23. grid on
  24. figure;
  25. mesh(xi,yi,zi_real);
  26. hold on;
  27. mesh(xi,yi,zi_sim);
  28. title('')
  29. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  30. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  31. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');

九、完整代码

1、BP

  1. clc %清空命令行
  2. clear %清空变量
  3. close all %关闭开启的图窗
  4. %% 导入并读取数据
  5. path = 'E:\基于人工神经网络的应变重构研究\自测数据(一端固定,100个点)\'; %此处文件地址改为需要的文件夹路径
  6. Filesname = dir(strcat(path,'*.xlsx')); %找到当前路径文件夹下的以.xlsx为后缀的文件名,strcat是横向连接字符的函数
  7. Length = length(Filesname ); %计算文件夹里xls文档的个数
  8. Z_3=zeros(Length/2,100,10);
  9. X_3=zeros(Length/2,100,10);
  10. for i = 1:Length %批量读取文件的内容并保存
  11. xls_data = readmatrix(strcat(path,Filesname (i).name));%读取这个循环中的这组数据
  12. data = xls_data(3:end,2:end);
  13. if i<=100
  14. Z_3(i,:,:)=data;
  15. else
  16. j=i-100;
  17. X_3(j,:,:)=data;
  18. end
  19. end
  20. %% 三维转二维(200:100:10变成200:1000)
  21. Z_2 = zeros(100,1000);
  22. X_2 = zeros(100,1000);
  23. for i = 1:100
  24. Z_2(i,:) = reshape(Z_3(i,:,:),1000,1);
  25. X_2(i,:) = reshape(X_3(i,:,:),1000,1);
  26. end
  27. %% 划分训练集和测试集
  28. temp = randperm(100); %生成100的乱序数组,temp = 1:1:100;打乱顺序
  29. Z_train = Z_2(temp(1:80),:);
  30. X_train = X_2(temp(1:80),:);
  31. Z_test = Z_2(temp(81:end),:);
  32. X_test = X_2(temp(81:end),:);
  33. %% 归一化
  34. [X_train_1,X_train_iutput]=mapminmax(X_train',-1,1); %训练输入归一化
  35. X_test_1=mapminmax('apply',X_test',X_train_iutput); %测试输入归一化
  36. [Z_train_1,Z_train_output]=mapminmax(Z_train',-1,1); %训练输出归一化
  37. %% 创建网络&设置训练参数&训练网络(训练方法trainrp)
  38. net1 = newff(X_train_1,Z_train_1,10,{'tansig','purelin'},'trainrp');
  39. net1.trainParam.goal = 1e-4;%优化目标 MSE
  40. net1.trainParam.epochs = 200;%迭代次数
  41. net1.trainParam.lr = 0.1;%学习率
  42. net1.trainParam.min_grad = 1e-10;%最小梯度
  43. [net1,w1] = train(net1,X_train_1,Z_train_1);
  44. mse1 = w1.perf;
  45. %% trainrp网络仿真
  46. Y= sim( net1 , X_test_1) ;
  47. %% 测试结果反归一化
  48. Y_sim=mapminmax('reverse',Y,Z_train_output');
  49. %% 得到数据二维转三维
  50. Y_3 = zeros(20,100,10);
  51. for i = 1:20
  52. Y_sim_1 = Y_sim';
  53. Y_3(i,:,:) = reshape(Y_sim_1(i,:),100,10);
  54. end
  55. Z_test_3 = zeros(20,100,10);
  56. for i = 1:20
  57. Z_test_3(i,:,:) = reshape(Z_test(i,:),100,10);
  58. end
  59. %% 计算评价指标
  60. R = corrcoef(Z_test,Y_sim');
  61. R2 = R(1,2)^2;%R2(决定系数)是一种用于衡量回归模型拟合优度的统计量。R2的值介于0和1之间,越接近1表示模型对数据的拟合越好。R2的计算公式为:R2 = 1 - SSresid/SStotal,其中SSresid是残差平方和,SStotal是总平方和1
  62. MSE = immse(Z_test,double(Y_sim'));%均方误差
  63. RMSE = sqrt(MSE);%均方根误差
  64. %% 显示评价指标
  65. fprintf('R2=%f\nMSE=%f\nRMSE=%f\n',R2,MSE,RMSE);
  66. %% 画出得到的Z位移与实际Z位移3D图
  67. D = 1;
  68. x = 460/101*2:460/101:460;
  69. y = (-180:40:180);
  70. z_sim = reshape(Y_3(D,:,:),100,10)';
  71. z_real = reshape(Z_test_3(D,:,:),100,10)';
  72. xi = x;
  73. yi = (-180:360/99:180)';
  74. zi_real = interp2(x,y,z_real,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  75. zi_sim = interp2(x,y,z_sim,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  76. figure;
  77. subplot(1,2,2)
  78. mesh(xi,yi,zi_real);
  79. title('\fontname{宋体}\fontsize{20}实际一端受力\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移')
  80. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  81. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  82. % zlabel('Z方向位移(mm)','FontSize',20,'FontName','宋体');
  83. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  84. subplot(1,2,1)
  85. mesh(xi,yi,zi_sim);
  86. title('\fontname{宋体}\fontsize{20}训练一端受力\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移')
  87. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  88. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  89. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  90. grid on
  91. figure
  92. mesh(xi,yi,zi_real);
  93. hold on;
  94. mesh(xi,yi,zi_sim);
  95. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  96. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  97. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  98. grid on
  99. % % mse
  100. % figure;
  101. % T = 0:1:200;
  102. % plot(T,mse1,'LineWidth',1.5);
  103. % axis([0,200,1e-8,1]);
  104. % set(gca,'xticklabel',{'0','20','40','60','80','100','120','140','160','180','200'}) %设置X坐标轴刻度处显示的字符
  105. % set(gca,'yticklabel',{'1e-8','1e-7','1e-6','1e-5','1e-4','1e-3','1e-2','1e-1','1'}) %设置Y坐标轴刻度处显示的字符
  106. % set(gca,'ytick',[1e-8,1e-7,1e-6,1e-5,1e-4,1e-3,1e-2,1e-1,1]);%纵坐标设置
  107. % set(gca,'yscale','log');%取对数实现纵坐标不均匀分布
  108. % legend('trainrp');
  109. % xlabel('Epochs');
  110. % ylabel('MSE');
  1. clc %清空命令行
  2. clear %清空变量
  3. close all %关闭开启的图窗
  4. %% 导入并读取数据
  5. path = 'E:\基于人工神经网络的应变重构研究\自测数据(一端固定,100个点)\'; %此处文件地址改为需要的文件夹路径
  6. Filesname = dir(strcat(path,'*.xlsx')); %找到当前路径文件夹下的以.xlsx为后缀的文件名,strcat是横向连接字符的函数
  7. Length = length(Filesname ); %计算文件夹里xls文档的个数
  8. Z_3=zeros(Length/2,100,10);
  9. X_3=zeros(Length/2,100,10);
  10. for i = 1:Length %批量读取文件的内容并保存
  11. xls_data = readmatrix(strcat(path,Filesname (i).name));%读取这个循环中的这组数据
  12. data = xls_data(3:end,2:end);
  13. if i<=100
  14. Z_3(i,:,:)=data;
  15. else
  16. j=i-100;
  17. X_3(j,:,:)=data;
  18. end
  19. end
  20. %% 三维转二维(200:100:10变成200:1000)
  21. Z_2 = zeros(100,1000);
  22. X_2 = zeros(100,1000);
  23. for i = 1:100
  24. Z_2(i,:) = reshape(Z_3(i,:,:),1000,1);
  25. X_2(i,:) = reshape(X_3(i,:,:),1000,1);
  26. end
  27. %% 划分训练集和测试集
  28. temp = randperm(100); %生成100的乱序数组,temp = 1:1:100;打乱顺序
  29. Z_train = Z_2(temp(1:80),:);
  30. X_train = X_2(temp(1:80),:);
  31. Z_test = Z_2(temp(81:end),:);
  32. X_test = X_2(temp(81:end),:);
  33. %% 归一化
  34. [Z_train_1,Z_train_output]=mapminmax(Z_train,-1,1); %训练输出归一化
  35. [X_train_1,X_train_iutput]=mapminmax(X_train,-1,1); %训练输入归一化
  36. [Z_test_1,Z_test_output]=mapminmax(Z_test,-1,1); %测试输出归一化
  37. [X_test_1,X_test_input]=mapminmax(X_test,-1,1); %测试输入归一化
  38. %% 创建网络&设置训练参数&训练网络(训练方法trainrp)
  39. net1 = newff(X_train_1',Z_train_1',5,{'tansig','purelin'},'trainrp');
  40. net1.trainParam.goal = 1e-10;%优化目标 MSE
  41. net1.trainParam.epochs = 200;%迭代次数
  42. net1.trainParam.lr = 0.1;%学习率
  43. net1.trainParam.min_grad = 1e-10;%最小梯度
  44. net1.divideFcn = '';
  45. [net1,w1] = train(net1,X_train_1',Z_train_1');
  46. mse1 = w1.perf;
  47. % 创建网络&设置训练参数&训练网络(训练方法traingdx)
  48. net2 = newff(X_train_1',Z_train_1',5,{'tansig','purelin'},'traingdx');
  49. net2.trainParam.goal = 1e-10;%优化目标 MSE
  50. net2.trainParam.epochs = 200;%迭代次数
  51. net2.trainParam.lr = 0.1;%学习率
  52. net2.trainParam.min_grad = 1e-10;%最小梯度
  53. net2.divideFcn = '';
  54. [net2,w2] = train(net2,X_train_1',Z_train_1');
  55. mse2 = w2.perf;
  56. % 创建网络&设置训练参数&训练网络(训练方法traingd)
  57. net3 = newff(X_train_1',Z_train_1',5,{'tansig','purelin'},'traingd');
  58. net3.trainParam.goal = 1e-10;%优化目标 MSE
  59. net3.trainParam.epochs = 200;%迭代次数
  60. net3.trainParam.lr = 0.1;%学习率
  61. net3.trainParam.min_grad = 1e-10;%最小梯度
  62. net3.divideFcn = '';
  63. [net3,w3] = train(net3,X_train_1',Z_train_1');
  64. mse3 = w3.perf;
  65. % 创建网络&设置训练参数&训练网络(训练方法traingdm)
  66. net4 = newff(X_train_1',Z_train_1',5,{'tansig','purelin'},'traingdm');
  67. net4.trainParam.goal = 1e-10;%优化目标 MSE
  68. net4.trainParam.epochs = 200;%迭代次数
  69. net4.trainParam.lr = 0.1;%学习率
  70. net4.trainParam.min_grad = 1e-10;%最小梯度
  71. net4.trainParam.max_grad = 10;%最小梯度
  72. net4.divideFcn = '';
  73. [net4,w4] = train(net4,X_train_1',Z_train_1');
  74. mse4 = w4.perf;
  75. % 创建网络&设置训练参数&训练网络(训练方法traingda)
  76. net5 = newff(X_train_1',Z_train_1',5,{'tansig','purelin'},'traingda');
  77. net5.trainParam.goal = 1e-10;%优化目标 MSE
  78. net5.trainParam.epochs = 200;%迭代次数
  79. net5.trainParam.lr = 0.1;%学习率
  80. net5.trainParam.min_grad = 1e-10;%最小梯度
  81. net5.divideFcn = '';
  82. [net5,w5] = train(net5,X_train_1',Z_train_1');
  83. mse5 = w5.perf;
  84. % 创建网络&设置训练参数&训练网络(训练方法traincgf)
  85. net6 = newff(X_train_1',Z_train_1',5,{'tansig','purelin'},'traincgf');
  86. net6.trainParam.goal = 1e-10;%优化目标 MSE
  87. net6.trainParam.epochs = 200;%迭代次数
  88. net6.trainParam.lr = 0.1;%学习率
  89. net6.trainParam.minstep = 1e-10;
  90. net6.divideFcn = '';
  91. [net6,w6] = train(net6,X_train_1',Z_train_1');
  92. mse6 = zeros(1,201);
  93. mse6_ = w6.perf;
  94. L6 = length(mse6_);
  95. for i = 1:201
  96. if i<=L6
  97. mse6(i) = mse6_(i);
  98. else
  99. mse6(i) = mse6_(L6);
  100. end
  101. end
  102. % 创建网络&设置训练参数&训练网络(训练方法traincgp)
  103. net7 = newff(X_train_1',Z_train_1',5,{'tansig','purelin'},'traincgp');
  104. net7.trainParam.goal = 1e-10;%优化目标 MSE
  105. net7.trainParam.epochs = 200;%迭代次数
  106. net7.trainParam.lr = 0.1;%学习率
  107. net7.divideFcn = '';
  108. [net7,w7] = train(net7,X_train_1',Z_train_1');
  109. mse7 = zeros(1,201);
  110. mse7_ = w7.perf;
  111. L7 = length(mse7_);
  112. for i = 1:201
  113. if i<=L7
  114. mse7(i) = mse7_(i);
  115. else
  116. mse7(i) = mse7_(L7);
  117. end
  118. end
  119. % 创建网络&设置训练参数&训练网络(训练方法traincgb)
  120. net8 = newff(X_train_1',Z_train_1',5,{'tansig','purelin'},'traincgb');
  121. net8.trainParam.minstep = 1.00e-10;
  122. net8.trainParam.goal = 1e-10;%优化目标 MSE
  123. net8.trainParam.epochs = 200;%迭代次数
  124. net8.trainParam.lr = 0.1;%学习率
  125. net8.divideFcn = '';
  126. [net8,w8] = train(net8,X_train_1',Z_train_1');
  127. mse8 = zeros(1,201);
  128. mse8_ = w8.perf;
  129. L8 = length(mse8_);
  130. for i = 1:201
  131. if i<=L8
  132. mse8(i) = mse8_(i);
  133. else
  134. mse8(i) = mse8_(L8);
  135. end
  136. end
  137. % 创建网络&设置训练参数&训练网络(训练方法trainscg)
  138. net9 = newff(X_train_1',Z_train_1',5,{'tansig','purelin'},'trainscg');
  139. net9.trainParam.goal = 1e-10;%优化目标 MSE
  140. net9.trainParam.epochs = 200;%迭代次数
  141. net9.trainParam.lr = 0.1;%学习率
  142. net9.divideFcn = '';
  143. [net9,w9] = train(net9,X_train_1',Z_train_1');
  144. mse9 = w9.perf;
  145. %% 训练算法的选取对 MSE 的影响的可视化
  146. figure;
  147. T = 0:1:200;
  148. hold on;
  149. plot(T,mse1,'r-',T,mse2,'g-',T,mse3,'y-',T,mse4,'m-',T,mse4,'c-',T,mse5,'k-',T,mse6,'b-','LineWidth',1.5);
  150. plot(T,mse7,'Color',[0.3 0.8 0.9],'LineWidth',1.5);%,T,mse8,'Color',[0.3 0.5 0.5],T,mse9,'Color',[0.8 0.8 0.8],
  151. plot(T,mse8,'Color',[0.5 0.8 0.7],'LineWidth',1.5);
  152. plot(T,mse9,'Color',[0.3 0.2 0.1],'LineWidth',1.5);
  153. axis([0,200,1e-8,1e-1]);
  154. set(gca,'xticklabel',{'0','20','40','60','80','100','120','140','160','180','200'}) %设置X坐标轴刻度处显示的字符
  155. set(gca,'yticklabel',{'1e-8','1e-7','1e-6','1e-5','1e-4','1e-3','1e-2','1e-1'}) %设置Y坐标轴刻度处显示的字符
  156. set(gca,'ytick',[1e-8,1e-7,1e-6,1e-5,1e-4,1e-3,1e-2,1e-1]);%纵坐标设置
  157. set(gca,'yscale','log');%取对数实现纵坐标不均匀分布
  158. legend('trainrp','traingdx','traingd','traingdm','traingda','traincgf','traincgp','traincgb','trainscg','Fontsize',28,'fontname','Times New Roman');
  159. xlabel('Epochs','Fontsize',28,'fontname','Times New Roman');
  160. ylabel('MSE','Fontsize',28,'fontname','Times New Roman');
  161. % %% 基于 trainrp 算法的隐层节点数目对 MSE 影响
  162. % %隐藏层的神经元个数
  163. % s=4:18;
  164. % mes=1:15;
  165. % MSE = zeros(6,15);
  166. % for j=1:6
  167. % for i=1:15
  168. % net=newff(X_train_1',Z_train_1',s(i),{'tansig','purelin'},'trainrp');
  169. %
  170. % net.trainParam.goal = 1e-10;%优化目标 MSE
  171. % net.trainParam.epochs = 200;%迭代次数
  172. % net.trainParam.lr = 0.1;%学习率
  173. % net.trainParam.min_grad = 1e-15;%最小梯度
  174. % net.divideFcn = '';
  175. % [net,w] = train(net,X_train_1',Z_train_1');
  176. % mse_ = w.perf;
  177. % mse(i) = mse_(201);
  178. % end
  179. % MSE(j,:) = mse;
  180. % end
  181. % %% 画出基于 trainrp 算法的隐层节点数目对 MSE 影响
  182. % figure;
  183. % plot(s,MSE(1,:),'r-',s,MSE(2,:),'g-',s,MSE(3,:),'k-',s,MSE(4,:),'m-',s,MSE(5,:),'c-',s,MSE(6,:),'b-','LineWidth',1.5);
  184. % set(gca,'xtick',s,'xticklabel',s(1:1:end));
  185. % legend('第一次训练','第二次训练','第三次训练','第四次训练','第五次训练','第六次训练');
  186. % xlabel('隐藏层点数');
  187. % ylabel('MSE');
  188. % %% trainrp网络仿真
  189. % Y= sim( net1 , X_test_1' ) ;
  190. %
  191. % %% 测试结果反归一化
  192. % Y_sim=mapminmax('reverse',Y',Z_test_output);
  193. %
  194. % %% 得到数据二维转三维
  195. % Y_3 = zeros(20,100,10);
  196. % for i = 1:20
  197. % Y_3(i,:,:) = reshape(Y_sim(i,:),100,10);
  198. % end
  199. % Z_test_3 = zeros(20,100,10);
  200. % for i = 1:20
  201. % Z_test_3(i,:,:) = reshape(Z_test(i,:),100,10);
  202. % end
  203. % %% 画出得到的Z位移与实际Z位移3D图
  204. % D = 6;
  205. % x = 460/101*2:460/101:460;
  206. % y = (-180:40:180);
  207. % z_sim = reshape(Y_3(D,:,:),100,10)';
  208. % z_real = reshape(Z_test_3(D,:,:),100,10)';
  209. %
  210. % xi = x;
  211. % yi = (-180:360/99:180)';
  212. % zi_real = interp2(x,y,z_real,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  213. % zi_sim = interp2(x,y,z_sim,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  214. %
  215. % figure;
  216. % subplot(2,2,1)
  217. % mesh(x,y,z_real);
  218. % title('实际一端受力Z方向位移')
  219. % xlabel('X');
  220. % ylabel('Y轴');
  221. % zlabel('Z方向位移');
  222. % subplot(2,2,2)
  223. % mesh(xi,yi,zi_real);
  224. % title('实际一端受力Z方向位移(插值后)')
  225. % xlabel('X');
  226. % ylabel('Y轴');
  227. % zlabel('Z方向位移');
  228. % subplot(2,2,3)
  229. % mesh(x,y,z_sim);
  230. % title('训练出的一端受力Z方向位移')
  231. % xlabel('X');
  232. % ylabel('Y轴');
  233. % zlabel('Z方向位移');
  234. % subplot(2,2,4)
  235. % mesh(xi,yi,zi_sim);
  236. % title('训练出的一端受力Z方向位移(插值后)')
  237. % xlabel('X');
  238. % ylabel('Y轴');
  239. % zlabel('Z方向位移');
  240. % grid on

2、LSTM

  1. warning off % 关闭报警信息
  2. clc %清空命令行
  3. clear %清空变量
  4. close all %关闭开启的图窗
  5. %% 导入并读取数据
  6. path = 'E:\基于人工神经网络的应变重构研究\自测数据(一端固定,100个点)\'; %此处文件地址改为需要的文件夹路径
  7. Filesname = dir(strcat(path,'*.xlsx')); %找到当前路径文件夹下的以.xlsx为后缀的文件名,strcat是横向连接字符的函数
  8. Length = length(Filesname ); %计算文件夹里xls文档的个数
  9. Z_3=zeros(Length/2,100,10);
  10. X_3=zeros(Length/2,100,10);
  11. for i = 1:Length %批量读取文件的内容并保存
  12. xls_data = readmatrix(strcat(path,Filesname (i).name));%读取这个循环中的这组数据
  13. data = xls_data(3:end,2:end);
  14. if i<=100
  15. Z_3(i,:,:)=data;
  16. else
  17. j=i-100;
  18. X_3(j,:,:)=data;
  19. end
  20. end
  21. %% 三维转二维(100:100:10变成100:1000)
  22. Z_2 = zeros(100,1000);
  23. X_2 = zeros(100,1000);
  24. for i = 1:100
  25. Z_2(i,:) = reshape(Z_3(i,:,:),1000,1);
  26. X_2(i,:) = reshape(X_3(i,:,:),1000,1);
  27. end
  28. %% 划分训练集和测试集
  29. temp = randperm(100); %生成100的乱序数组,temp = 1:1:100;打乱顺序
  30. Z_train = Z_2(temp(1:80),:);
  31. X_train = X_2(temp(1:80),:);
  32. Z_test = Z_2(temp(81:end),:);
  33. X_test = X_2(temp(81:end),:);
  34. %% 归一化
  35. [X_train_1,X_train_iutput]=mapminmax(X_train',-1,1); %训练输入归一化
  36. X_test_1=mapminmax('apply',X_test',X_train_iutput); %测试输入归一化
  37. [Z_train_1,Z_train_output]=mapminmax(Z_train',-1,1); %训练输出归一化
  38. %% 设置参数
  39. inputSize = size(X_train_1',2);
  40. numHiddenUnits = 100;
  41. numResponses = size(Z_train_1',2);
  42. layers = [ ...
  43. sequenceInputLayer(inputSize)
  44. lstmLayer(numHiddenUnits,'OutputMode','sequence')
  45. fullyConnectedLayer(numResponses)
  46. regressionLayer];
  47. options = trainingOptions('adam', ...
  48. 'MaxEpochs',1000, ...
  49. 'GradientThreshold',1e-5, ...
  50. 'InitialLearnRate',0.01, ...
  51. 'LearnRateSchedule','piecewise', ...
  52. 'LearnRateDropFactor',0.5, ...
  53. 'LearnRateDropPeriod',500, ...
  54. 'Verbose',0);
  55. %% 设置LSTM网络并且仿真
  56. [net,info1] = trainNetwork(X_train_1,Z_train_1,layers,options);
  57. Y= predict( net ,X_test_1);
  58. %% 测试结果反归一化
  59. Y_sim=mapminmax('reverse',Y,Z_train_output');
  60. %% 得到数据二维转三维
  61. Y_3 = zeros(20,100,10);
  62. for i = 1:20
  63. Y_sim_1 = Y_sim';
  64. Y_3(i,:,:) = reshape(Y_sim_1(i,:),100,10);
  65. end
  66. Z_test_3 = zeros(20,100,10);
  67. for i = 1:20
  68. Z_test_3(i,:,:) = reshape(Z_test(i,:),100,10);
  69. end
  70. %% 画出得到的Z位移与实际Z位移3D图
  71. D = 3;
  72. x = 460/101*2:460/101:460;
  73. y = (-180:40:180);
  74. z_sim = reshape(Y_3(D,:,:),100,10)';
  75. z_real = reshape(Z_test_3(D,:,:),100,10)';
  76. xi = x;
  77. yi = (-180:360/99:180)';
  78. zi_real = interp2(x,y,z_real,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  79. zi_sim = interp2(x,y,z_sim,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  80. figure;
  81. subplot(1,2,2)
  82. mesh(xi,yi,zi_real);
  83. title('\fontname{宋体}\fontsize{20}实际一端受力\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移')
  84. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  85. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  86. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  87. subplot(1,2,1)
  88. mesh(xi,yi,zi_sim);
  89. title('\fontname{宋体}\fontsize{20}训练一端受力\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移')
  90. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  91. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  92. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  93. grid on
  94. figure;
  95. mesh(xi,yi,zi_real);
  96. hold on;
  97. mesh(xi,yi,zi_sim);
  98. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  99. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  100. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  101. %% 计算评价指标
  102. R = corrcoef(Z_test,Y_sim_1);
  103. R2 = R(1,2)^2;%R2(决定系数)是一种用于衡量回归模型拟合优度的统计量。R2的值介于0和1之间,越接近1表示模型对数据的拟合越好。R2的计算公式为:R2 = 1 - SSresid/SStotal,其中SSresid是残差平方和,SStotal是总平方和1
  104. MSE = immse(Z_test,double(Y_sim_1));%均方误差
  105. RMSE = sqrt(MSE);%均方根误差
  106. error = Relative_error_of_two_dimensional_array(Z_test,Y_sim_1);
  107. %% 显示评价指标
  108. fprintf('R2=%f\nMSE=%f\nRMSE=%f\nerror=%f\n',R2,MSE,RMSE,error);
  109. %% 画图
  110. figure;
  111. subplot(1,2,1)
  112. T = 1:1:1000;
  113. plot(T,info1.TrainingRMSE,'Color',[0.3 0.8 0.9],'LineWidth',1.5);
  114. xlabel('Epochs','FontSize',20,'FontName','Times New Roman');
  115. ylabel('RMSE','FontSize',20,'FontName','Times New Roman');
  116. title('\fontname{Times New Roman}\fontsize{20}RMSE\fontname{宋体}\fontsize{20}随迭代次数增加的变化');
  117. subplot(1,2,2)
  118. plot(T,info1.TrainingLoss,'Color',[0.3 0.8 0.9],'LineWidth',1.5);
  119. xlabel('Epochs','FontSize',20,'FontName','Times New Roman');
  120. ylabel('Loss','FontSize',20,'FontName','Times New Roman');
  121. title('\fontname{Times New Roman}\fontsize{20}Loss\fontname{宋体}\fontsize{20}随迭代次数增加的变化');

3、RBF

  1. warning off % 关闭报警信息
  2. clc %清空命令行
  3. clear %清空变量
  4. close all %关闭开启的图窗
  5. %% 导入并读取数据
  6. path = 'C:\Users\14737\Desktop\基于人工神经网络的应变重构研究\自测数据(一端固定,100个点)\'; %此处文件地址改为需要的文件夹路径
  7. Filesname = dir(strcat(path,'*.xlsx')); %找到当前路径文件夹下的以.xlsx为后缀的文件名,strcat是横向连接字符的函数
  8. Length = length(Filesname ); %计算文件夹里xls文档的个数
  9. Z_3=zeros(Length/2,100,10);
  10. X_3=zeros(Length/2,100,10);
  11. for i = 1:Length %批量读取文件的内容并保存
  12. xls_data = readmatrix(strcat(path,Filesname (i).name));%读取这个循环中的这组数据
  13. data = xls_data(3:end,2:end);
  14. if i<=100
  15. Z_3(i,:,:)=data;
  16. else
  17. j=i-100;
  18. X_3(j,:,:)=data;
  19. end
  20. end
  21. %% 三维转二维(200:100:10变成200:1000)
  22. Z_2 = zeros(100,1000);
  23. X_2 = zeros(100,1000);
  24. for i = 1:100
  25. Z_2(i,:) = reshape(Z_3(i,:,:),1000,1);
  26. X_2(i,:) = reshape(X_3(i,:,:),1000,1);
  27. end
  28. %% 划分训练集和测试集
  29. temp = randperm(100); %生成100的乱序数组,temp = 1:1:100;打乱顺序
  30. Z_train = Z_2(temp(1:80),:);
  31. X_train = X_2(temp(1:80),:);
  32. Z_test = Z_2(temp(81:end),:);
  33. X_test = X_2(temp(81:end),:);
  34. %% 归一化
  35. [X_train_1,X_train_iutput]=mapminmax(X_train',-1,1); %训练输入归一化
  36. X_test_1=mapminmax('apply',X_test',X_train_iutput); %测试输入归一化
  37. [Z_train_1,Z_train_output]=mapminmax(Z_train',-1,1); %训练输出归一化
  38. %% 设置grnn网络并且仿真
  39. net = newgrnn(X_train_1,Z_train_1,0.02);%建立grnn 训练网络
  40. Y = sim(net,X_test_1);
  41. %% 测试结果反归一化
  42. Y_sim=mapminmax('reverse',Y,Z_train_output');
  43. %% 得到数据二维转三维
  44. Y_3 = zeros(20,100,10);
  45. for i = 1:20
  46. Y_sim_1 = Y_sim';
  47. Y_3(i,:,:) = reshape(Y_sim_1(i,:),100,10);
  48. end
  49. Z_test_3 = zeros(20,100,10);
  50. for i = 1:20
  51. Z_test_3(i,:,:) = reshape(Z_test(i,:),100,10);
  52. end
  53. %% 画出得到的Z位移与实际Z位移3D图
  54. D = 3;
  55. x = 460/101*2:460/101:460;
  56. y = (-180:40:180);
  57. z_sim = reshape(Y_3(D,:,:),100,10)';
  58. z_real = reshape(Z_test_3(D,:,:),100,10)';
  59. xi = x;
  60. yi = (-180:360/99:180)';
  61. zi_real = interp2(x,y,z_real,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  62. zi_sim = interp2(x,y,z_sim,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  63. %% 计算评价指标
  64. R = corrcoef(Z_test,Y_sim_1);
  65. R2 = R(1,2)^2;%R2(决定系数)是一种用于衡量回归模型拟合优度的统计量。R2的值介于0和1之间,越接近1表示模型对数据的拟合越好。R2的计算公式为:R2 = 1 - SSresid/SStotal,其中SSresid是残差平方和,SStotal是总平方和1
  66. MSE = immse(Z_test,double(Y_sim_1));%均方误差
  67. RMSE = sqrt(MSE);%均方根误差
  68. %% 显示评价指标
  69. fprintf('R2=%f\nMSE=%f\nRMSE=%f\n',R2,MSE,RMSE);
  70. figure;
  71. subplot(1,2,2)
  72. mesh(xi,yi,zi_real);
  73. title('\fontname{宋体}\fontsize{20}实际一端受力\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移')
  74. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  75. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  76. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  77. subplot(1,2,1)
  78. mesh(xi,yi,zi_sim);
  79. title('\fontname{宋体}\fontsize{20}训练一端受力\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移')
  80. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  81. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  82. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  83. grid on
  84. figure;
  85. mesh(xi,yi,zi_real);
  86. hold on;
  87. mesh(xi,yi,zi_sim);
  88. title('')
  89. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  90. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  91. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  1. warning off % 关闭报警信息
  2. clc %清空命令行
  3. clear %清空变量
  4. close all %关闭开启的图窗
  5. %% 导入并读取数据
  6. path = 'C:\Users\14737\Desktop\基于人工神经网络的应变重构研究\自测数据(一端固定,100个点)\'; %此处文件地址改为需要的文件夹路径
  7. Filesname = dir(strcat(path,'*.xlsx')); %找到当前路径文件夹下的以.xlsx为后缀的文件名,strcat是横向连接字符的函数
  8. Length = length(Filesname ); %计算文件夹里xls文档的个数
  9. Z_3=zeros(Length/2,100,10);
  10. X_3=zeros(Length/2,100,10);
  11. for i = 1:Length %批量读取文件的内容并保存
  12. xls_data = readmatrix(strcat(path,Filesname (i).name));%读取这个循环中的这组数据
  13. data = xls_data(3:end,2:end);
  14. if i<=100
  15. Z_3(i,:,:)=data;
  16. else
  17. j=i-100;
  18. X_3(j,:,:)=data;
  19. end
  20. end
  21. %% 三维转二维(100:100:10变成100:1000)
  22. Z_2 = zeros(100,1000);
  23. X_2 = zeros(100,1000);
  24. for i = 1:100
  25. Z_2(i,:) = reshape(Z_3(i,:,:),1000,1);
  26. X_2(i,:) = reshape(X_3(i,:,:),1000,1);
  27. end
  28. %% 划分训练集和测试集
  29. temp = randperm(100); %生成100的乱序数组,temp = 1:1:100;打乱顺序
  30. Z_train = Z_2(temp(1:80),:);
  31. X_train = X_2(temp(1:80),:);
  32. Z_test = Z_2(temp(81:end),:);
  33. X_test = X_2(temp(81:end),:);
  34. %% 归一化
  35. [X_train_1,X_train_iutput]=mapminmax(X_train',-1,1); %训练输入归一化
  36. X_test_1=mapminmax('apply',X_test',X_train_iutput); %测试输入归一化
  37. [Z_train_1,Z_train_output]=mapminmax(Z_train',-1,1); %训练输出归一化
  38. %% 设置rbe网络并且仿真
  39. net = newrbe(X_train_1,Z_train_1);%建立grnn 训练网络
  40. Y = sim(net,X_test_1);
  41. %% 测试结果反归一化
  42. Y_sim=mapminmax('reverse',Y,Z_train_output');
  43. %% 得到数据二维转三维
  44. Y_3 = zeros(20,100,10);
  45. for i = 1:20
  46. Y_sim_1 = Y_sim';
  47. Y_3(i,:,:) = reshape(Y_sim_1(i,:),100,10);
  48. end
  49. Z_test_3 = zeros(20,100,10);
  50. for i = 1:20
  51. Z_test_3(i,:,:) = reshape(Z_test(i,:),100,10);
  52. end
  53. %% 画出得到的Z位移与实际Z位移3D图
  54. D = 1;
  55. x = 460/101*2:460/101:460;
  56. y = (-180:40:180);
  57. z_sim = reshape(Y_3(D,:,:),100,10)';
  58. z_real = reshape(Z_test_3(D,:,:),100,10)';
  59. xi = x;
  60. yi = (-180:360/99:180)';
  61. zi_real = interp2(x,y,z_real,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  62. zi_sim = interp2(x,y,z_sim,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  63. % figure;
  64. %
  65. % subplot(1,2,2)
  66. % mesh(xi,yi,zi_real);
  67. % title('实际一端受力Z方向位移')
  68. % xlabel('X轴');
  69. % ylabel('Y轴');
  70. % zlabel('Z方向位移(mm)');
  71. % subplot(1,2,1)
  72. % mesh(xi,yi,zi_sim);
  73. % title('训练出的一端受力Z方向位移')
  74. % xlabel('X轴');
  75. % ylabel('Y轴');
  76. % zlabel('Z方向位移(mm)');
  77. % grid on
  78. figure;
  79. subplot(1,2,2)
  80. mesh(xi,yi,zi_real);
  81. title('\fontname{宋体}\fontsize{20}实际一端受力\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移')
  82. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  83. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  84. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  85. subplot(1,2,1)
  86. mesh(xi,yi,zi_sim);
  87. title('\fontname{宋体}\fontsize{20}训练一端受力\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移')
  88. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  89. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  90. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  91. grid on
  92. figure;
  93. mesh(xi,yi,zi_real);
  94. hold on;
  95. mesh(xi,yi,zi_sim);
  96. title('')
  97. xlabel('\fontname{Times New Roman}\fontsize{20}X\fontname{宋体}\fontsize{20}轴');
  98. ylabel('\fontname{Times New Roman}\fontsize{20}Y\fontname{宋体}\fontsize{20}轴');
  99. zlabel('\fontname{Times New Roman}\fontsize{20}Z\fontname{宋体}\fontsize{20}方向位移\fontname{Times New Roman}\fontsize{20}(mm)');
  100. %% 计算评价指标
  101. R = corrcoef(Z_test,Y_sim_1);
  102. R2 = R(1,2)^2;%R2(决定系数)是一种用于衡量回归模型拟合优度的统计量。R2的值介于0和1之间,越接近1表示模型对数据的拟合越好。R2的计算公式为:R2 = 1 - SSresid/SStotal,其中SSresid是残差平方和,SStotal是总平方和1
  103. MSE = immse(Z_test,double(Y_sim_1));%均方误差
  104. RMSE = sqrt(MSE);%均方根误差
  105. %% 显示评价指标
  106. fprintf('R2=%f\nMSE=%f\nRMSE=%f\n',R2,MSE,RMSE);

4、CNN

  1. warning off % 关闭报警信息
  2. clc %清空命令行
  3. clear %清空变量
  4. close all %关闭开启的图窗
  5. %% 导入并读取数据
  6. path = 'C:\Users\14737\Desktop\基于人工神经网络的应变重构研究\自测数据(一端固定,100个点)\'; %此处文件地址改为需要的文件夹路径
  7. Filesname = dir(strcat(path,'*.xlsx')); %找到当前路径文件夹下的以.xlsx为后缀的文件名,strcat是横向连接字符的函数
  8. Length = length(Filesname ); %计算文件夹里xls文档的个数
  9. Z_3=zeros(Length/2,100,10);
  10. X_3=zeros(Length/2,100,10);
  11. for i = 1:Length %批量读取文件的内容并保存
  12. xls_data = readmatrix(strcat(path,Filesname (i).name));%读取这个循环中的这组数据
  13. data = xls_data(3:end,2:end);
  14. if i<=100
  15. Z_3(i,:,:)=data;
  16. else
  17. j=i-100;
  18. X_3(j,:,:)=data;
  19. end
  20. end
  21. %% 三维转二维(100:100:10变成100:1000)
  22. Z_2 = zeros(100,1000);
  23. X_2 = zeros(100,1000);
  24. for i = 1:100
  25. Z_2(i,:) = reshape(Z_3(i,:,:),1000,1);
  26. X_2(i,:) = reshape(X_3(i,:,:),1000,1);
  27. end
  28. %% 划分训练集和测试集
  29. temp = randperm(100); %生成100的乱序数组,temp = 1:1:100;打乱顺序
  30. Z_train = Z_2(temp(1:80),:);
  31. X_train = X_2(temp(1:80),:);
  32. M = size(X_train,1);
  33. Z_test = Z_2(temp(81:end),:);
  34. X_test = X_2(temp(81:end),:);
  35. N = size(X_test,1);
  36. %% 按照CNN的要求reshape数据4维[输入矩阵长度 输入矩阵宽度 输入矩阵通道数 样本数目]
  37. X_train=X_train';
  38. X_test=X_test';
  39. Z_train=Z_train';
  40. X_train_1 = double(reshape(X_train, 1000, 1, 1, M));
  41. X_test_1 = double(reshape(X_test , 1000, 1, 1, N));
  42. Z_train_1 = double(Z_train);
  43. Z_test_1 = double(Z_test);
  44. %% 构造网络结构
  45. layers = [
  46. imageInputLayer([1000, 1, 1]) % 输入层 输入数据规模[1000, 1, 1]
  47. convolution2dLayer([300, 1], 16) % 卷积核大小 3*1 生成16张特征图
  48. batchNormalizationLayer % 批归一化层
  49. reluLayer % Relu激活层
  50. % convolution2dLayer([300, 1], 32) % 卷积核大小 3*1 生成32张特征图
  51. % batchNormalizationLayer % 批归一化层
  52. % reluLayer % Relu激活层
  53. dropoutLayer(0.2) % Dropout层,防止过拟合
  54. fullyConnectedLayer(1000) % 全连接层
  55. % fullyConnectedLayer(80)
  56. regressionLayer]; % 回归层
  57. %% 参数设置
  58. options = trainingOptions('sgdm', ... % SGDM 梯度下降算法
  59. 'MiniBatchSize', 30, ... % 批大小,每次训练样本个数30
  60. 'MaxEpochs', 100, ... % 最大训练次数 800
  61. 'InitialLearnRate', 1e-2, ... % 初始学习率为0.01
  62. 'LearnRateSchedule', 'piecewise', ... % 学习率下降
  63. 'LearnRateDropFactor', 0.5, ... % 学习率下降因子
  64. 'LearnRateDropPeriod', 400, ... % 经过400次训练后 学习率为 0.01 * 0.5
  65. 'Shuffle', 'every-epoch', ... % 每次训练打乱数据集
  66. 'Plots', 'training-progress', ... % 画出曲线
  67. 'Verbose', false);
  68. %% 训练模型
  69. net = trainNetwork(X_train_1, Z_train_1, layers, options);
  70. %% 预测
  71. Y_sim = predict(net,X_test_1 );
  72. %% 得到数据二维转三维
  73. Y_3 = zeros(20,100,10);
  74. for i = 1:20
  75. Y_3(i,:,:) = reshape(Y_sim(i,:),100,10);
  76. end
  77. Z_test_3 = zeros(20,100,10);
  78. for i = 1:20
  79. Z_test_3(i,:,:) = reshape(Z_test(i,:),100,10);
  80. end
  81. %% 画出得到的Z位移与实际Z位移3D图
  82. D = 3;
  83. x = 460/101*2:460/101:460;
  84. y = (-180:40:180);
  85. z_sim = reshape(Y_3(D,:,:),100,10)';
  86. z_real = reshape(Z_test_3(D,:,:),100,10)';
  87. xi = x;
  88. yi = (-180:360/99:180)';
  89. zi_real = interp2(x,y,z_real,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  90. zi_sim = interp2(x,y,z_sim,xi,yi,'spline');%'linear' :双线性插值算法(缺省算法);'nearest' :最临近插值;'spline' :三次样条插值;'cubic' :双三次插值。
  91. figure;
  92. subplot(1,2,2)
  93. mesh(xi,yi,zi_real);
  94. title('实际一端受力Z方向位移')
  95. xlabel('X轴');
  96. ylabel('Y轴');
  97. zlabel('Z方向位移');
  98. subplot(1,2,1)
  99. mesh(xi,yi,zi_sim);
  100. title('训练出的一端受力Z方向位移')
  101. xlabel('X轴');
  102. ylabel('Y轴');
  103. zlabel('Z方向位移');
  104. grid on
  105. %% 计算评价指标
  106. R = corrcoef(Z_test,Y_sim);
  107. R2 = R(1,2)^2;%R2(决定系数)是一种用于衡量回归模型拟合优度的统计量。R2的值介于0和1之间,越接近1表示模型对数据的拟合越好。R2的计算公式为:R2 = 1 - SSresid/SStotal,其中SSresid是残差平方和,SStotal是总平方和1
  108. MSE = immse(Z_test,double(Y_sim));%均方误差
  109. RMSE = sqrt(MSE);%均方根误差
  110. %% 显示评价指标
  111. fprintf('R2=%f\nMSE=%f\nRMSE=%f\n',R2,MSE,RMSE);

数据集已经上传。 

十、总结

BP神经网络调参优化

在搭建BP网络过程中,还没有一种确定的方法去确定隐层节点数目,只能根据总结的经验来调整,此外,BP的寻优算法的选取也同样会对最终结果产生很大影响,所以要对BP寻优算法的选取和隐层节点的确定开展研究。

使损失函数最小化实际上就是参数修正的目的, MATLAB BP神经网络训练时默认的损失函数为均方误差MSE。MATLAB工具箱集成了多种训练算法,因为有许多不同的寻优算法。本节研究目的是MATLAB工具箱集成的多种训练算法中选出适合多输入多输出应变场和位移场重构的最优算法,因此不在此详细讨论算法原理。训练的时候为了控制变量设置隐层节点为10个,讨论训练算法的选取对损失函数(均方误差)的影响。

训练函数

含义

traingd

梯度下降法

traingdm

附加动量的梯度下降法

traingda

自适应时间步长梯度下算法

traingdx

附加动量自适应时间步长梯度下降

trainlm

Levenberg-Marquardt算法

trainbr

贝叶斯法

trainrp

弹性 BP 算法

traincgf

Fletcher-Reeves 算法

traincgp

Polak-Ribiers 算法

traincgb

Powell-Beale 算法

trainscg

成比例的共轭梯度算法

trainbfg

拟牛顿法

trainoss

一步割线算法

训练参数

含义

设置值

net.trainParam.goal

优化目标:MSE

1e-4

net.trainParam.epochs

迭代次数

200

net.trainParam.lr

学习速率

0.01

net.trainParam.min_grad

最小梯度

1e-20

 Trainoss,trainlm,trainbr,trainbfg这四个训练算法由于输入输出神经元太多,加之电脑性能有限并不能训练出来。从训练结果可以看出,trainrp的损失函数的值最低,所以最终选取的是trainrp作为训练函数。选择完训练函数之后要开始选择隐藏层层数和隐藏层神经元个数。

隐藏层的层数

神经网络的功能

0

线性可分决策或函数

1

拟合任何从一个有限空间到另一个有限空间的连续映射的非线性函数。

2

表示任意精度的任意决策边界,而且可以拟合任何精度的任何平滑映射

其他

可以学习复杂的描述

至于隐藏层的神经元数量,目前没有科学的方法去确定,一般都是按照别人的经验总结出来的公式来确定,有如下的经验公式可用来参考: 

                                                               

        n为输出层节点数,m为输入层节点数, h为隐层节点数, 为1~10之间的调节常数。按照这些公式来算的话,因为输入输出神经元个数都为1000,所以m和n的值都是1000,h分别为45~55,10,1000,神经元个数为50,10,1000的MSE随迭代次数的变化图像如图

        从图中发现发现神经元为1000时MSE降到最小,但是不能确定隐藏层神经元数定为1000。因为可能出现过拟合的现象导致网络的泛化性能很差,所以还是要用测试集验证训练出来网络的泛化性能。

神经元个数

相关系数

均方误差

均方根误差

用时(s)

50

0.9634

1.93

1.389

1

10

0.9999

0.004517

0.06721

1

1000

0.8718

6.722

2.59

28

 神经网络效果对比

为了在上面所有实现多输入多输出应变场和位移场重构的神经网络中选择一种效果最好的神经网络,本节将比较这些神经网络的测试集相关参数来得出神经网络最重要的泛化性能的好坏,同时比较训练时长。

       在比较之前首先将各个神经网络的参数配置表出:

       (1)BP神经网络中优化目标是10-4 ,迭代次数是200次,学习率是0.01,最小梯度为 。

       (2)LSTM神经网络采用adam(自适应学习率的梯度下降算法),迭代1000次,初始学习率为0.01,500次后学习率变为0.005防止过拟合。

       (3)CNN神经网络输入数据规模[100, 10, 1],卷积核大小10*3并且生成32张特征图,一个卷积层,一个池化层,一个ReLU激活层还有一个Dropout层,防止过拟合。也采用adam优化算法,每次训练样本个数30,最大训练次数 800,初始学习率为0.01,迭代次数过半后学习率变为0.005防止过拟合。

训练网络

相关系数

均方误差

相对误差

用时(s)

LSTM

0.999350

0.028081

0.030701

80

CNN

0.859153

6.067563

0.548362

26

GRNN(RBF)

0.999952

0.002037

0.006359

1

RBE(RBF)

0.999983

0.000546

0.004611

1

trainrp(BP)

0.999862

0.006007

0.009643

1

traingdx(BP)

0.775561

10.55572

0.435756

1

traingd(BP)

0.755932

11.680123

0.425965

1

traingdm(BP)

0.755358

11.253721

0.411279

1

traingda(BP)

0.746234

11.727012

0.419758

1

traincgf(BP)

0.735900

12.479201

0.415925

2

traincgp(BP)

0.997560

0.1049245

0.038630

2

traincgb(BP)

0.997623

0.1032016

0.017861

2

trainscg(BP)

0.970268

1.27786

0.058504

1

          对BP神经网络中的寻优算法的选取与隐层节点的数目开展研究,确定了在所有优化算法中trainrp的效果最好,同时隐藏层节点数为10的时候泛化性能最好。对于所有的神经网络也进行了对比,发现多输入多输出应变场和位移场重构神经网络中,径向基神经网络中的广义回归神经网络与精确径向基神经网络还有BP神经网络中使用trainrp优化算法时的泛化性能与用时少,总的来说这三种是最优的选择。​​​​​​​                                                                                                                                                                            

                                                                                                                                                                                      

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/105672
推荐阅读
相关标签
  

闽ICP备14008679号