赞
踩
多输入多输出 | Matlab实现ISSA-CNN-BiGRU-Attention基于改进麻雀算法优化卷积-长短期记忆神经网络结合SE注意力机制的多输入多输出回归预测(完整源码和数据)优化BiGRU的参数为:隐藏层节点数、学习率、正则化系数。引入tent混沌映射初始化种群,采用自适应权重提高发现者个体位置质量,基于莱维飞行提升搜索质量,最后加入可变螺旋位置更新策略,使追随者位置更新变得更加灵活。
1.data为数据集,输入10个特征,输出3个变量。
2.main.m为程序主文件,其他为函数文件无需运行。
3.命令窗口输出MBE、MAE、RMSE、R^2和MAPE,可在下载区获取数据和程序内容。
4.粒子群优化参数为学习率、批处理样本大小和、正则化参数。
注意程序和数据放在一个文件夹,运行环境为Matlab2018及以上。
%% 参数设置
options = trainingOptions('adam', ... % ADAM 梯度下降算法
'MiniBatchSize', 30, ... % 批大小,每次训练样本个数30
'MaxEpochs', 100, ... % 最大训练次数 100
'InitialLearnRate', 1e-2, ... % 初始学习率为0.01
'LearnRateSchedule', 'piecewise', ... % 学习率下降
'LearnRateDropFactor', 0.5, ... % 学习率下降因子
'LearnRateDropPeriod', 50, ... % 经过100次训练后 学习率为 0.01 * 0.5
'Shuffle', 'every-epoch', ... % 每次训练打乱数据集
'Plots', 'training-progress', ... % 画出曲线
'Verbose', false);
[1] https://blog.csdn.net/kjm13182345320/category_11003178.html?spm=1001.2014.3001.5482
[2] https://blog.csdn.net/kjm13182345320/article/details/117378431
[3] https://blog.csdn.net/kjm13182345320/article/details/118253644
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。