当前位置:   article > 正文

多输入多输出 | Matlab实现ISSA-CNN-BiGRU-Attention基于改进麻雀算法优化卷积-长短期记忆神经网络结合SE注意力机制的多输入多输出回归预测_,采用自适应权重提高发现者个体位置质量, 基于莱维飞行提升搜索质量,最后加入可变

,采用自适应权重提高发现者个体位置质量, 基于莱维飞行提升搜索质量,最后加入可变

多输入多输出 | Matlab实现ISSA-CNN-BiGRU-Attention基于改进麻雀算法优化卷积-长短期记忆神经网络结合SE注意力机制的多输入多输出回归预测

预测效果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

基本介绍

多输入多输出 | Matlab实现ISSA-CNN-BiGRU-Attention基于改进麻雀算法优化卷积-长短期记忆神经网络结合SE注意力机制的多输入多输出回归预测(完整源码和数据)优化BiGRU的参数为:隐藏层节点数、学习率、正则化系数。引入tent混沌映射初始化种群,采用自适应权重提高发现者个体位置质量,基于莱维飞行提升搜索质量,最后加入可变螺旋位置更新策略,使追随者位置更新变得更加灵活。
1.data为数据集,输入10个特征,输出3个变量。
2.main.m为程序主文件,其他为函数文件无需运行。
3.命令窗口输出MBE、MAE、RMSE、R^2和MAPE,可在下载区获取数据和程序内容。
4.粒子群优化参数为学习率、批处理样本大小和、正则化参数。
注意程序和数据放在一个文件夹,运行环境为Matlab2018及以上。

程序设计

  • 完整源码和数据获取方式:私信博主回复Matlab实现ISSA-CNN-BiGRU-Attention基于改进麻雀算法优化卷积-长短期记忆神经网络结合SE注意力机制的的多输入多输出回归预测多输入多输出预测


%%  参数设置
options = trainingOptions('adam', ...      % ADAM 梯度下降算法
    'MiniBatchSize', 30, ...               % 批大小,每次训练样本个数30
    'MaxEpochs', 100, ...                  % 最大训练次数 100
    'InitialLearnRate', 1e-2, ...          % 初始学习率为0.01
    'LearnRateSchedule', 'piecewise', ...  % 学习率下降
    'LearnRateDropFactor', 0.5, ...        % 学习率下降因子
    'LearnRateDropPeriod', 50, ...         % 经过100次训练后 学习率为 0.01 * 0.5
    'Shuffle', 'every-epoch', ...          % 每次训练打乱数据集
    'Plots', 'training-progress', ...      % 画出曲线
    'Verbose', false);

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14

参考资料

[1] https://blog.csdn.net/kjm13182345320/category_11003178.html?spm=1001.2014.3001.5482
[2] https://blog.csdn.net/kjm13182345320/article/details/117378431
[3] https://blog.csdn.net/kjm13182345320/article/details/118253644

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/338591
推荐阅读
相关标签
  

闽ICP备14008679号