当前位置:   article > 正文

【MATLAB第35期】基于MATLAB的2023年改进的进化算法优化LSTM时间序列预测模型思路_2023进化算法最新

2023进化算法最新

【MATLAB第35期】基于MATLAB的2023年改进的进化算法优化LSTM时间序列预测模型思路

一、思路

拿第34期的棕熊算法举例:
优化途径:
(一)种群初始学习改进
(1)反向学习(OBOA)
(2)准反向学习(QOBOA)
(3)准反射学习(QRBOA)
(4)tent映射
(5)logical映射

(二)算法混合
(1)与算法组合(GWO-BOA)

(三)算法改进策略
(1)LEVY精英策略(LBOA)
(2)自适应策略(ABOA)–改变参数/公式等
(3)贪心策略和自适应交叉算子改进(GCBOA)
(4)融合柯西变异和反向学习策略

(四)集成学习(bilstm/lstm/gru/bigru等模型集成)
(1)adaboost
(2)bagging
(3)boost
(4)stacking

(五)特征提取
(1)BOA-CNN-LSTM

(六)注意力机制
(1)BOA-attention-LSTM
(2)BOA-TPA-LSTM

(七)LSTM结构优化
(1)超参数自适应

1、种群
(1)反向学习(OBOA)
(2)准反向学习(QOBOA)
在这里插入图片描述
在这里插入图片描述
可以通过适应度值曲线,判断出优化后的QOBOA具有微弱的优势。

在这里插入图片描述
LSTM结果:
LSTM训练集根均方差(RMSE):0.023407
LSTM训练集平均绝对误差(MAE):0.01781
LSTM训练集平均相对百分误差(MAPE):2.9834%
LSTM训练集R-square决定系数(R2):0.95768
LSTM测试集根均方差(RMSE):0.024046
LSTM测试集平均绝对误差(MAE):0.01902
LSTM测试集平均相对百分误差(MAPE):3.2605%
LSTM测试集R-square决定系数(R2):0.78619

IBOA-LSTM结果:
IBOA-LSTM优化得到的最优参数为:
IBOA-LSTM优化得到的隐藏单元数目为:36
IBOA-LSTM优化得到的最大训练周期为:54
IBOA-LSTM优化得到的InitialLearnRate为:0.0039018
IBOA-LSTM优化得到的L2Regularization为:0.00018416
IBOA-LSTM训练集根均方差(RMSE):0.012387
IBOA-LSTM训练集平均绝对误差(MAE):0.0092325
IBOA-LSTM训练集平均相对百分误差(MAPE):1.5391%
IBOA-LSTM训练集R-square决定系数(R2):0.98671
IBOA-LSTM测试集根均方差(RMSE):0.015418
IBOA-LSTM测试集平均绝对误差(MAE):0.011613
IBOA-LSTM测试集平均相对百分误差(MAPE):1.948%
IBOA-LSTM测试集R-square决定系数(R2):0.91412

(3)准反射学习(QRBOA)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/97223
推荐阅读
相关标签
  

闽ICP备14008679号