赞
踩
拿第34期的棕熊算法举例:
优化途径:
(一)种群初始学习改进
(1)反向学习(OBOA)
(2)准反向学习(QOBOA)
(3)准反射学习(QRBOA)
(4)tent映射
(5)logical映射
(二)算法混合
(1)与算法组合(GWO-BOA)
(三)算法改进策略
(1)LEVY精英策略(LBOA)
(2)自适应策略(ABOA)–改变参数/公式等
(3)贪心策略和自适应交叉算子改进(GCBOA)
(4)融合柯西变异和反向学习策略
(四)集成学习(bilstm/lstm/gru/bigru等模型集成)
(1)adaboost
(2)bagging
(3)boost
(4)stacking
(五)特征提取
(1)BOA-CNN-LSTM
(六)注意力机制
(1)BOA-attention-LSTM
(2)BOA-TPA-LSTM
(七)LSTM结构优化
(1)超参数自适应
1、种群
(1)反向学习(OBOA)
(2)准反向学习(QOBOA)
可以通过适应度值曲线,判断出优化后的QOBOA具有微弱的优势。
LSTM结果:
LSTM训练集根均方差(RMSE):0.023407
LSTM训练集平均绝对误差(MAE):0.01781
LSTM训练集平均相对百分误差(MAPE):2.9834%
LSTM训练集R-square决定系数(R2):0.95768
LSTM测试集根均方差(RMSE):0.024046
LSTM测试集平均绝对误差(MAE):0.01902
LSTM测试集平均相对百分误差(MAPE):3.2605%
LSTM测试集R-square决定系数(R2):0.78619
IBOA-LSTM结果:
IBOA-LSTM优化得到的最优参数为:
IBOA-LSTM优化得到的隐藏单元数目为:36
IBOA-LSTM优化得到的最大训练周期为:54
IBOA-LSTM优化得到的InitialLearnRate为:0.0039018
IBOA-LSTM优化得到的L2Regularization为:0.00018416
IBOA-LSTM训练集根均方差(RMSE):0.012387
IBOA-LSTM训练集平均绝对误差(MAE):0.0092325
IBOA-LSTM训练集平均相对百分误差(MAPE):1.5391%
IBOA-LSTM训练集R-square决定系数(R2):0.98671
IBOA-LSTM测试集根均方差(RMSE):0.015418
IBOA-LSTM测试集平均绝对误差(MAE):0.011613
IBOA-LSTM测试集平均相对百分误差(MAPE):1.948%
IBOA-LSTM测试集R-square决定系数(R2):0.91412
(3)准反射学习(QRBOA)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。