赞
踩
MATLAB实现GWO-LSTM灰狼算法优化长短期记忆神经网络时间序列预测。灰狼算法优化学习率,隐藏层节点,正则化系数。输入数据为单变量时间序列数据,即一维数据。
循环神经网络RNN(recurrent neural networ)是以序列数据为输入,在序列的演进方向进行递归且所有循环单元按链式连接的递归神经网络。基于RNN 进行改进,通过引入灵活可控的自循环设计,LSTM 产生了让梯度能够可持续长期流动的途径,可从输入的历史数据中学习长时间的计算记忆信息。灰狼优化算法根据灰狼群体协作机制,模拟灰狼捕食猎物以实现目标,具有较强的收敛性、参数少、易实现,且能收敛于全局最优解。在一定数量的群体中,按照职责分工,灰狼被分为α, β,δ 及ω共4 个等级。α 是唯一的领导者, 负责群体决策; β级狼辅助领导者管理狼群,也是领导者替补;δ 服从α 与β 的命令,负责侦察、捕猎及看护等;最底层ω服从上级安排并维系种族平衡。
%% 优化算法参数设置 SearchAgents_no = 5; % 狼群数量 Max_iteration = 10; % 最大迭代次数 dim = 3; % 优化参数个数 lb = [1e-3, 10, 1e-4]; % 参数取值下界(学习率,隐藏层节点,正则化系数) ub = [1e-2, 30, 1e-1]; % 参数取值上界(学习率,隐藏层节点,正则化系数) %% 优化算法初始化 Alpha_pos = zeros(1, dim); % 初始化Alpha狼的位置 Alpha_score = inf; % 初始化Alpha狼的目标函数值,将其更改为-inf以解决最大化问题 Beta_pos = zeros(1, dim); % 初始化Beta狼的位置 Beta_score = inf; % 初始化Beta狼的目标函数值 ,将其更改为-inf以解决最大化问题 Delta_pos = zeros(1, dim); % 初始化Delta狼的位置 Delta_score = inf; % 初始化Delta狼的目标函数值,将其更改为-inf以解决最大化问题 %% 初始化搜索狼群的位置 Positions = initialization(SearchAgents_no, dim, ub, lb); %% 用于记录迭代曲线 Convergence_curve = zeros(1, Max_iteration); %% 循环计数器 iter = 0; %% 优化算法主循环 while iter < Max_iteration % 对迭代次数循环 for i = 1 : size(Positions, 1) % 遍历每个狼 % 返回超出搜索空间边界的搜索狼群 % 若搜索位置超过了搜索空间,需要重新回到搜索空间 Flag4ub = Positions(i, :) > ub; Flag4lb = Positions(i, :) < lb; % 若狼的位置在最大值和最小值之间,则位置不需要调整,若超出最大值,最回到最大值边界 % 若超出最小值,最回答最小值边界 Positions(i, :) = (Positions(i, :) .* (~(Flag4ub + Flag4lb))) + ub .* Flag4ub + lb .* Flag4lb; % 计算适应度函数值 Positions(i, 2) = round(Positions(i, 2)); fitness = fical(Positions(i, :)); % 更新 Alpha, Beta, Delta if fitness < Alpha_score % 如果目标函数值小于Alpha狼的目标函数值 Alpha_score = fitness; % 则将Alpha狼的目标函数值更新为最优目标函数值 Alpha_pos = Positions(i, :); % 同时将Alpha狼的位置更新为最优位置 end if fitness > Alpha_score && fitness < Beta_score % 如果目标函数值介于于Alpha狼和Beta狼的目标函数值之间 Beta_score = fitness; % 则将Beta狼的目标函数值更新为最优目标函数值 Beta_pos = Positions(i, :); % 同时更新Beta狼的位置 end if fitness > Alpha_score && fitness > Beta_score && fitness < Delta_score % 如果目标函数值介于于Beta狼和Delta狼的目标函数值之间 Delta_score = fitness; % 则将Delta狼的目标函数值更新为最优目标函数值 Delta_pos = Positions(i, :); % 同时更新Delta狼的位置 end end % 线性权重递减 wa = 2 - iter * ((2) / Max_iteration); % 更新搜索狼群的位置 for i = 1 : size(Positions, 1) % 遍历每个狼 for j = 1 : size(Positions, 2) % 遍历每个维度 % 包围猎物,位置更新 r1 = rand; % r1 is a random number in [0,1] r2 = rand; % r2 is a random number in [0,1] A1 = 2 * wa * r1 - wa; % 计算系数A,Equation (3.3) C1 = 2 * r2; % 计算系数C,Equation (3.4) % Alpha 位置更新 D_alpha = abs(C1 * Alpha_pos(j) - Positions(i, j)); % Equation (3.5)-part 1 X1 = Alpha_pos(j) - A1 * D_alpha; % Equation (3.6)-part 1 r1 = rand; % r1 is a random number in [0,1] r2 = rand; % r2 is a random number in [0,1] A2 = 2 * wa * r1 - wa; % 计算系数A,Equation (3.3) C2 = 2 *r2; % 计算系数C,Equation (3.4) % Beta 位置更新 D_beta = abs(C2 * Beta_pos(j) - Positions(i, j)); % Equation (3.5)-part 2 X2 = Beta_pos(j) - A2 * D_beta; % Equation (3.6)-part 2 r1 = rand; % r1 is a random number in [0,1] r2 = rand; % r2 is a random number in [0,1] A3 = 2 *wa * r1 - wa; % 计算系数A,Equation (3.3) C3 = 2 *r2; % 计算系数C,Equation (3.4) % Delta 位置更新 D_delta = abs(C3 * Delta_pos(j) - Positions(i, j)); % Equation (3.5)-part 3 X3 = Delta_pos(j) - A3 * D_delta; % Equation (3.5)-part 3 % 位置更新 Positions(i, j) = (X1 + X2 + X3) / 3; % Equation (3.7) end end % 更新迭代器 iter = iter + 1; disp(['第',num2str(iter),'次迭代']) Convergence_curve(iter) = Alpha_score; end
[1] https://blog.csdn.net/kjm13182345320/article/details/128577926?spm=1001.2014.3001.5501
[2] https://blog.csdn.net/kjm13182345320/article/details/128573597?spm=1001.2014.3001.5501
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。