当前位置:   article > 正文

智能优化算法——灰狼优化算法(Python&Matlab实现)_灰狼优化算法需要设置什么参数

灰狼优化算法需要设置什么参数

目录

1 灰狼优化算法基本思想

2 灰狼捕食猎物过程

2.1 社会等级分层

2.2 包围猎物

2.3 狩猎

2.4 攻击猎物

2.5 寻找猎物

3 实现步骤及程序框图

3.1 步骤

3.2 程序框图

4 Python代码实现

                              ​

5 Matlab实现


1 灰狼优化算法基本思想

灰狼优化算法是一种群智能优化算法,它的独特之处在于一小部拥有绝对话语权的灰狼带领一群灰狼向猎物前进。在了解灰狼优化算法的特点之前,我们有必要了解灰狼群中的等级制度

                                     

灰狼群一般分为4个等级:处于第一等级的灰狼用α表示,处于第二阶级的灰狼用β表示,处于第三阶段的灰狼用δ表示,处于第四等级的灰狼用ω表示。按照上述等级的划分,灰狼α对灰狼β、δ和ω有绝对的支配权;灰狼ω对灰狼δ和ω有绝对的支配权;灰狼δ对灰狼ω有绝对的支配权

2 灰狼捕食猎物过程

GWO 优化过程包含了灰狼的社会等级分层、跟踪、包围和攻击猎物等步骤,其步骤具体情况如下所示。

2.1 社会等级分层

当设计 GWO 时,首先需构建灰狼社会等级层次模型。计算种群每个个体的适应度,将狼群中适应度最好的三匹灰狼依次标记为 \alpha\beta\delta而剩下的灰狼标记为\omega 。也就是说,灰狼群体中的社会等级从高往低排列依次为\alpha\beta\delta\omega。GWO 的优化过程主要由每代种群中的最好三个解(即  \alpha\beta\delta)来指导完成。

2.2 包围猎物

灰狼群体通过以下几个公式逐渐接近并包围猎物:

                            

式中,t是当前的迭代代数,A和C是系数向量,Xp和X分别是猎物的位置向量和灰狼的位置向量。A和C的计算公式如下:  

式中,a是收敛因子,随着迭代次数从2线性减小到0,r1和r 2服从[ 0,1]之间的均匀分布。

2.3 狩猎

狼群中其他灰狼个体Xi根据α、β和百的位置Xa、XB和Xo来更新各自的位置:

                                   

式中,Da,Dβ和D6分别表示a,β和5与其他个体间的距离;Xa,Xβ和X6分别代表a,β和5的当前位置;C1,C2,C3是随机向量,X是当前灰狼的位置。
灰狼个体的位置更新公式如下:

                                 

2.4 攻击猎物

构建攻击猎物模型的过程中,根据2)中的公式,a值的减少会引起 A 的值也随之波动。换句话说,A 是一个在区间[-a,a](备注:原作者的第一篇论文里这里是[-2a,2a],后面论文里纠正为[-a,a])上的随机向量,其中a在迭代过程中呈线性下降。当 A 在[-1,1]区间上时,则捜索代理(Search Agent)的下一时刻位置可以在当前灰狼与猎物之间的任何位置上。

2.5 寻找猎物

灰狼主要依赖  \alpha\beta\delta 的信息来寻找猎物。它们开始分散地去搜索猎物位置信息,然后集中起来攻击猎物。对于分散模型的建立,通过|A|>1使其捜索代理远离猎物,这种搜索方式使 GWO 能进行全局搜索。GWO 算法中的另一个搜索系数是C。从2.2中的公式可知,C向量是在区间范围[0,2]上的随机值构成的向量,此系数为猎物提供了随机权重,以便増加(|C|>1)或减少(|C|<1)。这有助于 GWO 在优化过程中展示出随机搜索行为,以避免算法陷入局部最优。值得注意的是,C并不是线性下降的,C在迭代过程中是随机值,该系数有利于算法跳出局部,特别是算法在迭代的后期显得尤为重要。

3 实现步骤及程序框图

3.1 步骤

Step1:种群初始化:包括种群数量N,最大迭代次数Maxlter,调控参数a,A,C.Step2:根据变量的上下界来随机初始化灰狼个体的位置X。
Step3:计算每一头狼的适应度值,并将种群中适应度值最优的狼的位置信息保存X_{\alpha },将种群中适应度值次优的狼的位置信息保存为X_{\beta },将种群中适应度第三优的灰狼的位置信息保存为X_{\gamma }
Step4:更新灰狼个体X的位置。
step5:更新参数a,A和C。
Step6:计算每一头灰狼的适应度值,并更新三匹头狼的最优位置。
Step7:判断是否到达最大迭代次数Maxlter,若满足则算法停止并返回Xa的值作为最终得到的最优解,否则转到Step4。

3.2 程序框图

4 Python代码实现

  1. #=======导入线管库======
  2. import random
  3. import numpy
  4. def GWO(objf, lb, ub, dim, SearchAgents_no, Max_iter):
  5. #===初始化 alpha, beta, and delta_pos=======
  6. Alpha_pos = numpy.zeros(dim) # 位置.形成30的列表
  7. Alpha_score = float("inf") # 这个是表示“正负无穷”,所有数都比 +inf 小;正无穷:float("inf"); 负无穷:float("-inf")
  8. Beta_pos = numpy.zeros(dim)
  9. Beta_score = float("inf")
  10. Delta_pos = numpy.zeros(dim)
  11. Delta_score = float("inf") # float() 函数用于将整数和字符串转换成浮点数。
  12. #====list列表类型=============
  13. if not isinstance(lb, list): # 作用:来判断一个对象是否是一个已知的类型。 其第一个参数(object)为对象,第二个参数(type)为类型名,若对象的类型与参数二的类型相同则返回True
  14. lb = [lb] * dim # 生成[100100,.....100]30
  15. if not isinstance(ub, list):
  16. ub = [ub] * dim
  17. #========初始化所有狼的位置===================
  18. Positions = numpy.zeros((SearchAgents_no, dim))
  19. for i in range(dim): # 形成5*30个数[-100100)以内
  20. Positions[:, i] = numpy.random.uniform(0, 1, SearchAgents_no) * (ub[i] - lb[i]) + lb[
  21. i] # 形成[50-1的数]*100-(-100)-100
  22. Convergence_curve = numpy.zeros(Max_iter)
  23. #========迭代寻优=====================
  24. for l in range(0, Max_iter): # 迭代1000
  25. for i in range(0, SearchAgents_no): # 5
  26. #====返回超出搜索空间边界的搜索代理====
  27. for j in range(dim): # 30
  28. Positions[i, j] = numpy.clip(Positions[i, j], lb[j], ub[
  29. j]) # clip这个函数将将数组中的元素限制在a_min(-100), a_max(100)之间,大于a_max的就使得它等于 a_max,小于a_min,的就使得它等于a_min。
  30. #===========以上的循环里,Alpha、Beta、Delta===========
  31. a = 2 - l * ((2) / Max_iter); # a从2线性减少到0
  32. for i in range(0, SearchAgents_no):
  33. for j in range(0, dim):
  34. r1 = random.random() # r1 is a random number in [0,1]主要生成一个0-1的随机浮点数。
  35. r2 = random.random() # r2 is a random number in [0,1]
  36. A1 = 2 * a * r1 - a; # Equation (3.3)
  37. C1 = 2 * r2; # Equation (3.4)
  38. # D_alpha表示候选狼与Alpha狼的距离
  39. D_alpha = abs(C1 * Alpha_pos[j] - Positions[
  40. i, j]); # abs() 函数返回数字的绝对值。Alpha_pos[j]表示Alpha位置,Positions[i,j])候选灰狼所在位置
  41. X1 = Alpha_pos[j] - A1 * D_alpha; # X1表示根据alpha得出的下一代灰狼位置向量
  42. r1 = random.random()
  43. r2 = random.random()
  44. A2 = 2 * a * r1 - a; #
  45. C2 = 2 * r2;
  46. D_beta = abs(C2 * Beta_pos[j] - Positions[i, j]);
  47. X2 = Beta_pos[j] - A2 * D_beta;
  48. r1 = random.random()
  49. r2 = random.random()
  50. A3 = 2 * a * r1 - a;
  51. C3 = 2 * r2;
  52. D_delta = abs(C3 * Delta_pos[j] - Positions[i, j]);
  53. X3 = Delta_pos[j] - A3 * D_delta;
  54. Positions[i, j] = (X1 + X2 + X3) / 3 # 候选狼的位置更新为根据Alpha、Beta、Delta得出的下一代灰狼地址。
  55. Convergence_curve[l] = Alpha_score;
  56. if (l % 1 == 0):
  57. print(['迭代次数为' + str(l) + ' 的迭代结果' + str(Alpha_score)]); # 每一次的迭代结果
  58. #========函数==========
  59. def F1(x):
  60. s=numpy.sum(x**2);
  61. return s
  62. #===========主程序================
  63. func_details = ['F1', -100, 100, 30]
  64. function_name = func_details[0]
  65. Max_iter = 1000#迭代次数
  66. lb = -100#下界
  67. ub = 100#上届
  68. dim = 30#狼的寻值范围
  69. SearchAgents_no = 5#寻值的狼的数量
  70. x = GWO(F1, lb, ub, dim, SearchAgents_no, Max_iter)

                              

5 Matlab实现

  1. % 主程序 GWO
  2. clear
  3. close all
  4. clc
  5. %%完整代码见微信公众号:电力系统与算法之美
  6. %输入关键字:灰狼算法
  7. SearchAgents_no = 30 ; % 种群规模
  8. dim = 10 ; % 粒子维度
  9. Max_iter = 1000 ; % 迭代次数
  10. ub = 5 ;
  11. lb = -5 ;
  12. %% 初始化三匹头狼的位置
  13. Alpha_pos=zeros(1,dim);
  14. Alpha_score=inf;
  15. Beta_pos=zeros(1,dim);
  16. Beta_score=inf;
  17. Delta_pos=zeros(1,dim);
  18. Delta_score=inf;
  19. Convergence_curve = zeros(Max_iter,1);
  20. %% 开始循环
  21. for l=1:Max_iter
  22. for i=1:size(Positions,1)
  23. %% 返回超出搜索空间边界的搜索代理
  24. Flag4ub=Positions(i,:)>ub;
  25. Flag4lb=Positions(i,:)<lb;
  26. Positions(i,:)=(Positions(i,:).*(~(Flag4ub+Flag4lb)))+ub.*Flag4ub+lb.*Flag4lb;
  27. %% 计算每个搜索代理的目标函数
  28. fitness=sum(Positions(i,:).^2);
  29. %% 更新 Alpha, Beta, and Delta
  30. if fitness<Alpha_score
  31. Alpha_score=fitness; % Update alpha
  32. Alpha_pos=Positions(i,:);
  33. end
  34. if fitness>Alpha_score && fitness<Beta_score
  35. Beta_score=fitness; % Update beta
  36. Beta_pos=Positions(i,:);
  37. end
  38. if fitness>Alpha_score && fitness>Beta_score && fitness<Delta_score
  39. Delta_score=fitness; % Update delta
  40. Delta_pos=Positions(i,:);
  41. end
  42. end
  43. a=2-l*((2)/Max_iter); % a decreases linearly fron 2 to 0
  44. %% 更新搜索代理的位置,包括omegas
  45. for i=1:size(Positions,1)
  46. for j=1:size(Positions,2)
  47. r1=rand(); % r1 is a random number in [0,1]
  48. r2=rand(); % r2 is a random number in [0,1]
  49. A1=2*a*r1-a; % Equation (3.3)
  50. C1=2*r2; % Equation (3.4)
  51. D_alpha=abs(C1*Alpha_pos(j)-Positions(i,j)); % Equation (3.5)-part 1
  52. X1=Alpha_pos(j)-A1*D_alpha; % Equation (3.6)-part 1
  53. r1=rand();
  54. r2=rand();
  55. A2=2*a*r1-a; % Equation (3.3)
  56. C2=2*r2; % Equation (3.4)
  57. D_beta=abs(C2*Beta_pos(j)-Positions(i,j)); % Equation (3.5)-part 2
  58. X2=Beta_pos(j)-A2*D_beta; % Equation (3.6)-part 2
  59. r1=rand();
  60. r2=rand();
  61. A3=2*a*r1-a; % Equation (3.3)
  62. C3=2*r2; % Equation (3.4)
  63. D_delta=abs(C3*Delta_pos(j)-Positions(i,j)); % Equation (3.5)-part 3
  64. X3=Delta_pos(j)-A3*D_delta; % Equation (3.5)-part 3
  65. Positions(i,j)=(X1+X2+X3)/3;% Equation (3.7)
  66. end
  67. end
  68. Convergence_curve(l)=Alpha_score;
  69. disp(['Iteration = ' num2str(l) ', Evaluations = ' num2str(Alpha_score)]);
  70. end
  71. %========可视化==============
  72. figure('unit','normalize','Position',[0.3,0.35,0.4,0.35],'color',[1 1 1],'toolbar','none')
  73. %% 目标空间
  74. subplot(1,2,1);
  75. x = -5:0.1:5;y=x;
  76. L=length(x);
  77. f=zeros(L,L);
  78. for i=1:L
  79. for j=1:L
  80. f(i,j) = x(i)^2+y(j)^2;
  81. end
  82. end
  83. surfc(x,y,f,'LineStyle','none');
  84. xlabel('x_1');
  85. ylabel('x_2');
  86. zlabel('F')
  87. title('Objective space')
  88. %% 狼群算法
  89. subplot(1,2,2);
  90. semilogy(Convergence_curve,'Color','r','linewidth',1.5)
  91. title('Convergence_curve')
  92. xlabel('Iteration');
  93. ylabel('Best score obtained so far');
  94. axis tight
  95. grid on
  96. box on
  97. legend('GWO')
  98. display(['The best solution obtained by GWO is : ', num2str(Alpha_pos)]);
  99. display(['The best optimal value of the objective funciton found by GWO is : ', num2str(Alpha_score)]);

 

                    

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/636223
推荐阅读
相关标签
  

闽ICP备14008679号