当前位置:   article > 正文

2023年智能算法之双曲正弦余弦优化器(SCHO),原理公式详解,附matlab代码

scho优化器的目的

双曲正弦余弦优化器(Sinh Cosh OptimizerSCHO)是一种新型元启发式算法,该算法基于双曲正弦和双曲余弦特性的数学启发,具有进化能力强、搜索速度快、寻优能力强的特点。该成果于202310月发表在SCI一区,Top顶刊Knowledge-Based Systems上。

32c8d237a53380150b184fcfcf8b2a0a.png

SCHO的灵感来源有三点。首先,如何在勘探和开发之间取得平衡是一个巨大的挑战,其次,面对复杂多样的问题,仍需要提出新的元启发式算法。最后,基于数学启发的优化算法的提出,如sincos算法和算术优化算法(AOA),为研究元启发式算法指明了一个新的可能方向。双曲函数是三角函数中常见的一类,其中sinhcosh是最基本的双曲函数。元启发式算法可以利用coshsinh的两个特性。一是cosh值总是大于1,这是勘探与开发的关键边界,另一种是sinh值在[−1,1]区间内,且接近于零,可以提高勘探开发效率。

算法原理

(1)初始化阶段

与其他元启发式算法一样,SCHO也从随机初始化一组候选解开始。初始化的候选解的数学公式如下所示:  其中X是由以下公式得到的随机候选解集合,  表示第i个解的第j个位置,N表示候选解的个数,dim为问题维数。  其中rand表示[0,1]中的随机值,ublb分别为变量的上界和下界。

(2)勘探阶段

在本研究中,探索下一个位置仍然与它的位置有关,并得到了迄今为止的最优解。在优化过程中,探索分为两个阶段,应该存在于以后的迭代中,以逃避局部最优。在这两个阶段之间切换的值通过以下数学公式:  其中Max迭代表示迭代的最大值,floorMATLAB中向下舍入的函数,ct是用于设置两相切换点的系数。在第一阶段中,在早期的迭代中,搜索代理位置附近的搜索空间外部将被探索,然后搜索代理将逐渐接近获得的最佳解。第一阶段勘探位置更新函数的数学公式如下所示:  其中t表示当前迭代,    分别表示第i个解在当前迭代和下次迭代中的第j个位置;  为到目前为止得到的最优解的第j个位置,r1,r2为区间[0,1]内的随机数;  为第一勘探阶段  的权重系数,控制第一阶段候选解远离自身,逐渐向最优解探索,通过以下公式计算得到。  其中  为单调递减函数,由以下公式计算,    [0,1]中的随机数;  是控制第一阶段勘探精度的敏感系数,固定为0.388  从一个很小的值逐渐减小,这说明了自身位置对于位置更新的重要性,因此,候选解在第一阶段逐渐远离自己,然后寻找最优解。其中  为控制勘探精度的敏感系数,根据本案例实验,其值为0.45。  在第二阶段的探索中,搜索代理几乎不受最佳解的影响,因此它们基于当前位置进行无方向性的探索。其位置更新函数的数学公式如下所示:  其中,ε是一个极小的正数,根据本文实验,ε0.003W2为第二勘探阶段最佳的  的权重系数,  乘以ε大大削弱了最优解对当前解的影响,从而导致对  周围的候选解进行无向随机勘探,W2由以下公式计算得到:  其中r6[0,1]中的随机数,a2为用以下公式计算得到的单谐递减函数:  式中,n为控制第二阶段勘探精度的敏感系数,根据本文实验,取值为0.5

(3)开发阶段

为了充分利用搜索空间,开发分为两个阶段,在整个迭代过程中进行。在第一个开发阶段,开发了X的邻近空间,因此开发公式如下表示:  其中  ,  属于区间[01]中的随机数。  是第一阶段开发的权重系数,它控制候选解从近到远地开发其周围的搜索空间,其数学公式如下所示: 其中  ,  [0,1]中的随机数,a1已由上面公式定义,u与第一勘探阶段相同,固定为0.388

在开发的第二阶段,候选解将围绕迄今为止获得的最优解进行深度开发,并且围绕最优解的开发强度将随着迭代次数的增加而增加。位置更新函数如下所示:  其中    是区间[01]中的随机数,  控制第二开发阶段的程度,它的绝对值在后面的迭代中逐渐增加,增加了开发程度。方程中绝对值前面的系数用于保持候选解的多样性。

(4)有界搜索策略

为了充分利用潜在的搜索空间,在SCHO中采用了一种类似于后期动物狩猎的策略,称为有界搜索策略。通过在早期迭代中探索整个搜索区域,可以找到潜在的搜索空间。为了充分挖掘和利用潜力空间,首先将所有候选解随机初始化到该潜力空间中,然后对该空间进行深度挖掘和利用。该策略的每一开始都是通过以下公式计算:  其中k是从1开始的正整数,  由以下公式计算,  分别表示开始当前和下一个有界搜索策略的迭代次数。α是一个敏感系数,它控制着潜空间深部勘探开发的精度,本实验通过实验将α取为4.6。  其中β控制启动有界搜索策略的值,并设置为1.55。当SCHO每次都使用有界搜索策略时,优化问题的上界和下界将使用以下公式计算: 

其中    表示潜在搜索空间的上界和下界,  表示次优解的第  个位置。

 果展示

以为CEC2005函数集为例,进行结果展示:

7fb88f9a88208bd56e86fccbe4e2ae48.png

497563b676ebbc08702f24a657f5de90.png

a5ac6649e2730a6aee8645476f8c4fbe.png

e048acbbe58e0e73fca08af59c9978d1.png

287e35a71eaf21040a202c23bc730cd9.png

 MATLAB核心代码

  1. function [Destination_fitness,Destination_position,Convergence_curve]=SCHO(N,Max_iteration,lb,ub,dim,fobj)
  2. Destination_position=zeros(1,dim);
  3. Destination_fitness=inf;
  4. Destination_position_second=zeros(1,dim);
  5. Convergence_curve=zeros(1,Max_iteration);
  6. Position_sort = zeros(N,dim);
  7. %Initialize SCHO parameters
  8. u=0.388;
  9. m=0.45;
  10. n=0.5;
  11. p=10;
  12. q=9;
  13. Alpha=4.6;
  14. Beta=1.55;
  15. BS=floor(Max_iteration/Beta);
  16. ct=3.6;
  17. T=floor(Max_iteration/ct);
  18. BSi=0;
  19. BSi_temp=0;
  20. ub_2=ub;
  21. lb_2=lb;
  22. %Initialize the set of random solutions
  23. X=initialization(N,dim,ub,lb);
  24. Objective_values = zeros(1,size(X,1));
  25. % Calculate the fitness of the first set and find the best one
  26. for i=1:size(X,1)
  27. Objective_values(1,i)=fobj(X(i,:));
  28. if Objective_values(1,i)<Destination_fitness
  29. Destination_position=X(i,:);
  30. Destination_fitness=Objective_values(1,i);
  31. end
  32. end
  33. Convergence_curve(1)=Destination_fitness;
  34. t=2;
  35. %Main loop
  36. while t<=Max_iteration
  37. for i=1:size(X,1) % in i-th solution
  38. for j=1:size(X,2) % in j-th dimension
  39. %update A by using Eq. (17)
  40. cosh2=(exp(t/Max_iteration)+exp(-t/Max_iteration))/2;
  41. sinh2=(exp(t/Max_iteration)-exp(-t/Max_iteration))/2;
  42. r1=rand();
  43. A=(p-q*(t/Max_iteration)^(cosh2/(sinh2)))*r1;
  44. % enter the bounded search strategy
  45. if t==BSi
  46. ub_2=Destination_position(j)+(1-t/Max_iteration)*abs(Destination_position(j)-Destination_position_second(j));
  47. lb_2=Destination_position(j)-(1-t/Max_iteration)*abs(Destination_position(j)-Destination_position_second(j));
  48. if ub_2>ub
  49. ub_2=ub;
  50. end
  51. if lb_2<lb
  52. lb_2=lb;
  53. end
  54. X=initialization(N,dim,ub_2,lb_2);
  55. BSi_temp=BSi;
  56. BSi=0;
  57. end
  58. % the first phase of exploration and exploitation
  59. if t<=T%3.6-3.62
  60. r2=rand();
  61. r3=rand();
  62. a1=3*(-1.3*t/Max_iteration+m);
  63. r4=rand();
  64. r5=rand();
  65. if A>1
  66. sinh=(exp(r3)-exp(-r3))/2;
  67. cosh=(exp(r3)+exp(-r3))/2;
  68. W1=r2*a1*(cosh+u*sinh-1);
  69. if r5<=0.5
  70. X(i,j)=Destination_position(j)+r4*W1*X(i,j);
  71. else
  72. X(i,j)=Destination_position(j)-r4*W1*X(i,j);
  73. end
  74. else
  75. sinh=(exp(r3)-exp(-r3))/2;
  76. cosh=(exp(r3)+exp(-r3))/2;
  77. W3=r2*a1*(cosh+u*sinh);
  78. if r5<=0.5
  79. X(i,j)=Destination_position(j)+r4*W3*X(i,j);
  80. else
  81. X(i,j)=Destination_position(j)-r4*W3*X(i,j);
  82. end
  83. end
  84. else
  85. % the second phase of exploration and exploitation
  86. r2=rand();
  87. r3=rand();
  88. a2=2*(-t/Max_iteration+n);
  89. W2=r2*a2;
  90. r4=rand();
  91. r5=rand();
  92. if A<1
  93. sinh=(exp(r3)-exp(-r3))/2;
  94. cosh=(exp(r3)+exp(-r3))/2;
  95. X(i,j)= X(i,j)+(r5*sinh/cosh*abs(W2*Destination_position(j)-X(i,j)));
  96. else
  97. if r4<=0.5
  98. X(i,j)=X(i,j)+(abs(0.003*W2*Destination_position(j)-X(i,j)));
  99. else
  100. X(i,j)=X(i,j)+(-abs(0.003*W2*Destination_position(j)-X(i,j)));
  101. end
  102. end
  103. end
  104. end
  105. BSi=BSi_temp;
  106. end
  107. for i=1:size(X,1)
  108. % Check if solutions go outside the search spaceand bring them back
  109. Flag4ub=X(i,:)>ub_2;
  110. Flag4lb=X(i,:)<lb_2;
  111. X(i,:)=(X(i,:).*(~(Flag4ub+Flag4lb)))+(ub_2+lb_2)/2.*Flag4ub+lb_2.*Flag4lb;
  112. % Calculate the objective values
  113. Objective_values(1,i)=fobj(X(i,:));
  114. % % Update the destination if there is a better solution
  115. if Objective_values(1,i)<Destination_fitness
  116. Destination_position=X(i,:);
  117. Destination_fitness=Objective_values(1,i);
  118. end
  119. end
  120. %find the second solution
  121. if t==BS
  122. BSi=BS+1;
  123. BS=BS+floor((Max_iteration-BS)/Alpha);
  124. temp = zeros(1,dim);
  125. temp2 = zeros(N,dim);
  126. %sorting
  127. for i=1:(size(X,1)-1)
  128. for j=1:(size(X,1)-1-i)
  129. if Objective_values(1,j) > Objective_values(1,j+1)
  130. temp(1,j) = Objective_values(1,j);
  131. Objective_values(1,j) = Objective_values(1,j+1);
  132. Objective_values(1,j+1) = temp(1,j);
  133. temp2(j,:) = Position_sort(j,:);
  134. Position_sort(j,:) = Position_sort(j+1,:);
  135. Position_sort(j+1,:) = temp2(j,:);
  136. end
  137. end
  138. end
  139. Destination_position_second=Position_sort(2,:);%the second solution
  140. end
  141. Convergence_curve(t)=Destination_fitness;
  142. t=t+1;
  143. end

参考文献

[1]  Bai J, Li Y, Zheng M, et al. A sinh cosh optimizer[J]. Knowledge-Based Systems, 2023, 282: 111081.

完整代码获取方式:后台回复关键字:

TGDM101

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/787330
推荐阅读
相关标签
  

闽ICP备14008679号