赞
踩
4. 最优化过程图示:想象一下如果我们现在有下面这样一个函数,现在想求函数的(全局)最优解。如果采用Greedy策略,那么从A点开始试探,如果函数值继续减少,那么试探过程就会继续。而当到达点B时,显然我们的探求过程就结束了(因为无论朝哪个方向努力,结果只会越来越大)。最终我们只能找到一个局部最后解B。模拟退火其实也是一种Greedy算法,但是它的搜索过程引入了随机因素。模拟退火算法以一定的概率来接受一个比当前解要差的解,因此有可能会跳出这个局部的最优解,达到全局的最优解。以上图为例,模拟退火算法在搜索到局部最优解B后,会以一定的概率接受向右继续移动。也许经过几次这样的不是局部最优的移动后会到达B 和C之间的峰点,于是就跳出了局部最小值B
5. 迭代公式:根据Metropolis准则,系统温度为T时,出现能量差为dE的降温概率为:
(1)
这条公式就表示:温度越高,出现一次能量差为dE的降温的概率就越大;温度越低,则出现降温的概率就越小。又由于dE总是小于0(因为退火的过程是温度逐渐下降的过程),因此。
以该降温概率为基础,采用状态转移概率来表示对较差状态的容忍性:
(2)
其中,为状态产生函数,因此。常数k通过改变温度T的取值范围而被忽略,即式(1)中的等效于式(2)中的T
注意:在求取最值的过程中,存在两类可接受解:
1)更优解---BS(较当前状态更加接近最值的状态);
2)容忍解---TS(较当前状态更加远离最值的解)。
前者的接受概率为1,后者的接受概率为状态转移概率p(∆f),且必须保证p(∆f)∈(0,1)
求最小值:
求最大值:
6. 算法简要总结(以求最小值为例):若(即移动后得到更优解),则总是接受该移动;若 (即移动后的解比当前解要差),则以一定的概率接受移动,而且这个概率随着时间推移逐渐降低(逐渐降低才能趋向稳定)相当于上图中,从B移向BC之间的小波峰时,每次右移(即接受一个更糟糕值)的概率在逐渐降低。如果这个坡特别长,那么很有可能最终我们并不会翻过这个坡。如果它不太长,这很有可能会翻过它,这取决于衰减t值的设定。
算法流程:
7. 代码示例:
示例函数(求最大值):
完整代码:
import numpy as np
import matplotlib.pyplot as plt
import random
class SA(object):
def __init__(self, interval, tab='min', T_max=1000, T_min=1, iterMax=1000, rate=0.95):
self.interval = interval # 状态空间,即解的搜索范围
self.T_max = T_max # 温度上限
self.T_min = T_min # 温度下限
self.iterMax = iterMax # 定温内部迭代次数
self.rate = rate # 退火降温速度
self.x_seed = random.uniform(interval[0], interval[1])
self.tab = tab.strip() # 求解最大值还是最小值的标签:‘min','max'
self.solve()
self.display()
def solve(self):
temp = 'deal_' + self.tab
if hasattr(self, temp):
deal = getattr(self, temp) # 采用反射方法提取对应的函数
else:
exit(">>>tab标签传参有误:'min'|'max'<<<")
x1 = self.x_seed
T = self.T_max
while T >= self.T_min:
for i in range(self.iterMax):
f1 = self.func(x1)
delta_x = random.random()*2-1
if self.interval[0] <= x1+delta_x <= self.interval[1]:
x2 = x1 + delta_x
else:
x2 = x1 - delta_x
f2 = self.func(x2)
delta_f = f2 - f1
x1 = deal(x1, x2, delta_f, T)
T *= self.rate
self.x_solu = x1
self.f_solu = self.func(x1)
def func(self, x):
value = np.sin(x**2)*(x**2-5*x)
return value
def p_min(self, delta, T):
probability = np.exp(-delta/T)
return probability
def p_max(self, delta, T):
probability = np.exp(delta/T)
return probability
def deal_min(self, x1, x2, delta, T):
if delta < 0:
return x2
else:
p = self.p_min(delta,T)
if p > random.random():
return x2
else:
return x1
def deal_max(self, x1, x2, delta, T):
if delta > 0:
return x2
else:
p = self.p_max(delta, T)
if p > random.random():
return x2
else:
return x1
def display(self):
print(f'seed: {self.x_seed}\nseed_funtion value: {self.func(self.x_seed)}\nsolution: {self.x_solu}\nfunction value: {self.f_solu}')
plt.figure(figsize=(6, 4))
x = np.linspace(self.interval[0], self.interval[1])
y = self.func(x)
plt.plot(x,y,'g-',label='function')
plt.plot(self.x_seed,self.func(self.x_seed),'bo',label='seed')
plt.plot(self.x_solu,self.func(self.x_solu),'r*',label='solution')
plt.title(f'solution={self.x_solu}')
plt.xlabel('x')
plt.ylabel('y')
plt.legend()
plt.show()
plt.close()
if __name__ == '__main__':
SA([-5,5],'max')
输出结果:
seed: 2.2204847770394913
seed_funtion value: 6.025576576848058
solution: -4.50428520583421
function value: 42.43890315917159
参考博客网址:
https://www.cnblogs.com/xxhbdk/p/9192750.html
其他启发式算法学习推荐:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。