赞
踩
MADDPG 是一种针对多智能体、连续行为空间设计的算法。MADDPG 的前身是DDPG,DDPG 算法旨在解决连续性行为空间的强化学习问题,而 MADDPG 是在 DDPG 的基础上做了改进,使其能够适用于多智能体之间的合作任务学习。本文先从 DDPG 引入,接着再介绍如何在 DDPG 算法上进行修改使其变成 MADDPG 算法。
Q-Learning 算法是强化学习中一种常用的方法,但传统的 Q-Learning 需要枚举所有的状态空间并建立 Q-Table,为了解决庞大不可枚举的状态空间问题,DQN 被人们设计出来,利用神经网络近似拟合的方法来避免了穷举所有可能的状态空间。但 DQN 算法有一个问题,那就是在计算当前 Q 值的时候需要求出下一个状态中每一个动作的值函数,选择最大的动作值函数值来进行计算。
Q π ( s t , a t ) = R ( s t , a t ) + γ m a x a Q π ( s t + 1 , a t + 1 ) Q^{\pi}(s_t, a_t) = R(s_t, a_t) + \gamma max_aQ^{\pi}(s_{t+1}, a_{t+1}) Qπ(st,at)=R(st,at)+γmaxaQπ(st+1,at+1)
在 Actor-Critic 算法中同样会面临这个问题,更新 critic 网络时候需要计算下一个状态下所有行为的Q值并取其平均值,计算公式如下:
Q π ( s t , a t ) = R ( s t , a t ) + γ E π [ Q π ( s t + 1 , a t + 1 ) ] Q^{\pi}(s_t, a_t) = R(s_t, a_t) + \gamma E_{\pi}[Q^{\pi}(s_{t+1}, a_{t+1})] Qπ(st,at)=R(st,at)+γEπ[Qπ(st+1,at+1)]
其中 E π [ Q π ( s t + 1 , a t + 1 ) ] E_{\pi}[Q^{\pi}(s_{t+1}, a_{t+1})] Eπ[Qπ(st+1,at+1)] 是枚举所有动作的得分效用并乘上对应动作的选取概率(当然在 AC 中可以直接通过拟合一个 V ( s ) V(s) V(s) 来近似替代枚举结果)。那么不管是 DQN 还是 AC 算法,都涉及到需要计算整个行为空间中所有行为的效用值,一旦行为空间演变为连续型的就无法使用以上算法,因为无法穷举所有的行为并计算所有行为的值之和了。为此,在解决连续行为空间问题的时候,我们需要一种新的算法,能够不用穷举所有行为的值就能完成算法更新,DDPG 的出现很好的解决了这个问题。
DPG(Deterministic Policy Gradient)算法是一种 “确定性行为策略” 算法,我们之前问题的难点在于对于连续的庞大行为空间,我们无法一一枚举所有可能的行为。因此,DPG 认为,在求取下一个状态的状态值时,我们没有必要去计算所有可能的行为值并跟据每个行为被采取的概率做加权平均,我们只需要认为在一个状态下只有可能采取某一个确定的行为 a a a,即该行为 a a a 被采取的概率为百分之百,这样就行了,于是整个 Q 值计算函数就变成了:
Q μ ( s t , a t ) = R ( s t , a t ) + γ Q μ ( s t + 1 , μ ( s t + 1 ) ) ] Q^{\mu}(s_t, a_t) = R(s_t, a_t) + \gamma Q^{\mu}(s_{t+1}, \mu{(s_{t+1})})] Qμ(st,at)=R(st,at)+γQμ(st+1,μ(st+1))]
即,原本的行为 a a a 是由随机策略 π \pi π 进行概率选择,而现在这个行为由一个确定性策略 μ \mu μ 来选择,确定性策略是指只要输入一个状态就一定能得到唯一一个确定的输出行为,而随机性策略指的是输入一个状态,输出的是整个行为空间的所有行为概率分布。DDPG 是 DPG 算法上融合进神经网络技术,变成了 Deep Deterministic Policy Gradient,其整体思路和 DPG 是一致的。
DDPG 沿用了 Actor-Critic 算法结构,在代码中也存在一个 Actor 和一个 Critic,Actor 负责做行为决策,而 Critic 负责做行为效用评估,这里使用 DDPG 学习玩 gym 中一个倒立摆的游戏,游戏中的 action 为顺时针或逆时针的旋转力度,旋转力度是一个连续行为,力的大小是一个连续的随机变量,最终期望能够通过不断学习后算法能够学会如何让杆子倒立在上面静止不动,如下图所示:
我们先来看看在 DDPG 中 Actor 和 Critic 分别是怎么实现的的,Actor 和 Critic 的定义如下(代码参考自这里):
class Actor(nn.Module): def __init__(self, input_size, hidden_size, output_size): super(Actor, self).__init__() self.linear1 = nn.Linear(input_size, hidden_size) self.linear2 = nn.Linear(hidden_size, hidden_size) self.linear3 = nn.Linear(hidden_size, output_size) def forward(self, s): x = F.relu(self.linear1(s)) x = F.relu(self.linear2(x)) x = torch.tanh(self.linear3(x)) return x class Critic(nn.Module): def __init__(self, input_size, hidden_size, output_size): super().__init__() self.linear1 = nn.Linear(input_size, hidden_size) self.linear2 = nn.Linear(hidden_size, hidden_size) self.linear3 = nn.Linear(hidden_size, output_size) def forward(self, s, a): x = torch.cat([s, a], 1) # DDPG与普通AC算法的不同之处 x = F.relu(self.linear1(x)) x = F.relu(self.linear2(x)) x = self.linear3(x) return x
Actor 的设计和以往相同,没什么太大变化。
Critic 的实现有了一些改变,在 forward 函数中,原始的 critic 只用传入状态
s
s
s,输出所有动作的效用值,但由于这是连续动作空间,无法输出每一个行为的值,因此 critic 网络改为接收一个状态
s
s
s 和一个具体行为
a
a
a 作为输入,输出的是具体行为
a
a
a 在当前状态
s
s
s 下的效用值,即 critic 网络输出维度为1。
除了在 critic 网络上有了改变之外,DDPG 在整个算法层面上也做了修改。DDPG 参照了 DQN 的方式,为了算法添加了 target network,即固定住一个 target 网络产生样本,另一个 evaluate 网络不断更新迭代的思想,因此整个算法包含 4 个网络:
actor = Actor(s_dim, 256, a_dim)
actor_target = Actor(s_dim, 256, a_dim)
critic = Critic(s_dim+a_dim, 256, a_dim) # 输入维度是 状态空间 + 行为空间
critic_target = Critic(s_dim+a_dim, 256, a_dim)
值得注意的是,在上述 critic 网络中输入的是 s_dim + a_dim,为什么是加 a_dim 呢?因为在 DDPG 算法中,critic 网络评判的是一组行为的效用值,即如果有(油门、方向盘)这两个行为的话,那么传入的应该是(油门大小、方向盘转动度数)这一组行为,critic 网络对这一组动作行为做一个效用评判。
之前提到 DDPG 算法借用了 DQN 思想,除了加入了 Target 网络之外还引入了 Memory Pool 机制,将收集到的历史经验存放到记忆库中,在更新的时候取一个 batch 的数据来计算均值,memory pool 代码如下:
# 经验池
buffer = []
# 往经验池存放经验数据
def put(self, *transition):
if len(self.buffer)== self.capacity:
self.buffer.pop(0)
self.buffer.append(transition)
在定义好了这些结构之后,我们就开始看看如何进行梯度更新吧。所需要更新参数的网络一共有 4 个,2 个 target network 和 2 个 evaluate network,target network 的更新是在训练迭代了若干轮后将 evaluate network 当前的参数值复制过去即可,只不过这里并不是直接复制,会做一些处理,这里我们先来看 evaluate network 是如何进行参数更新的,actor 和 critic 的更新代码如下 :
def critic_learn(): a1 = self.actor_target(s1).detach() y_true = r1 + self.gamma * self.critic_target(s1, a1).detach() # 下一个状态的目标状态值 y_pred = self.critic(s0, a0) # 下一个状态的预测状态值 loss_fn = nn.MSELoss() loss = loss_fn(y_pred, y_true) self.critic_optim.zero_grad() loss.backward() self.critic_optim.step() def actor_learn(): loss = -torch.mean( self.critic(s0, self.actor(s0)) ) self.actor_optim.zero_grad() loss.backward() self.actor_optim.step()
我们先来看 critic 的 learn 函数,loss 函数比较的是 用当前网络预测当前状态的Q值 和 利用回报R与下一状态的状态值之和 之间的 error 值,现在问题在于下一个状态的状态值如何计算,在 DDPG 算法中由于确定了在一种状态下只会以100%的概率去选择一个确定的动作,因此在计算下一个状态的状态值的时候,直接根据 actor 网络输出一个在下一个状态会采取的行为,把这个行为当作100%概率的确定行为,并根据这个行为和下一刻的状态输入 critic 网络得到下一个状态的状态值,最后通过计算这两个值的差来进行反向梯度更新(TD-ERROR)。
再来看看 actor 的 learn 函数,actor 还是普通的更新思路 —— actor 选择一个可能的行为,通过 reward 来决定增加选取这个 action 的概率还是降低选择这个 action 的概率。而增加/减少概率的多少由 critic 网络来决定,若 critic 网络评判出来当前状态下采取当前行为会得到一个非常高的正效用值,那么梯度更新后 actor 下次采取这个行为的概率就会大幅度增加。而传统的 actor 在进行行为选择时神经网络会输出每一个行为的被采取概率,按照这些概率来随机选择一个行为,但在 DDPG 算法中,所有行为都是被确定性选择的,不会存在随机性,因此在代码中传入的是经过 actor 后得到的输出行为,认为该行为就是100%被确定性选择的,没有之前的按概率选择行为这一个环节了。 选好行为后和当前状态一起传给 critic 网络做效用值评估。
Target Network 在 DDPG 算法中沿用了 DQN 的思路,在迭代一定的轮数后,会从 evaluate network 中 copy 参数到自身网络中去。但是不同的是,DDPG 在进行参数复制的时候选择的是 soft update 的方式,即,在进行参数复制的时候不是进行直接复制值,而是将 target net 和 evaluate net 的参数值以一定的权重值加起来,融合成新的网络参数,代码如下:
def soft_update(net_target, net, tau):
for target_param, param in zip(net_target.parameters(), net.parameters()):
target_param.data.copy_(target_param.data * (1.0 - tau) + param.data * tau)
参数 tau 是保留程度参数,tau 值越大则保留的原网络的参数的程度越大。
在理解了 DDPG 算法后,理解 MADDPG 就比较容易了。MADDPG 是 Multi-Agent 下的 DDPG 算法,主要针对于多智能体之间连续行为进行求解。MADDPG 同样沿用了 AC 算法的架构,和 DDPG 相比只是在 Critic 网络上的输入做了一些额外信息的添加,下面结合实际代码来分析:
class Actor(nn.Module): def __init__(self, args, agent_id): """ 网络层定义部分 """ super(Actor, self).__init__() self.fc1 = nn.Linear(args.obs_shape[agent_id], 64) # 定义输入维度 self.fc2 = nn.Linear(64, 64) self.fc3 = nn.Linear(64, 64) self.action_out = nn.Linear(64, args.action_shape[agent_id]) # 定义输出维度 def forward(self, x): """ 网络前向传播过程定义 """ x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = F.relu(self.fc3(x)) actions = torch.tanh(self.action_out(x)) return actions
上面是 MADDPG 中 actor 网络的定义代码,由于一个场景中可能存在多种不同的智能体,其观测空间维度与行为空间维度都不尽相同,因此在进行 actor 定义时需传入每个智能体自身所符合的维度信息,如上述代码一样,通过 agent_id 来获取具体的智能体信息,前向传播过程与 DDPG 相同,没有什么特殊之处。
class Critic(nn.Module): def __init__(self, args): super(Critic, self).__init__() self.max_action = args.high_action self.fc1 = nn.Linear(sum(args.obs_shape) + sum(args.action_shape), 64) # 定义输入层维度(联合观测+联合行为) self.fc2 = nn.Linear(64, 64) self.fc3 = nn.Linear(64, 64) self.q_out = nn.Linear(64, 1) def forward(self, state, action): state = torch.cat(state, dim=1) # 联合观测 action = torch.cat(action, dim=1) # 联合行为 x = torch.cat([state, action], dim=1) # 联合观测 + 联合行为 x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = F.relu(self.fc3(x)) q_value = self.q_out(x) return q_value
Critic 的代码如上,可见 MADDPG 中的 Critic 是一个中心化网络,即传入的不只是当前 Agent 的(s,a)信息,还加入了其他 Agent 的(s,a)信息。这种做法在多智能体算法中不算新奇了,在训练学习阶段利用中心化的评价网络来指导 Actor 的更新在许多多智能体算法当中都用到了这个技巧。值得一提的是,由于 Critic 需要指导 Actor 的更新,所以理论上需要让 Critic 比 Actor 更快的收敛,因此通常 Critic 的 learning rate 需要设置的比 Actor 要稍大些。
下面我们来看看 Actor 和 Critic 的更新过程:
index = 0 for agent_id in range(self.args.n_agents): """ 获取下一时刻所有智能体的联合行为决策u_next """ if agent_id == self.agent_id: u_next.append(self.actor_target_network(o_next[agent_id])) else: u_next.append(other_agents[index].policy.actor_target_network(o_next[agent_id])) index += 1 """ 下一时刻的q值以及target q值 """ q_next = critic_target_network(o_next, u_next) # 联合观测、联合行为 target_q = r + gamma * q_next """ 当前状态的q值 """ q_value = critic_network(o, u) critic_loss = (target_q - q_value).pow(2).mean() # TD-Error 更新法 self.critic_optim.zero_grad() critic_loss.backward() self.critic_optim.step()
上面是 Critic 的更新过程,Critic 的更新很好理解,利用联合观测来确定联合行为(DPG中一个观测就对应一个具体的行为),输入到 Critic 网络中进行计算,最后利用 TD-Error 进行梯度更新。
""" 重新选择联合动作中当前agent的动作,其他agent的动作不变 """
u[self.agent_id] = self.actor_network(o[self.agent_id])
actor_loss = - self.critic_network(o, u).mean()
""" 网络更新 """
self.actor_optim.zero_grad()
actor_loss.backward()
self.actor_optim.step()
Actor 在进行更新的时候,首先把当前 Agent 的当前行为替换成了另外一个行为,再用新的联合行为去预估 Critic 的值,新的联合行为中其他 Agent 的行为是保持不变的。那么这里为什么要单独改变自身 Agent 的行为呢?这是因为 MADDPG 是一种 off-policy 的算法,我们所取的更新样本是来自 Memory Pool 中的,是以往的历史经验,但我们现在自身的 Policy 已经和之前的不一样了(已经进化过了),因此需要按照现在的 Policy 重新选择一个行为进行计算。这和 PPO 算法中的 Importance Sampling 的思想一样,PPO 是采用概率修正的方式来解决行为不一致问题,而 MADDPG 中干脆直接就舍弃历史旧行为,按照当前策略重采样一次行为来进行计算。
和 DDPG 一样,MADDPG 中针对 Actor 和 Critic 的 target 网络也是采用 soft update 的,具体内容参见 2.2.5 小节。
以上就是 MADDPG 的全部内容。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。