赞
踩
DRL的训练标签是什么?
想让智能体学习一段时间后,然后仿照考试一样,对智能体进行测试;以此反复训练网络参数。
强化学习中的无模型和有模型
具有完整环境模型的智能体可以预测每个动作的结果以及相应的奖励,因此可以在不进行试验的情况下优化其策略。这种类型的智能体被称为“有模型”智能体。
另一方面,没有对环境建模的智能体被称为“无模型”智能体。这些智能体必须通过与环境交互来学习,然后基于其经验进行行动决策。它们只能在实验过程中通过试错来学习,并且需要更多的时间和经验才能达到与有模型智能体相同的性能水平。
Sarsa算法就是一个无模型的在线学习算法。
Q值
策略学习和价值学习
一般来说,策略学习和价值学习都需要与环境进行交互,获取奖励信号来更新参数。但是也有一些算法可以同时使用策略和价值来做决策,比如演员-评论家算法(Actor-Critic),其中演员(Actor)是一个策略函数,评论家(Critic)是一个价值函数,演员根据评论家的评价来更新策略,评论家根据环境的奖励来更新价值。
策略梯度(reinforce和AC算法)
关于rt、Rt大小写的区别
episode和评估次数的关系
状态价值V和动作价值Q
AC算法中的更新
Q-learning是一种离线算法,它使用贪心策略来选择下一个状态的最大价值动作,但实际执行时可能不采用该动作12。SARSA是一种在线算法,它使用 ε − g r e e d y \varepsilon-greedy ε−greedy 策略来选择下一个状态的实际动作,并执行该动作12。
Q-learning是离线算法,因为它在更新Q值时,使用的是下一个状态的最大价值动作,而不是实际执行的动作12。也就是说,Q-learning在学习过程中使用的策略和实际执行的策略可能不一致,这样可以避免局部最优解23。
SARSA是在线算法,因为它在更新Q值时,使用的是下一个状态的实际动作,也就是说,SARSA在学习过程中使用的策略和实际执行的策略是一致的12。这样可以保证SARSA能够适应环境的变化,并且对错误或惩罚更敏感24。
Q-learning和SARSA的更新公式不同,Q-learning使用下一个状态的最大价值动作来更新当前状态的价值函数,即 Q ( s , a ) = Q ( s , a ) + α ∗ ( r + γ ∗ m a x ( Q ( s ’ , a ’ ) ) − Q ( s , a ) ) Q (s,a) = Q (s,a) + α* (r+γ* {max} (Q (s’,a’))-Q (s,a)) Q(s,a)=Q(s,a)+α∗(r+γ∗max(Q(s’,a’))−Q(s,a))。SARSA使用下一个状态的实际动作来更新当前状态的价值函数,即 Q ( s , a ) = Q ( s , a ) + α ∗ ( r + γ ∗ Q ( s ’ , a ’ ) − Q ( s , a ) ) Q (s,a) = Q (s,a) + α* (r+γ*Q (s’,a’)-Q (s,a)) Q(s,a)=Q(s,a)+α∗(r+γ∗Q(s’,a’)−Q(s,a)) \123。
Q-learning和SARSA的行为特征不同,Q-learning是一种激进的算法,它只考虑最终获得最大奖励的可能性,不在乎中途遇到的陷阱或惩罚124。SARSA是一种保守的算法,它对错误或死亡十分敏感,会尽量避开可能导致负面结果的动作124。
由于某些算法(如 A2C、PPO)默认采取 stochastic 策略,因此在测试即调用 .predict() 时应该设置 deterministic=True,这会有更好的效果?
这句话的意思是,在强化学习中,有两种不同的策略类型:确定性策略和随机性策略。确定性策略是指对于每个状态,只输出一个确定的动作。随机性策略是指对于每个状态,输出一个动作的概率分布,然后从中采样动作。
一些强化学习算法(如A2C、PPO)默认采用随机性策略,这样可以增加探索性和鲁棒性。34
但是,在测试的时候,如果想要得到最优的动作,就应该设置 deterministic=True,这样就可以直接输出最大概率的动作,而不是随机采样。34
这样做的原因是,在训练的时候,随机性策略可以帮助学习到更多的状态和动作,但是在测试的时候,确定性策略可以保证输出最好的动作。
Q-learning:Q-learning是一种基于值函数的强化学习算法,可以用于离散状态和动作空间的问题,收敛速度较快,但对于连续状态和动作空间的问题效果可能不太好。
Deep Q Network (DQN):DQN是一种基于深度神经网络的Q-learning算法,可以用于处理连续状态和离散动作空间的问题。DQN具有较好的泛化能力和稳定性,但训练过程比较复杂。
TD 目标的计算分解成选择和求值两步,缓解了最大化造成的高估。过度估计问题是指DQN在选择最大化动作价值函数的动作时,往往高估了一些情况下的行为价值,导致学习偏差和不稳定。
τ:
Policy Gradient:Policy Gradient是一种基于策略优化的强化学习算法,可以用于离散和连续状态空间、离散和连续动作空间的问题。Policy Gradient可以直接优化策略函数,但训练过程比较不稳定。
Actor-Critic:Actor-Critic是一种将值函数和策略函数结合起来的强化学习算法,可以用于离散和连续状态空间、离散和连续动作空间的问题。Actor-Critic可以同时优化策略和值函数,但训练过程也比较复杂。
Proximal Policy Optimization (PPO):PPO是一种基于策略优化的强化学习算法,可以用于离散和连续状态空间、离散和连续动作空间的问题。PPO具有较好的稳定性和收敛速度,但训练效率较低。
同策略:SARSA、REINFORCE、A2C 都属于同策略。它们要求经验必须是当前的目标策略收集到的,而不能使用过时的经验。经验回放不适用于同策略
Distributional DQN:(原文链接:参考链接)
PPO和A3C区别
epoch
软更新系数
θ i + 1 − ← ( 1 − ϵ ) θ i − + ϵ θ i = θ i − + ϵ ( θ i − θ i − ) \begin {align*} \theta_ {i+1}^ {-} &\leftarrow (1-\epsilon)\theta_i^ {-} + \epsilon \theta_i\\ &= \theta_i^ {-} + \epsilon (\theta_i - \theta_i^ {-}) \end {align*} θi+1−←(1−ϵ)θi−+ϵθi=θi−+ϵ(θi−θi−)
其中 0< ϵ \epsilon ϵ << 1 是软更新系数,它控制了目标网络参数变化的速度。软更新系数越小,目标网络参数变化越缓慢,算法越稳定,但收敛速度也越慢。软更新系数越大,目标网络参数变化越快,算法越不稳定,但收敛速度也越快。一个合适的软更新系数能让算法既稳定又快速地收敛。
软更新系数一般用于连续动作空间的强化学习算法,如DDPG 2、TD3 3、SAC [4]等。它们与离散动作空间的强化学习算法不同,后者通常使用硬更新 (Hard Update) 的方法,即每隔固定的 C 步用Q网络参数 \theta_i 同步更新一次目标网络参数 θ i − \theta_i^- θi− 。硬更新和软更新之间有一个关系,即当目标网络更新间隔 C 和软间隔更新系数 ϵ \epsilon ϵ 满足 ϵ C = 1 \epsilon C=1 ϵC=1 时,两种更新方式下的性能是相当的1
load_state_dict和parameters().copy区别
torch.mean(F.mse_loss())和nn.MSELoss()区别
关于策略梯度:
AC算法中,代码实现策略梯度计算的一般步骤如下12:
1. 定义actor网络和critic网络,分别用于输出策略和值函数。
2. 采样一条轨迹,记录每个状态、动作和奖励。
3. 对每个时刻,计算累积奖励或者使用critic网络的输出作为目标值。
4. 对每个时刻,计算actor网络的输出对应的对数概率,乘以目标值,得到策略梯度。
5. 对每个时刻,计算critic网络的输出与目标值之间的均方误差,得到值函数梯度。
6. 使用优化器更新actor网络和critic网络的参数。
总结就是:离线反刍,温故而知新(离线学习)
它通过利用环境模型来加速Q-learning算法的收敛,同时也可以对环境进行预测,从而改善策略。
Dyna Q算法的基本思想是,在Q-learning算法的基础上,增加了一个环境模型,用来模拟环境的动态变化。当智能体与环境交互时,除了更新Q值之外,还会更新环境模型。环境模型可以记录智能体的经验,包括每个状态的奖励和下一个状态的转移概率,智能体在更新Q值时会利用这些信息来加速收敛。
在Dyna Q算法中,每次更新Q值时,会随机选择一个之前经历过的状态,并根据环境模型预测其下一步的状态和奖励。这样可以在Q-learning算法的基础上,增加更多的训练数据,进一步提高智能体的决策能力。另外,在环境模型中预测的状态和奖励也会用来更新Q值,以此来改进智能体的策略。
总的来说,Dyna Q算法是一种结合了模型学习和模型利用的增强学习算法,可以有效地提高强化学习算法的收敛速度和性能。但是,在实际应用中,由于需要维护环境模型,所以Dyna Q算法的计算复杂度相对较高。
确定性策略和随机策略各有优缺点。确定性策略的优点是简单、高效、易于实现;缺点是可能陷入局部最优、缺乏探索能力、不适用于部分可观测或随机的环境3。随机策略的优点是可以增强探索能力、适应不确定性、避免过早收敛或震荡;缺点是可能增加方差、降低效率、难以优化
A3C 采用异步梯度更新的方式,不同的 worker 获取独立的经验后(一个 batch),独立的去更新 Global Network,当主网络参数被更新了以后,就用最新的参数去重置所有的 worker,然后在开始下一轮循环。
- 目标网络和评论家网络的关系是一种固定网络技术,它是为了解决值函数更新时的不稳定性问题。
- 目标网络和评论家网络有相同的结构,但是目标网络的参数是延迟更新的,也就是说,它不会每次都和评论家网络同步,而是每隔一段时间才会复制评论家网络的参数。这样可以让目标值更稳定,避免因为参数的快速变化而导致值函数震荡或者发散。
- 目标网络只用来计算目标值,不用来更新参数,所以它的梯度不需要反向传播到评论家网络。
目标网络主要用于基于 Q-learning 的算法,如 DQN 和 DDPG,它们使用值函数网络来估计 Q 值,并根据 Q 值来选择动作。目标网络的作用是生成目标 Q 值,用于计算值函数网络的损失函数和梯度更新。
目标网络不是必须的,但是使用目标网络可以使训练过程更稳定,因为它可以减少目标 Q 值和值函数网络输出之间的差异,从而减少训练过程中的震荡和不稳定。
如果不使用目标网络,那么目标 Q 值和值函数网络输出都会随着同一套参数变化,这可能导致训练陷入循环或者发散。
如果使用基于策略梯度的算法,如 REINFORCE 或者 PPO,那么就不需要目标网络,因为它们直接学习一个策略网络来输出动作的概率分布,并根据优势函数或者回报估计来更新策略网络。
PPO 有一个价值网络,用来估计状态值,并用于计算优势函数或者回报估计。理论上,PPO 也可以使用目标网络来生成目标状态值,从而稳定价值网络的训练。但是,PPO 是一个 on-policy 的算法,它只使用当前策略产生的经验来更新网络,而不使用历史策略产生的经验。这意味着 PPO 需要在每次更新策略后丢弃之前收集的经验,因为它们不再适用于新的策略。这样做的好处是 PPO 可以保证策略和值函数之间的一致性,也就是说,值函数可以很好地估计当前策略的性能。
如果 PPO 使用目标网络,那么目标网络的参数会滞后于价值网络的参数,这可能导致目标状态值和价值网络输出之间的不一致性,也就是说,目标状态值可能不能很好地估计当前策略的性能。这样做的代价是 PPO 可能降低学习效率,因为它不能及时反映环境和策略的变化。
因此,PPO 通常不使用目标网络,而是直接使用价值网络来生成目标状态值。这样做的好处是 PPO 可以提高学习效率,因为它可以及时反映环境和策略的变化。
知乎文章
SAC算法是一种基于policy iteration来解决控制问题的,off-policy数据可能影响的是policy evaluation的部分,因为该部分需要逼近
Q
π
Q^\pi
Qπ和
V
π
V^\pi
Vπ。SAC算法解决的问题是离散动作空间和连续动作空间的强化学习问题,是off-policy的强化学习算法.
SAC算法中,如果actor网络输出的动作越能够使一个综合指标(既包含动作价值q,又包含熵h)变大,那么就越好。如果Q critic网络输出的动作价值q越准确(根据贝尔曼方程可知,q是否准确依赖于v是否准确),那么就越好。如果V critic网络输出的状态价值v越准确,那么就越好。
什么是TD3算法?(附代码及代码分析) - 张斯俊的文章 - 知乎
优先级采样是一种根据数据的重要性来分配采样概率的方法,它可以用来减少数据的冗余和偏差,提高数据的多样性和代表性。优先级采样通常需要定义一个优先级函数,用来衡量每个数据的重要性,比如TD误差、奖励大小、状态稀疏度等。优先级采样可以用来改进经验回放机制,让强化学习算法更快地从关键的经验中学习。例如,( Schaul et al., 2016) 提出了一种基于优先级采样的深度Q网络算法1。
重要性采样是一种根据数据的偏差来调整学习更新的方法,它可以用来减少数据的偏差和方差,提高数据的有效性和稳定性。重要性采样通常需要计算一个重要性权重,用来衡量每个数据在目标分布和行为分布之间的偏差,比如策略概率比值、值函数梯度比值等。重要性采样可以用来改进策略评估和策略改进机制
,让强化学习算法更准确地从不同的策略中学习。例如,( Precup et al., 2000) 提出了一种基于重要性采样的离线策略评估算法2。
重要性采样和优先级经验回放的区别和联系是这样的:
归一化是一种常用的数据预处理方法,可以消除数据的量纲,让输入神经网络的数值符合标准正态分布,从而让神经网络的训练更加舒服123。
在强化学习中,归一化可以应用于状态信息、动作信息和奖励信息,但是有不同的方式和效果123。
状态信息:可以对输入神经网络的状态信息进行归一化,使其均值为0,方差为1。这样可以避免输入一个绝对值很大的数字,导致神经网络的参数需要经过很多步的更新才能适应12。
动作信息:在动作空间是连续的情况下,可以将动作空间限制在一个范围内,例如-1到1。这样可以让动作信息的均值和方差接近0和1,也有利于神经网络的训练12。
确保稳定性:标准化动作可以帮助提高算法的稳定性。在强化学习中,智能体可能需要选择具有不同取值范围的动作。如果不对动作进行标准化,不同动作的取值范围差异很大,可能会导致训练不稳定,难以收敛。
提高收敛速度:标准化动作可以加快训练的收敛速度。通过将动作值映射到固定的范围(例如[-1, 1]或[0, 1]),可以使智能体更容易学习和调整动作策略,减少训练时间。
泛化能力:标准化动作可以提高智能体的泛化能力。通过将动作范围限制在一定的范围内,智能体可以更好地适应不同环境和任务的动作要求。这种泛化能力使得训练好的智能体可以更好地应对未知环境和动作空间的变化。
兼容性:标准化动作可以使得智能体的策略更易于与其他模型或系统进行集成。例如,在与物理环境交互的控制任务中,动作的标准化可以使得智能体输出的动作值与物理系统的控制输入匹配,从而更容易实现实际控制。
奖励信息:不应该对奖励信息进行归一化,因为这样会破坏奖励信号的意义123。但是可以对奖励信息进行放缩,即乘以一个常数因子,来调整奖励信息的大小123。这样可以避免奖励信息的方差过大导致算法无法收敛,或者奖励信息过小导致算法收敛变慢12。
如果你想了解更多细节:
【代码实现】强化学习调参经验集成 - 知乎**3**
大部分DRL算法,指的是 Off-policy的 DDPG、TD3、SAC 等,以及 On-policy 的 A3C、PPO 等 及其变体。大部分算法的区别只在于:计算Q值、探索环境罢了。如果是DQN类的,那么只需要把 actor 看成是 arg max (Q1, …, Qn),critic看成是Q Network 即可。
RuntimeError: Found dtype Double but expected Float
你使用了torch.from_numpy方法来将numpy数组转换为torch张量,但是这个方法默认会保留原来的数据类型,而numpy数组的默认数据类型是双精度浮点数。你可以在torch.from_numpy方法后面加上.float()方法来将张量转换为单精度浮点数,
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。