当前位置:   article > 正文

Proximal_Policy_Optimization_proximal policy optimization csdn

proximal policy optimization csdn

Proximal Policy Optimization

什么是off-policy(异策略)

学习的agent和与环境互动的agent不是同一个,那么就是off-policy,反之就是on-policy(同策略)

on-policy缺点

Policy Gradient就是一个on-policy的算法,其奖励梯度公示如下:
∇ θ R θ ‾ = E τ ~ p θ ( τ ) [ R ( τ ) ∇ θ l o g ( p θ ( τ ) ) ] \nabla_\theta\overline{R_\theta} = E_{\tau~p_\theta(\tau)}[R(\tau) \nabla_{\theta}log(p_\theta(\tau))] θRθ=Eτpθ(τ)[R(τ)θlog(pθ(τ))]
可以看到奖励的梯度和网络的参数

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/928189
推荐阅读
相关标签