赞
踩
MDP即Markov Decision Process,马尔可夫决策过程。MDP是强化学习问题的数学化形式,可以说这节开始将接触强化学习的理论部分。
有几个概念需先明确。首先是智能体。智能体(agent)表示能进行学习以及实施决策的机器。智能体之外所有与其相互作用的事物都被称作环境(environment)。智能体在环境中,与环境相互交互,在环境的某一时刻的状态(state)中选择动作(action),环境对动作做出相应的反馈,并在下一时刻转变至新的状态,同时产生一个奖励(reward) 返回给智能体。这就是智能体-环境的一个交互过程。如下图。
强化学习考虑的就是智能体与环境之间的交互学习,智能体的学习目标就是环境所返回的奖励,而RL任务就是最大化奖励的累积和的期望。是一种无监督下进行主动学习的方法。奖励也是评估动作选择的基础。
MDP是强化学习的基础,是RL的理论框架。在MDP中,我们考虑状态 S S S、动作 A A A,奖励 R R R。具体来说,智能体在时刻 t t t 观察到所处环境状态的某种特征表达 s t s_t st,接着选择动作 a t a_t at,下一时刻收到动作 a t a_t at 的结果即奖励 r t + 1 r_{t+1} rt+1,同时进入下一状态 s t + 1 s_{t+1} st+1。而当MDP中的状态、动作、奖励集合 ( S 、 A 、 R ) (S、A、R) (S、A、R) 都只有有限个元素,这样的MDP也称为有限MDP。形式化的序列如下:
( s 0 , a 0 , r 0 , . . . , s t , a t , r t , . . . ) (s_0,a_0,r_0,...,s_t,a_t,r_t,...) (s0,a0,r0,...,st,at,rt,...)
四参数表达式
p ( s ′ , r ∣ s , a ) = P ( S t = s ′ , R t = r ∣ S t − 1 = s , A t − 1 = a ) p(s',r|s,a)=P(S_{t}=s',R_{t}=r|S_{t-1}=s,A_{t-1}=a) p(s′,r∣s,a)=P(St=s′,Rt=r∣St−1=s,At−1=a)
下面是一个小结:
Process ( s 0 , s 1 , s 2 , . . . , s t , . . . ) with P ( s t ∣ s t − 1 , . . . , s 0 ) Markov Process ( s 0 , s 1 , s 2 , . . . , s t , . . . ) with P ( s t ∣ s t − 1 , . . . , s 0 ) = P ( s t ∣ s t − 1 ) Markov Process ( s 0 , r 0 , s 1 , r 1 , s 2 , r 2 , . . . , s t , r t , . . . ) with P ( s t ∣ s t − 1 , . . . , s 0 ) = P ( s t ∣ s t − 1 ) Markov Decision Process ( s 0 , a 0 , r 0 , s 1 , a 1 , r 1 , . . . , s t , a t , r t , . . . ) with P ( s t ∣ s t − 1 , . . . , a 0 , , s 0 ) = P ( s t ∣ s t − 1 , a t − 1 )
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。