《强化学习Sutton》读书笔记(二)——有限马尔科夫决策过程

此为《强化学习》第三章。

用户-环境接口

马尔科夫决策过程 (Markov Decision Process, MDP) 是建模在交互中学习的一种直观框架。学习者和决策者被称为用户 (Agent) ,其他和用户无关的但能和用户进行交互的部分被称为环境 (Environment) 。第 t 时刻,用户处于状态 S t ,得到奖励 R t ,在某个策略下选择了行为 A t ,从而进入下一个状态 S t + 1 ,得到下一个状态的奖励 R t + 1 ,如下图所示。

用户环境接口示意图

注意,有的时候环境并不会根据 ( S t , A t ) 提供一组固定的 ( S t + 1 , R t + 1 ) ,而是按概率分布随机选择一个,因此有

p ( s , r | s , a ) Pr { S t + 1 = s , R t + 1 = r | S t = s , A t = a }

概率显然满足

s S r R p ( s , r | s , a ) = 1 , ( s S , a A )

目标和奖励

在学习决策过程中,目标 (Goal) 是最大化累计奖励的期望值。

离散时刻下的回报

离散时刻 (Episodic) 下,我们可以把整个过程分解为一个个时刻。在 t 时刻,我们定义期望回报 (Expected Return) G t 为未来各个时刻(直到最终时刻 T )得到的奖励,即

G t R t + 1 + R t + 2 + . . . + R T

通常,我们认为较近时刻得到的奖励应赋予更大的权重,因此我们给每个时刻的奖励加上一个衰减比例 (Discount Rate) γ [ 0 , 1 ] ,即

G t R t + 1 + γ R t + 2 + γ 2 R t + 3 + . . . = k = 0 γ k R t + 1 + k

显然有

G t = R t + 1 + γ G t + 1

离散和连续任务下的统一记号语言

略。

策略与值函数

类似上一篇中的定义,策略 (Policy) π ( a | s ) 定义为状态 s 下选择行为 a 的概率,即

π ( a | s ) Pr { A t = a | S t = s }

在策略 π 状态 s 的值函数 (Value Function) 定义为以状态 s 为起点,然后遵循策略 p i ,得到的期望回报(由于策略和环境都可能是概率分布,因此为回报也是一个概率分布),即

v π ( s ) E π [ G t | S t = s ] = E π [ k = 0 γ k R t + 1 + k | S t = s ]

类似的,我们也可以定义在策略 π 状态 s 采取行为 a 的值函数 (Action-Value Function) ,即

q π ( s , a ) E π [ G t | S t = s , A t = a ] = E π [ k = 0 γ k R t + 1 + k | S t = s , A t = a ]

将值函数的期望展开,得到

v π ( s ) = E π [ R t + 1 + γ G t + 1 | S t = s ] = a π ( a | s ) s r p ( s , r | s , a ) [ r + γ E [ G t + 1 | S t + 1 = s ] ] = a π ( a | s ) s r p ( s , r | s , a ) [ r + γ v π ( s ) ]

此为值函数的贝尔曼等式 (Bellman Equation) 。类似的,对于行为值函数,有

q π ( s , a ) = s r p ( s , r | s , a ) [ r + γ a π ( a | s ) q π ( s , a ) ]

显然,状态值函数 v π ( s ) 和行为值函数 q π ( s , a ) 之间是紧密相联系的。对于状态值函数,有

v π ( s ) = E π [ G t | S t = s ] = a π ( a | s ) E π [ G t | S t = s , A t = a ] = a π ( a | s ) q π ( s , a )

对于行为值函数,有
q π ( s , a ) = E π [ G t | S t = s , A t = a ] = s r p ( s , r | s , a ) [ r + γ E π [ G t + 1 | S t + 1 = s ] ] = s r p ( s , r | s , a ) [ r + γ v π ( s ) ] = E π [ R t + 1 + γ v π ( S t + 1 ) | S t = s , A t = a ]

这一节中还提到了回溯图 (Backup Diagram) 的表示方法,它用空心圆表示状态和值函数,用实心圆表示行为和行为值函数,空心到实心的连线表示策略下选择各个行为的概率,实心到空心的连线表示环境中由上一状态和上一行为选择下一状态和奖励的概率。如下图所示。

回溯图-空心到实心
回溯图-实心到空心

可以用回溯图法表示出值函数和行为值函数的贝尔曼等式,如下图所示。

回溯图-值函数贝尔曼等式
回溯图-行为值函数贝尔曼等式

下一节中可以看到,在策略选择行为时,可以在空心到实心的张角中加一弧线,表示选择最大的期望回报作为下一步的行为。

最优策略与最优值函数

我们定义最优状态值函数 (Optimal State-Value Function) v ( s ) 为最优策略 π 下的状态值函数,最优策略即能使值函数取到最大值的策略,即

v ( s ) v π ( s ) max π v π ( s )

类似地,我们定义最优行为值函数 (Optimal Action-Value Function) q ( s , a ) 为最优策略下的行为值函数,即

q ( s , a ) q π ( s , a ) max π q π ( s , a )

这里需要注意最佳策略 π 和普通的策略 π 之间的区别。普通的策略 π 可以是一个概率分布,而最优策略则用了贪心算法,因此它的形式更加接近于 π ( s ) = a b e s t

最优状态值函数和最优行为值函数也满足贝尔曼等式。推导如下(参考上一节中两种值函数的互推):

v ( s ) = max π v π ( s ) = max π a π ( a | s ) q π ( s , a ) = max a q ( s , a ) = max a s r p ( s , r | s , a ) [ r + γ v ( s ) ] q ( s , a ) = max π q π ( s , a ) = s r p ( s , r | s , a ) [ r + γ v ( s ) ] = s r p ( s , r | s , a ) [ r + γ max a q ( s , a ) ]

最优状态值函数和最优行为值函数也可以用回溯图表示,如下图。

回溯图-最优贝尔曼等式

最优化与近似

略。

参考文献

《Reinforcement Learning: An Introduction (second edition)》Richard S. Sutton and Andrew G. Barto

猜你喜欢

转载自blog.csdn.net/yucong96/article/details/82347917