Easy RL - 9.稀疏奖励

关键词

  • 设计奖励(reward shaping):当智能体与环境进行交互时,我们人为设计一些奖励,从而“指挥”智能体,告诉其采取哪一个动作是最优的。需要注意的是,这个奖励区别于环境的奖励。其可以提高我们估算Q函数时的准确性。
  • 内在好奇心模块(intrinsic curiosity module,ICM):其代表好奇心驱动这个技术中的增加新的奖励函数以后的奖励函数。
  • 课程学习(curriculum learning):一种广义的用在强化学习中训练智能体的方法,其在输入训练数据的时候,采取由易到难的顺序进行输入,也可以人为设计它的学习过程。这个方法在机器学习和强化学习中普遍使用。
  • 逆课程学习(reverse curriculum learning):相较于课程学习,逆课程学习为更广义的方法。其从最终最理想的状态 [我们称之为黄金状态(gold state)] 开始,依次去寻找距离黄金状态最近的状态作为想让智能体达到的阶段性的“理想”状态。当然,我们会在此过程中有意地去掉一些极端的状态,即太简单、太难的状态。综上,逆课程学习是从黄金状态反推的方法。
  • 分层强化学习(hierarchical reinforcement learning):将一个大型的任务,横向或者纵向地拆解成由多个智能体去执行的子任务。其中,有一些智能体负责比较高层次的任务,如负责定目标,定完目标后,再将目标分配给其他的智能体执行。

习题

9-1 解决稀疏奖励的方法有哪些?

设计奖励、好奇心驱动的奖励、课程学习、逆课程学习、分层强化学习等。

9-2 设计奖励存在什么主要问题?

主要的问题是我们人为设计的奖励需要领域知识,需要我们自己设计出让环境与智能体更好地交互的奖励,这需要不少的经验知识,并且需要我们根据实际的效果进行调整。

9-3 内在好奇心模块是什么?我们应该如何设计内在好奇心模块?

内在好奇心模块代表好奇心驱动技术中增加新的奖励函数以后的奖励函数。具体来说,其在更新计算时会考虑3个新的部分,分别是状态 s 1 s_1 s1、动作 a 1 a_1 a1 和状态 s 2 s_2 s2。根据 s 1 s_1 s1 a 1 a_1 a1 a 2 a_2 a2,它会输出另外一个新的奖励 r 1 i r_1^i r1i。所以在内在好奇心模块中,我们的总奖励并不是只有 r r r 而已,还有 r i r^i ri。它不是只把所有的 r r r 相加,还把所有 r i r^i ri 相加一并当作总奖励。所以,基于内在好奇心模块的智能体在与环境交互的时候,不是只希望 r r r 越大越好,还同时希望 r i r^i ri 越大越好,希望从内在好奇心模块里面得到的总奖励越大越好。

对于如何设计内在好奇心模块,其输入就像前面所说的一样,包括3部分,即现在的状态 s 1 s_1 s1、在这个状态采取的动作 a 1 a_1 a1、下一个状态 s t + 1 s_{t+1} st+1,对应的输出就是奖励 r 1 i r_1^i r1i。输入、输出的映射是通过网络构建的,其使用状态 s 1 s_1 s1 和动作 a 1 a_1 a1 去预测下一个状态 s ^ t + 1 \hat{s}_{t+1} s^t+1 ,然后继续评判预测的状态 s ^ t + 1 \hat{s}_{t+1} s^t+1 和真实状态 s t + 1 s_{t+1} st+1 的相似性,越不相似得到的奖励就越大。通俗来说这个奖励就是,如果未来的状态越难被预测,那么得到的奖励就越大。这就是好奇心机制,其倾向于让智能体做一些风险比较大的动作,从而提高其探索的能力。

同时,为了进一步增强网络的表达能力,我们通常将内在好奇心模块的输入优化为特征提取,特征提取器的输入就是状态,输出是一个特征向量,其可以表示这个状态最主要和最重要的特征,把没有意义的事物过滤。

猜你喜欢

转载自blog.csdn.net/wdnshadow/article/details/127884457
RL