concept
三个主要概念:状态State,行动action,奖励reward
两种强化学习的方法
1. Policy-Based(policy-gradient):
直接预测在某个环境下应该采取的action
适用范围: 更通用,action种类非常多或者又连续取值的action的环境
2. value-Based(Q-learning)
预测某个环境下所有action的期望值(Q 值), 选取Q值最高的action 执行策略。
适用范围: 只有少量离散取值的action的环境
Q-learning
一次action 更新一次Q表
算法更新
算完全部action后,走最好的action
SARSA
直接走了,管你那么多
sarsa比较胆小, 但是因为markov的 0.9,0.1 所以最后还是能走到黄点
ref 莫凡python,nthu deep learning course