强化学习读书笔记 - 00 - 术语和数学符号
强化学习读书笔记 - 00 - 术语和数学符号
学习笔记:
Reinforcement Learning: An Introduction, Richard S. Sutton and Andrew G. Barto c 2014, 2015, 2016
基本概念
Agent - 本体。学习者、决策者。
Environment - 环境。本体外部的一切。
\(s\) - 状态(state)。一个表示环境的数据。
\(S, \mathcal{S}\) - 所有状态集合。环境中所有的可能状态。
\(a\) - 行动(action)。本体可以做的动作。
\(A, \mathcal{A}\) - 所有行动集合。本体可以做的所有动作。
\(A(s), \mathcal{A}(s)\) - 状态\(s\)的行动集合。本体在状态\(s\)下,可以做的所有动作。
\(r\) - 奖赏(reward)。本体在一个行动后,获得的奖赏。
\(\mathcal{R}\) - 所有奖赏集合。本体可以获得的所有奖赏。
\(S_t\) - 第t步的状态(state)。\(t\) from 0
\(A_t\) - 第t步的行动(select action)。\(t\) from 0
\(R_t\) - 第t步的奖赏(reward)。\(t\) from 1
\(G_t\) - 第t步的长期回报(return)。\(t\) from 0。 强化学习的目标1:追求最大回报
可以看出,当\(\gamma=0\)时,只考虑当前的奖赏。当\(\gamma=1\)时,未来的奖赏没有损失。
\(G_t^{(n)}\) - 第t步的n步回报(n-step return)。。一个回报的近似算法。
\(G_t^{\lambda}\) - 第t步的\(\lambda\)回报(\(\lambda\)-return)。一个回报的近似算法。可以说是\(G_t^{(n)}\)的优化。
策略
\(\pi\) - 策略(policy)。强化学习的目标2:找到最优策略。
策略规定了状态\(s\)时,应该选择的行动\(a\)。
\(\pi(s)\) - 策略\(\pi\)在状态\(s\)下,选择的行动。
\(\pi_*\) - 最优策略(optimal policy)。
\(\pi(a | s)\) - 随机策略\(\pi\)在状态\(s\)下,选择的行动\(a\)的概率。
\(r(s, a)\) - 在状态\(s\)下,选择行动\(a\)的奖赏。
\(r(s, a, s')\) - 在状态\(s\)下,选择行动\(a\),变成(状态\(s‘\))的奖赏。
\(p(s′, r | s, a)\) - (状态\(s\)、行动\(a\))的前提下,变成(状态\(s‘\)、奖赏\(r\))的概率。
\(p(s′ | s, a)\) - (状态\(s\)、行动\(a\))的前提下,变成(状态\(s‘\))的概率。
\(v_{\pi}(s)\) - 状态价值。使用策略\(\pi\),(状态\(s\)的)长期奖赏\(G_t\)。
\(q_{\pi}(s, a)\) - 行动价值。使用策略\(\pi\),(状态\(s\),行动\(a\)的)长期奖赏\(G_t\)。
\(v_{*}(s)\) - 最佳状态价值。
\(q_{*}(s, a)\) - 最佳行动价值。
\(V(s)\) - \(v_{\pi}(s)\)的集合。
\(Q(s, a)\) - \(q_{\pi}(s, a)\)的集合。
由上面的公式可以看出:\(\pi(s)\)可以由\(v_{\pi}(s)\)或者\(q_{\pi}(s,a)\)决定。
强化学习的目标3:找到最优价值函数\(v_*(s)\)或者\(q_*(s,a)\)。
近似计算
强化学习的目标4:找到最优近似价值函数\(\hat{v}(S_t, \theta_t)\)或者\(\hat{q}(S_t, A_t, \theta_t)\)。
强化学习的目标5:找到求解\(\theta\)。
\(\rho_t^k\) - importance sampling ratio for time t to time k - 1。
\(\mathcal{J}(s)\) - 状态\(s\)被访问的步骤序号。
\(\theta\) - 近似价值函数的权重向量。
\(\phi(s)\) - 近似价值函数的特征函数。是一个将状态\(s\)转化成计算向量的方法。这个结果和\(\theta\)组成近似价值函数。
\(\hat{v}(S_t, \theta_t)\) - 近似状态价值函数。
\(\hat{q}(S_t, A_t, \theta_t)\) - 近似行动价值函数。
\(e_t\) - 第t步资格迹向量(eligibility trace rate)。可以理解为近似价值函数微分的优化值。
\(\alpha\) - 学习步长。\(\alpha \in (0, 1)\)
\(\gamma\) - 未来回报的折扣率(discount rate)。\(\gamma \in [0, 1]\)
\(\lambda\) - \(\lambda\)-return中的比例参数。\(\lambda \in [0, 1]\)
h(horizon)- 水平线h表示on-line当时可以模拟的数据步骤。\(t < h \le T\)
老O虎O机问题
\(q_*(a)\) - 行动 a 的真实奖赏(true value)。这个是(实际中)不可知的。期望计算的结果收敛(converge)与它。
\(N_t(a)\) - 在第t步之前,行动a被选择的次数。
\(Q_t(a)\) - 行动 a 在第t步前(不包括第t步)的实际平均奖赏。
\(H_t(a)\) - 对于行动a的学习到的倾向(reference)。
\(\epsilon\) - 在ε-贪婪策略中,采用随机行动的概率\([0, 1)\)。
通用数学符号
\(\doteq\) - 定义上的等价关系。
\(\mathbb{E}[X]\) - \(X\)的期望值。
\(Pr\{X = x\}\) - 变量\(X\)值为\(x\)的概率。
\(v \mapsto g\) - v渐近g。
\(v \approx g\) - v约等于g。
\(\mathbb{R}\) - 实数集合。
\(\mathbb{R}^n\) - n个元素的实数向量。
\(\underset{a \in \mathcal{A}}{max} \ F(a)\) - 在所有的行动中,求最大值\(F(a)\)。
\(\underset{c}{argmax} \ F(c)\) - 求当F(c)为最大值时,参数\(c\)的值。
术语
episodic tasks - 情节性任务。指(强化学习的问题)会在有限步骤下结束。
continuing tasks - 连续性任务。指(强化学习的问题)有无限步骤。
episode - 情节。指从起始状态(或者当前状态)到结束的所有步骤。
tabular method - 列表方法。指使用了数组或者表格存储每个状态(或者状态-行动)的信息(比如:其价值)。
planning method - 计划性方法。需要一个模型,在模型里,可以获得状态价值。比如: 动态规划。
learning method - 学习性方法。不需要模型,通过模拟(或者体验),来计算状态价值。比如:蒙特卡洛方法,时序差分方法。
on-policy method - on-policy方法。评估的策略和优化的策略是同一个。
off-policy method - off-policy方法。评估的策略和优化的策略不是同一个。意味着优化策略使用来自外部的样本数据。
target policy - 目标策略。off-policy方法中需要优化的策略。
behavior policy - 行为策略\(\mu\)。off-policy方法中提供样本数据的策略。
importance sampling - 行为策略\(\mu\)的样本数据。
importance sampling rate - 由于目标策略\(\pi\)和行为策略\(\mu\)不同,导致样本数据在使用上的加权值。
ordinary importance sampling - 无偏见的计算策略价值的方法。
weighted importance sampling - 有偏见的计算策略价值的方法。
MSE(mean square error) - 平均平方误差。
MDP(markov decision process) - 马尔科夫决策过程
The forward view - We decide how to update each state by looking forward to future rewards and states.
例如:
The backward or mechanistic view - Each update depends on the current TD error combined with eligibility traces of past events.
例如:
参照
请“推荐”本文!