读书笔记: 博弈论导论 - 02 - 引入不确定性和时间
读书笔记: 博弈论导论 - 02 - 引入不确定性和时间
前言
本文是Game Theory An Introduction (by Steven Tadelis) 的学习笔记。
术语
- 概率分布函数(probability distribution function)
一个简单投机(lottery)(行动\(a \in A\))在结果 $ X = { x_1, x_2, \cdots, x_n }$上的概率分布记做
\[p = (p(x_1|a), p(x_2|a), \cdots, p(x_n|a)), \\
where \\
p(x_k|a) \geq 0 \text{: the probability that } x_k \text{ occurs when take action a} \\
\sum_{k=1}^n p(x_k|a) = 1
$$。
- 累积分布函数(cumulative distribution function)
一个简单投机(lottery)行动$a \in A$,在结果区间$X = [\underline{x}, \overline{x}]$上的累积分布函数:
\]
F : X \to [0, 1] \
where \
f(\hat{x} | a) = Pr{x \leq \hat{x}} \text{: the probability that the outcome is less than or equal to } \hat{x}.
\[
- 期望收益(expected payoff from the lottery function)
一个简单投机(lottery)行动$a \in A$,在结果区间$X = [x_1, x_2, \cdots, x_n]$上的期望收益函数:
\]
E[u(x)|a] = \sum_{k=1}^n p_k u(x_k) \
where \
u(x) \text{: the payoff function} \
p = (p_1, p_2, \cdots, p_n) \text{: probability distribution}
\[
- 连续案例:期望收益(expected payoff from the lottery function)
一个简单投机(lottery)行动$a \in A$,在结果区间$X = [\underline{x}, \overline{x}]$上的期望收益函数:
\]
E[u(x) | a] = \int_{\underline{x}}^{\overline{x}} u(x)f(x)dx \
where \
u(x) \text{: the payoff function} \
f(x|a) \text{: the cumulative distribution function}
\[
- 经济人2
我们称一个人是理性的,如果这个人选择最大期望收益。
\]
\text{choose } a^* \in A \iff v(a^) = E[u(x)|a^] \geq E[u(x)|a^*] = v(a), a \in A
\[
## 考虑次序和时间
- 逆向归纳法(backward induction)
或者称为动态编程(dynamic programming)。
就是说在连续的随机案例下,从后向前,每个简单的投机,
都使用最大期望收益推算其投机行为,作为投机的计算行为,向前计算。
- 折扣合计期望(discounted sum of future payoffs)
\]
v(x_1, x_2, \cdots, x_n) = \sum_{t=1}^{T} \delta^{t-1} u(x_t) \
where \
T \text{: period} \
u(x) \text{: the payoff function of outcome x} \
\[
## 风险态度
- 中立风险 - risk neutral
认为同样期望回报的价值相同。
- 厌恶风险 - risk averse
倾向于一个确定性的回报,不愿意采用一个拥有同样期望回报的不确定性方案。
- 喜爱风险 - risk loving
更严格地倾向于采用拥有同样期望回报的赌注。
> 到现在,基本上就是强化学习。
## 参照
* Game Theory An Introduction (by Steven Tadelis)
- [读书笔记: 博弈论导论 - 01 - 单人决策问题](http://www.cnblogs.com/steven-yang/p/8075901.html)\]
非常感谢阅读!如有不足之处,请留下您的评价和问题。
请“推荐”本文!
请“推荐”本文!