Chapter 12 IP Weighting and Marginal Structural Model
目录
这一章介绍如何结合IP weighting 和 参数模型.
12.1 The causal question
12.2 Estimating IP weights via modeling
我们知道, IP weighting:
\[\frac{I(A_i=a)Y_i}{f(A_i|L)},
\]
相当于创建了一个伪集合, 即假设所有的人都进行了\(A=a\).
显然, 在这个伪集合中, \(A,L\)是相互独立的.
故我们有
\[\mathbb{E}_{ps}[Y|A=a]=\sum_l \mathbb{E} [Y|A=a,L=l] \mathrm{Pr}[L=l],
\]
当同时满足条件可交换性的时候, 我们就能够得到
\[\mathbb{E}_{ps}[Y|A=a] = \mathbb{E}[Y^a].
\]
所以我们只需要估计\(\hat{\mathbb{E}}_{ps} [Y|A=a]\)即可.
自然地, 我们可以假设其符合
\[\theta_0 + \theta_1 A
\]
的线性模型.
通过最小二乘法可以估计出上面的参数.
但是需要注意的是, 我们数据不是原始的数据, 而是在伪数据之上, 相当于每一个样本为
\[\frac{Y_i}{f(A_i|L)}.
\]
记\(W = 1 / f(A=1|L)\), 以及它的估计\(\hat{W}\)(因为\(f(A|L)\)我们也是不知道的, 我们同样可以用参数模型进行估计), 故
\[\hat{\mathbb{E}}_{ps}[Y|A=1] = \frac{1}{n}\sum_{A_i =1} \hat{W}_i Y_i.
\]
12.3 Stabilized IP weights
实际上, 我们不光可以设置\(W=1 / f(A|L)\), 实际上可以进一步为
\[\frac{p}{f(A|L)}
\]
只需要满足\(p\)与\(L\)无关即可.
书上说这种方式的选择会使得最后估计的置信区间更窄也就是跟robust.
12.4 Marginal structural models
\[\mathbb{E}[Y^a] = \beta_0 + \beta_1 a.
\]
注意到, 当满足条件可交换性的时候, 上面的推得的模型和这一节的是等价的.
12.5 Effect modification and marginal structural models
\[\mathbb{E}[Y^a|V] = \beta_0 + \beta_1 a + \beta_2 Va + \beta_3 V.
\]
这个时候, 我们可以通过\(SW^A (V) = \frac{f[A|V]}{f[A|V]}\)来估计.
12.6 Censoring and missing data
只需考虑\(Y^{a, c=0}\), 以及对应的\(W = W^A \times W^C\),
\[W^C = 1 / \mathrm{Pr} [C=0 | L, A].
\]
Fine Point
Setting a bad example
Checking positivity
Technical Point
Horvitz-Thomson estimators
我们常常会用
\[\hat{\mathbb{E}}[\frac{I(A=a)Y}{f(A|L)}]
\]
作为估计式子, 其等价于
\[\frac{\hat{\mathbb{E}}[\frac{I(A=a)Y}{f(A|L)}]}
{\hat{\mathbb{E}}[\frac{I(A=a)}{f(A|L)}]}.
\]
而且往往后者更稳定.
注: 在 stabilized IP weights中必须要用后者.
More on stabilized weights
\[SW^A = \frac{g(A)}{f[A|L]}.
\]
\[\frac{\hat{\mathbb{E}}[\frac{I(A=a)Y}{f(A|L)}g(A)]}
{\hat{\mathbb{E}}[\frac{I(A=a)}{f(A|L)}g(A)]}.
\]