Chapter 12 IP Weighting and Marginal Structural Model

Hern\(\'{a}\)n M. and Robins J. Causal Inference: What If.

这一章介绍如何结合IP weighting 和 参数模型.

12.1 The causal question

12.2 Estimating IP weights via modeling

我们知道, IP weighting:

\[\frac{I(A_i=a)Y_i}{f(A_i|L)}, \]

相当于创建了一个伪集合, 即假设所有的人都进行了\(A=a\).
显然, 在这个伪集合中, \(A,L\)是相互独立的.
故我们有

\[\mathbb{E}_{ps}[Y|A=a]=\sum_l \mathbb{E} [Y|A=a,L=l] \mathrm{Pr}[L=l], \]

当同时满足条件可交换性的时候, 我们就能够得到

\[\mathbb{E}_{ps}[Y|A=a] = \mathbb{E}[Y^a]. \]

所以我们只需要估计\(\hat{\mathbb{E}}_{ps} [Y|A=a]\)即可.
自然地, 我们可以假设其符合

\[\theta_0 + \theta_1 A \]

的线性模型.
通过最小二乘法可以估计出上面的参数.
但是需要注意的是, 我们数据不是原始的数据, 而是在伪数据之上, 相当于每一个样本为

\[\frac{Y_i}{f(A_i|L)}. \]

\(W = 1 / f(A=1|L)\), 以及它的估计\(\hat{W}\)(因为\(f(A|L)\)我们也是不知道的, 我们同样可以用参数模型进行估计), 故

\[\hat{\mathbb{E}}_{ps}[Y|A=1] = \frac{1}{n}\sum_{A_i =1} \hat{W}_i Y_i. \]

12.3 Stabilized IP weights

实际上, 我们不光可以设置\(W=1 / f(A|L)\), 实际上可以进一步为

\[\frac{p}{f(A|L)} \]

只需要满足\(p\)\(L\)无关即可.
书上说这种方式的选择会使得最后估计的置信区间更窄也就是跟robust.

12.4 Marginal structural models

\[\mathbb{E}[Y^a] = \beta_0 + \beta_1 a. \]

注意到, 当满足条件可交换性的时候, 上面的推得的模型和这一节的是等价的.

12.5 Effect modification and marginal structural models

\[\mathbb{E}[Y^a|V] = \beta_0 + \beta_1 a + \beta_2 Va + \beta_3 V. \]

这个时候, 我们可以通过\(SW^A (V) = \frac{f[A|V]}{f[A|V]}\)来估计.

12.6 Censoring and missing data

只需考虑\(Y^{a, c=0}\), 以及对应的\(W = W^A \times W^C\),

\[W^C = 1 / \mathrm{Pr} [C=0 | L, A]. \]

Fine Point

Setting a bad example

Checking positivity

Technical Point

Horvitz-Thomson estimators

我们常常会用

\[\hat{\mathbb{E}}[\frac{I(A=a)Y}{f(A|L)}] \]

作为估计式子, 其等价于

\[\frac{\hat{\mathbb{E}}[\frac{I(A=a)Y}{f(A|L)}]} {\hat{\mathbb{E}}[\frac{I(A=a)}{f(A|L)}]}. \]

而且往往后者更稳定.

注: 在 stabilized IP weights中必须要用后者.

More on stabilized weights

\[SW^A = \frac{g(A)}{f[A|L]}. \]

\[\frac{\hat{\mathbb{E}}[\frac{I(A=a)Y}{f(A|L)}g(A)]} {\hat{\mathbb{E}}[\frac{I(A=a)}{f(A|L)}g(A)]}. \]

posted @ 2021-03-11 10:36  馒头and花卷  阅读(143)  评论(0编辑  收藏  举报