07_异方差

第7章 异方差

7.1 异方差的后果

定义 条件异方差

简称异方差,违背[[05_多元线性回归#^2b980b|球形扰动项]]假设的一种情况,即条件方差依赖于\(i\),而不是常数\(\sigma^2\)

条件异方差的后果:

  • OLS估计量依然是无偏的、一致的、渐近正态的
  • OLS估计量的方差\(Var(\hat\beta|X)\)的表达式不再是\(\sigma^2(X'X)^{-1}\)
    • 普通标准误的t检验、F检验失败
  • 高斯-马尔可夫定理不再成立,OLS不再是BLUE。
    • 异方差下,加权最小二乘法才是BLUE

7.2 异方差的例子

  • 消费函数
  • 企业规模
  • 组间异方差
  • 组平均数

7.3 异方差的检验

1.画残差图

最直观,不严格

  • 看残差 \(e_i\) 与拟合值 \(\hat y_i\) 的散点图
  • 看残差 \(e_i\) 与某个解释变量 \(x_{ik}\) 的散点图

2.BP检验

Breusch & Pagan (1979)

  1. 对于回归模型:\(y_i = \beta_1+\beta_2 x_{i2}+\cdots+\beta_K x_{iK}+\epsilon\)
    • 样本数据为iid,则有\(Var(\epsilon_i|X)=Var(\epsilon_i|\mathbf x_i)\)
  2. 原假设:\(H_0:Var(\epsilon_i | x_i) = \sigma^2\)
    • 可转化为:\(H_0:E(\epsilon_i^2 | x_i) = \sigma^2\)
    • 假设条件方差函数是线性函数:\(\epsilon_i^2=\delta_1+\delta_2x_{i2}+\cdots+\delta_K x_{iK}+\mu_i\)
    • 可转化为:\(H_0:\delta_2=\cdots=\delta_k=0\)
  3. 对于辅助回归:\(e_i^2 = \delta_1+\delta_2x_{i2}+\cdots+\delta_K x_{iK}+error_i\)
    • 显然拟合优度 \(R^2\) 越高,回归方程接越显著,则更可以拒绝原假设。
    • BP使用的是LM统计量进行的LM检验:$$LM = nR^2 \xrightarrow{d}\chi^2(K-1)$$

3.怀特检验

White(1980)

在辅助回归中加入了二次项和交叉项:

  • 优点:可检验任何形式的异方差
  • 缺点:如果解释变量较多的画,损失较多有效样本容量和自由度

7.4 异方差的处理

1.使用“OLS+稳健标准误”

只要样本容量足够大,此方法可行。

2.加权最小二乘法(WLS)

基本思想:通过变量转换,使变换后的模型满足球形扰动项的假定(同方差),然后进行OLS。

  1. 假设:\(Var(\epsilon_i|x_i) \equiv \sigma_i^2 = \sigma^2 v_i\),且异方差因子 \(v_i\) 已知。
  2. 回归函数同时乘于权重 \(1/\sqrt v_i\)
  3. 新扰动项:\(Var(\epsilon/\sqrt v_i) = \sigma^2\) 变成同方差

WLS的\(R^2\)失去意义。因为解释变量和被解释变量都变了

3.可行加权最小二乘法(Feasible WLS)

WLS虽然是BLUE,但前提是,必须确切的知道每个个体的方差。在实践中,这是不可能的,所以WLS不可行。

FWLS:解决方法是先通过样本数据估计出\(\lbrace \sigma_i^2 \rbrace_{i=1}^n\),然后再使用WLS。

步骤:

  • 为确保方差为正,辅助回归函数约定为:$$\ln e_i^2=\delta_1+\delta_2x_{i2}+\cdots+\delta_K x_{iK}+error_i$$
  • 进行OLS后,可得\(\ln \hat\sigma^2 \equiv \ln e_i^2\)
  • 计算:\(\hat\sigma_i^2 = exp(\ln \hat\sigma_i^2)\)
  • 权重:\(1/\hat\sigma_i^2\)
  • 再进行WLS

4.“OLS+稳健标准误”还是FWLS

"OLS+稳健标准误" 适用于大多数情况,
FWLS:在大样本中可能更有效

7.5 处理异方差的python命令及实例

[[Chapter_07.ipynb]]

statsmodel 的bptest和whitetest好像都是对所有解释变量做的检验,还没有找到对y或者单独某个解释变量进行检验的方法。

posted @ 2024-05-03 22:01  王大桃zzZ  阅读(162)  评论(0编辑  收藏  举报