数学 - 回归分析 - 第 6 章 多重共线性的情形及其处理 - 6.4 消除多重共线性的方法

6.4 消除多重共线性的方法

当通过某种检验发现解释变量中存在严重的多重共线性时,我们就要设法消除这种共线性的影响。消除多重共线性的方法很多,常用的有以下几种。

6.4.1 剔除一些不重要的解释变量

通常在实际问题的建模中,由于我们认识的局限性,容易考虑过多的自变量,当涉及的自变量较多时,大多数回归方程都受到多重共线性的影响。这时,最常用的办法是首先用第 5 章介绍的方法做自变量的选元,舍去一些自变量。

当回归方程中的全部自变量都通过显著性检验后,若回归方程中仍然存在严重的多重共线性,有几个变量的方差扩大因子大于 10,我们可把方差扩大因子最大者所对应的自变量首先剔除,再重新建立回归方程,如果仍然存在严重的多重共线性,则再继续剔除方差扩大因子最大者所对应的自变量,直到回归方程中不再存在严重的多重共线性为止。

有时根据所研究的问题的需要,也可以首先剔除方差扩大因子最大者所对应的自变量,依次剔除,直到消除多重共线性为止,然后再做自变量的选元。或者根据所研究的问题的实际意义,来决定保留或剔除自变量。

总之,在选择回归模型时,可以将回归系数的显著性检验、**方差扩大因子*以及自变量的经济含义结合起来考虑,以引进或剔除变量。

6.4.2 增大样本量

建立一个实际问题的回归模型,如果所采集的样本数据太少,也容易产生多重共线性。譬如,我们的问题涉及两个自变量 x1x2,假设 x1x2 都已经中心化。由式 (6.2.1) 可知

var(β^1)=σ2(1r122)L11,var(β^2)=σ2(1r122)L22

式中,r12x1x2 的相关系数。可以看到,在 r12 固定不变时,若样本量 n 增大,L11L22 都会增大,两个回归系数估计值的方差均可减小,从而减弱多重共线性对回归方程的影响。因此,增大样本量也是消除多重共线性的一个途径。

在实践中,当我们所选的变量个数接近样本量 n 时,自变量间就容易产生共线性。所以在应用回归分析研究经济问题时,要尽可能使样本量 n 远大于自变量个数 p

但有时,增大样本量的方法在实际问题中不现实。此外,增加了样本数据,也可能使新数据距离原来样本数据的平均值较大,会产生一些新的问题,使模型拟合较差。

6.4.3 回归系数的有偏估计

消除多重共线性对回归模型的影响是统计学家关注的热点课题之一,除以上方法被人们应用外,统计学家还致力于改进古典的最小二乘法,提出以采用有偏估计为代价来提高估计量稳定性的方法,如岭回归法、主成分法、偏最小二乘法等。

posted on   Black_x  阅读(1321)  评论(0编辑  收藏  举报

编辑推荐:
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 25岁的心里话
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示