数学 - 回归分析 - 第 4 章 违背基本假设的情况 - 4.2 一元加权最小二乘估计

4.2 一元加权最小二乘估计

4.2.1 一元加权最小二乘估计的形式

当我们研究的问题具有异方差性时,就违背了线性回归模型的基本假定——高斯-马尔科夫条件。此时,不能用普通最小二乘法进行参数估计,必须寻求另外的方法。

可以考虑对原来的模型进行变换,使得变换后的模型满足同方差性假设,然后再进行模型参数的估计。消除异方差性的方法通常有加权最小二乘法、BOX-COX 变换法、方差稳定性变换法等。加权最小二乘法是一种最常用的消除异方差性的方法。

对一元线性回归方程来说,普通最小二乘法的离差平方和为:

(4.2.1)Q(β0,β1)=i=1n(yiβ0β1xi)2

其中,每个观测值的权数相同。在等方差条件下,平方和中的每一项的地位都相同。然而,在异方差条件下,平方和中的每一项的地位是不同的,误差项方差 σi2 大的项,在式 (4.2.1) 平方和中的占比就偏大,因而普通最小二乘估计的回归线就被拉向方差大的项,而方差小的项的拟合程度就差。加权最小二乘法就是在平方和中加入一个适当的权数 wi,以调整各项在平方和中的作用。一元线性回归的加权最小二乘的离差平方和为:

(4.2.2)Qw(β0,β1)=i=1nwi(yiβ0β1xi)2

其中,wi 为给定的第 i 个观测值的权数。

加权最小二乘估计就是寻找参数 β0β1 的估计值 β0wβ1w 使得式 (4.2.2) 的离差平方和 Qw 达到极小。如果所有的权数相等,即 wi 都为某个常数,则该方法成为了普通最小二乘估计。可以得到回归参数的加权最小二乘估计为:

(4.2.3){β^0w=y¯wβ^1wx¯wβ^1w=i=1nwi(xix¯w)(yiy¯w)i=1nwi(xix¯w)2

式中,x¯wy¯w 分别为自变量 x 的加权平均和因变量 y 的加权平均。即

x¯w=wixiwi,y¯w=wiyiwi

4.2.2 权值确定

在使用加权最小二乘估计时,为了消除异方差性的影响,使式 (4.2.2) 中的各项地位相同,观测值的权数应该是观测值误差项方差的倒数。设 σi2 为第 i 个观测值误差项的方差,即有

wi=1σi2

实际问题研究中,误差项方差 σi2 通常是未知的。但是,当误差项方差随自变量水平以系统的形式变化时,我们可以利用这种关系。例如,已知误差项方差 σi2xi2 成比例,那么 σi2=kxi2,其中 k 为比例系数。权数 wi 为:

wi=1kxi2

比例系数 k 在参数估计中可以消去,所以可以直接使用权数

wi=1xi2

在研究中常会遇到一类特殊的权数,即误差项方差与自变量的幂函数 xm 成比例,m 为待定的未知参数。此时权函数为

(4.2.4)wi=1xim

利用一些统计软件可以方便地确定式 (4.2.4) 中幂指数 m 的最优权值,甚至可以自己设置一些适合具体问题的权函数。

posted on   Black_x  阅读(1129)  评论(0编辑  收藏  举报

编辑推荐:
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 25岁的心里话
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示