数学 - 回归分析 - 第 7 章 岭回归 - 7.1 岭回归估计的定义

7.1 岭回归估计的定义

当设计矩阵 X 呈病态时,X 的列向量之间有较强的线性相关性,即解释变量间存在严重的多重共线性。在这种情况下,用普通最小二乘法估计模型参数,往往参数估计方差太大,使普通最小二乘法的效果变得很不理想。为解决这个问题,统计学家从模型和数据的角度考虑,采用回归诊断和自变量选择来克服多重共线性的影响。此外,人们还对普通最小二乘估计提出了种种改进方法。

7.1.1 普通最小二乘估计带来的问题

多元线性回归模型的矩阵形式为 y=Xβ+ε,参数 β 的普通最小二乘估计为 β^=(XX)1Xy。在第 6 章多重共线性部分有提到,当自变量 xj 与其余变量间存在多重共线性时,var(β^j)=cjjσ2/Ljj 很大,β^j 就很不稳定。

7.1.2 岭回归的定义

针对出现多重共线性时,普通最小二乘估计效果明显变差的问题,提出了一种改进最小二乘估计的方法,叫岭回归

岭回归的想法很自然。当自变量间存在多重共线性时,|XX|0,我们设想给 XX 加上一个正常数矩阵 kI(k>0),那么 XX+kI 接近奇异的程度就会比 XX 接近奇异的程度小得多。考虑到量纲问题,先将数据标准化,为了计算方便,标准化后的设计矩阵仍然用 X 表示,定义为:

(7.1.1)β^(k)=(XX+kI)1Xy

我们称式 (7.1.1)β 的岭回归估计,其中,k 称为岭参数。由于假设 X 已经标准化,所以 XX 就是自变量样本相关阵。式 (7.1.1)y 可以标准化,也可以不标准化。如果 y 也经过标准化,那么式 (7.1.1) 计算的实际是标准化岭回归估计。β^(k) 作为 β 的估计应比最小二乘估计 β^ 稳定,当 k=0 时的岭回归估计 β^(0) 就是普通最小二乘估计。

因为岭参数 k 不是唯一确定的,所以得到的岭回归估计 β^(k) 实际是回归参数 β 的一个估计族。

posted on   Black_x  阅读(771)  评论(0编辑  收藏  举报

编辑推荐:
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 25岁的心里话
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示