3.4 回归方程的显著性检验
我们事先并不能断定随机变量 y y 与变量 x 1 x 1 ,x 2 x 2 ,⋯ ⋯ ,x p x p 之间确有线性关系,在进行回归参数的估计之前,用多元线性回归方程去拟合这种关系,只是根据一些定性分析所做的一种线性假设 。在求出线性回归方程后,还需对回归方程进行显著性检验。
下面介绍两种统计检验方法:一种是回归方程显著性的 F F 检验;另一种是回归系数显著性的 t t 检验。同时介绍衡量回归拟合程度的拟合优度检验。
3.4.1 F F 检验
对多元线性回归方程的显著性检验要看自变量 x 1 x 1 ,x 2 x 2 ,⋯ ⋯ ,x p x p 从整体上对随机变量 y y 是否有明显的影响。为此提出原假设
H 0 : β 1 = β 2 = ⋯ = β p = 0 (3.4.1) (3.4.1) H 0 : β 1 = β 2 = ⋯ = β p = 0
如果 H 0 H 0 被接受,则表明随机变量 y y 与自变量 x 1 x 1 ,x 2 x 2 ,⋯ ⋯ ,x p x p 之间的关系由线性回归模型表示不合适。
类似于一元线性回归,为了建立对原假设进行检验的 F F 统计量,仍然利用总离差平方和的分解式,即
n ∑ i = 1 ( y i − ¯ ¯ ¯ y ) 2 = n ∑ i = 1 ( ^ y i − ¯ ¯ ¯ y ) 2 + n ∑ i = 1 ( y i − ^ y i ) 2 ∑ i = 1 n ( y i − y ¯ ) 2 = ∑ i = 1 n ( y ^ i − y ¯ ) 2 + ∑ i = 1 n ( y i − y ^ i ) 2
简写为:
SST = SSR + SSE (3.4.2) (3.4.2) SST = SSR + SSE
在多元线性回归的场合,我们对上式做进一步解释。
定理 3.4.1
证明: 考虑 SSE SSE ,有
SSE = e ′ e = [ ( I − H ) y ] ′ [ ( I − H ) y ] = y ′ ( I − H ) y SSE = e ′ e = [ ( I − H ) y ] ′ [ ( I − H ) y ] = y ′ ( I − H ) y
考虑 SSR SSR ,有
SSR = n ∑ i = 1 ( ^ y i − ¯ ¯ ¯ y ) 2 = ( ^ y − ¯ ¯ ¯ y 1 n ) ′ ( ^ y − ¯ ¯ ¯ y 1 n ) = ( H y − 1 n 1 n 1 ′ n y ) ′ ( H y − 1 n 1 n 1 ′ n y ) = y ′ ( H − 1 n 1 n 1 ′ n ) y SSR = ∑ i = 1 n ( y ^ i − y ¯ ) 2 = ( y ^ − y ¯ 1 n ) ′ ( y ^ − y ¯ 1 n ) = ( H y − 1 n 1 n 1 n ′ y ) ′ ( H y − 1 n 1 n 1 n ′ y ) = y ′ ( H − 1 n 1 n 1 n ′ ) y
证毕。
引理 3.4.1
设 y ∼ N ( μ , σ 2 I n ) y ∼ N ( μ , σ 2 I n ) ,U = y ′ A y U = y ′ A y ,V = y ′ B y V = y ′ B y ,其中 A A ,B B 为 n × n n × n 的矩阵。
证明略。
利用上述引理可以得到下述重要的定理。
定理 3.4.2
随机向量 y ∼ N ( X β , σ 2 I n ) y ∼ N ( X β , σ 2 I n ) ,则有
证明: 证明第一点。由于 β 1 = β 2 = ⋯ = β p = 0 β 1 = β 2 = ⋯ = β p = 0 ,因此有
E ( y i ) = β 0 , E ( y ) = β 0 1 n E ( y i ) = β 0 , E ( y ) = β 0 1 n
令 A = H − 1 n 1 n 1 ′ n A = H − 1 n 1 n 1 n ′ ,可以验证
A 2 = ( H − 1 n 1 n 1 ′ n ) 2 = ( H 2 − H 1 n 1 n 1 ′ n − 1 n 1 n 1 ′ n H + 1 n 1 n 1 ′ n ) = A A 2 = ( H − 1 n 1 n 1 n ′ ) 2 = ( H 2 − H 1 n 1 n 1 n ′ − 1 n 1 n 1 n ′ H + 1 n 1 n 1 n ′ ) = A
因此可知 A A 是一个对称幂等矩阵,由引理 ( 3.4.1 ) ( 3.4.1 ) 得到自由度
r = rank ( A ) = tr ( A ) = p + 1 − 1 = p r = rank ( A ) = tr ( A ) = p + 1 − 1 = p
得到非中心参数
λ = 1 σ 2 ( β 0 1 n ) ′ ( H − 1 n 1 n 1 ′ n ) ( β 0 1 n ) = 0 λ = 1 σ 2 ( β 0 1 n ) ′ ( H − 1 n 1 n 1 n ′ ) ( β 0 1 n ) = 0
证明第二点。由于
SSE = y ′ ( I − H ) y SSE = y ′ ( I − H ) y
因此令 B = I − H B = I − H ,可知 B B 是一个对称幂等阵,由引理 ( 3.4.1 ) ( 3.4.1 ) 得到自由度
r = rank ( B ) = rank ( I − H ) = tr ( I − H ) = n − p − 1 r = rank ( B ) = rank ( I − H ) = tr ( I − H ) = n − p − 1
得到非中心参数
λ = 1 σ 2 ( X β ) ′ ( I − H ) ( X β ) = 0 λ = 1 σ 2 ( X β ) ′ ( I − H ) ( X β ) = 0
证毕。
构造 F F 检验统计量如下:
F = SSR / p SSE / ( n − p − 1 ) (3.4.3) (3.4.3) F = SSR / p SSE / ( n − p − 1 )
对构造的 F F 检验统计量,我们有
定理 3.4.3
在正态假设下,当原假设 H 0 : β 1 = β 2 = ⋯ = β p = 0 H 0 : β 1 = β 2 = ⋯ = β p = 0 成立时,F F 检验统计量服从自由度为 ( p , n − p − 1 ) ( p , n − p − 1 ) 的 F F 分布。
证明: 由定理 3.4.2 3.4.2 可知,在正态假设下,原假设 H 0 H 0 成立时有
SSR / σ 2 ∼ χ 2 ( p ) , SSE / σ 2 ∼ χ 2 ( n − p − 1 ) SSR / σ 2 ∼ χ 2 ( p ) , SSE / σ 2 ∼ χ 2 ( n − p − 1 )
由 F F 分布定义知
F ∼ F ( p , n − p − 1 ) F ∼ F ( p , n − p − 1 )
证毕。
我们可以利用 F F 统计量对回归方程的总体显著性进行检验。对于给定的数据,计算出 SSR SSR 和 SSE SSE ,进而得到 F F 值。我们可以得到类似一元线性回归场合的方差分析表。
方 差 来 源 自 由 度 平 方 和 均 方 F 值 P 值 回 归 p SSR SSR / p SSR / p SSE / ( n − p − 1 ) P ( F > F 值 ) = P 值 残 差 n − p − 1 SSE SSE / ( n − p − 1 ) 总 和 n − 1 SST 方 差 来 源 自 由 度 平 方 和 均 方 F 值 P 值 回 归 p SSR SSR / p SSR / p SSE / ( n − p − 1 ) P ( F > F 值 ) = P 值 残 差 n − p − 1 SSE SSE / ( n − p − 1 ) 总 和 n − 1 SST
给定显著性水平 α α ,得到临界值 F α ( p , n − p − 1 ) F α ( p , n − p − 1 ) 。
当 F > F α ( p , n − p − 1 ) F > F α ( p , n − p − 1 ) ,拒绝原假设 H 0 H 0 ,认为在显著性水平 α α 下,y y 与 x 1 x 1 ,x 2 x 2 ,⋯ ⋯ ,x p x p 存在显著的线性关系。
当 F ⩽ F α ( p , n − p − 1 ) F ⩽ F α ( p , n − p − 1 ) ,接受原假设 H 0 H 0 ,认为在显著性水平 α α 下,y y 与 x 1 x 1 ,x 2 x 2 ,⋯ ⋯ ,x p x p 不存在显著的线性关系。
与一元线性回归一样,也可以根据 P P 值做检验,当 P P 值 < α < α 时,拒绝原假设 H 0 H 0 ;当 P P 值 ⩾ α ⩾ α 时,接受原假设 H 0 H 0 。
3.4.2 t t 检验
在多元线性回归中,回归方程显著并不意味着每个自变量对 y y 的影响都显著,我们想从回归方程中剔除那些次要的、可有可无的变量,重新建立更为简单的回归方程(降低模型复杂度,防止过拟合),所以需要对每个自变量进行显著性检验。
显然,如果某个自变量 x j x j 对 y y 的作用不显著,那么在回归模型中,它的系数 β j β j 就取值为 0 0 。因此检验变量 x j x j 是否显著,等价于检验假设
H 0 j : β j = 0 , j = 1 , 2 , ⋯ , p (3.4.4) (3.4.4) H 0 j : β j = 0 , j = 1 , 2 , ⋯ , p
如果接受原假设 H 0 j H 0 j ,则 x j x j 不显著;如果拒绝原假设 H 0 j H 0 j ,则 x j x j 是显著的。
由 3.3.6 3.3.6 的正态性得到
^ β ∼ N ( β , σ 2 ( X ′ X ) − 1 ) β ^ ∼ N ( β , σ 2 ( X ′ X ) − 1 )
令 ( X ′ X ) − 1 = ( c i j ) ( X ′ X ) − 1 = ( c i j ) ,于是有
E ( ^ β j ) = β j , var ( ^ β j ) = c j j σ 2 E ( β ^ j ) = β j , var ( β ^ j ) = c j j σ 2
^ β j ∼ N ( β j , c j j σ 2 ) , j = 0 , 1 , ⋯ , p (3.4.5) (3.4.5) β ^ j ∼ N ( β j , c j j σ 2 ) , j = 0 , 1 , ⋯ , p
由此构成 t t 统计量
t j = ^ β j √ c j j ^ σ (3.4.6) (3.4.6) t j = β ^ j c j j σ ^
其中 ^ σ σ ^ 是回归标准差:
^ σ =
⎷ 1 n − p − 1 n ∑ i = 1 e 2 i =
⎷ 1 n − p − 1 n ∑ i = 1 ( y i − ^ y i ) 2 (3.4.7) (3.4.7) σ ^ = 1 n − p − 1 ∑ i = 1 n e i 2 = 1 n − p − 1 ∑ i = 1 n ( y i − y ^ i ) 2
对构造的 t t 检验统计量,我们有
定理 3.4.4
在正态假设下,当原假设 H 0 j : β j = 0 H 0 j : β j = 0 成立时,t j t j 检验统计量服从自由度为 n − p − 1 n − p − 1 的 t t 分布。
证明: 在正态假设下,当原假设 H 0 j : β j = 0 H 0 j : β j = 0 成立时,有
U = ^ β j √ c j j σ ∼ N ( 0 , 1 ) U = β ^ j c j j σ ∼ N ( 0 , 1 )
由定理 3.4.2 3.4.2 可得
V = ( n − p − 1 ) ^ σ 2 σ 2 ∼ χ 2 ( n − p − 1 ) V = ( n − p − 1 ) σ ^ 2 σ 2 ∼ χ 2 ( n − p − 1 )
则有
t j = ^ β j √ c j j ^ σ = ^ β j √ c j j σ σ ^ σ = U ^ σ σ = U √ V / ( n − p − 1 ) ∼ t ( n − p − 1 ) t j = β ^ j c j j σ ^ = β ^ j c j j σ σ σ ^ = U σ ^ σ = U V / ( n − p − 1 ) ∼ t ( n − p − 1 )
证毕。
给定显著性水平 α α ,查出双侧检验的临界值 t α / 2 t α / 2 。
当 | t j | ⩾ t α / 2 | t j | ⩾ t α / 2 ,拒绝原假设 H 0 j H 0 j ,认为 β j β j 显著不为 0 0 ,自变量 x j x j 对因变量 y y 的线性效果显著。
当 | t j | < t α / 2 | t j | < t α / 2 ,接受原假设 H 0 j H 0 j ,认为 β j β j 显著为 0 0 ,自变量 x j x j 对因变量 y y 的线性效果不显著。
在教材上给出一个关于城镇消费性支出的例子,由 F F 检验可以知道回归方程整体是显著的,即 9 9 个自变量作为一个整体对因变量 y y 有十分显著的影响,但软件计算发现,关于 β j β j 的 t t 统计量 t j t j ,在显著性水平 α = 0.05 α = 0.05 时只有 x 1 x 1 ,x 2 x 2 ,x 3 x 3 ,x 5 x 5 通过了显著性检验。这个例子说明,尽管回归方程高度显著,但也会出现某些自变量 x j x j 对 y y 无显著影响的情况。
多元回归中,并不是包含在回归方程中的自变量越多越好(之后有详细讨论)。在此介绍一种简单的剔除多余变量的方法——后退法 。
当有多个自变量对因变量 y y 无显著影响时,由于自变量之间的交互作用,不能一次剔除掉所有不显著的变量。原则上每次只剔除一个变量,且先剔除其中 | t | | t | 值最小(或 | P | | P | 值最大)的一个变量,然后再对求得的新的回归方程进行检验,有不显著的变量再从中选出最不显著的进行剔除,直到保留的变量都对 y y 有显著影响为止。
使用后退法时,由于各个自变量的单位不同,注意标准化数据 。
3.4.3 t t 检验与 F F 检验的关系:偏 F F 检验
在一元线性回归中,回归系数显著性的 t t 检验与回归方程显著性的 F F 检验是等价的,但在多元线性回归中,这两种检验并不等价。F F 检验显著,只能说明 y y 对自变量 x 1 x 1 ,x 2 x 2 ,⋯ ⋯ ,x p x p 整体的线性回归效果是显著的,不能说明 y y 对每个自变量 x i x i 的回归效果都显著。
从另一个角度考虑自变量 x j x j 的显著性。
y y 对自变量 x 1 x 1 ,x 2 x 2 ,⋯ ⋯ ,x p x p 线性回归的残差平方和为 SSE SSE ,回归平方和为 SSR SSR 。在剔除掉 x j x j 后,用 y y 对其余的 p − 1 p − 1 个自变量做回归,记所得的残差平方和为 SSE ( j ) SSE ( j ) ,回归平方和为 SSR ( j ) SSR ( j ) ,则自变量 x j x j 对回归的贡献为
Δ SSR ( j ) = SSR − SSR ( j ) (3.4.8) (3.4.8) Δ SSR ( j ) = SSR − SSR ( j )
称上式为 x j x j 的偏回归平方和 。由此构造偏 F F 检验统计量
F j = Δ SSR ( j ) / 1 SSE / ( n − p − 1 ) (3.4.9) (3.4.9) F j = Δ SSR ( j ) / 1 SSE / ( n − p − 1 )
定理 3.4.5
在正态假设下,当原假设 H 0 j : β j = 0 H 0 j : β j = 0 成立时,偏 F F 检验统计量 F j F j 服从自由度为 ( 1 , n − p − 1 ) ( 1 , n − p − 1 ) 的 F F 分布。
证明: 由定理 3.4.1 3.4.1 ,我们有
Δ SSR ( j ) = SSR − SSR ( j ) = y ′ ( H − 1 n 1 1 ′ ) y − y ′ ( H ∗ − 1 n 1 1 ′ ) y = y ′ ( H − H ∗ ) y = y ′ ( [ X 1 x j X 2 ] ( [ X 1 x j X 2 ] ′ [ X 1 x j X 2 ] ) − 1 [ X 1 x j X 2 ] ′ y = ^ β 2 j / c j j Δ SSR ( j ) = SSR − SSR ( j ) = y ′ ( H − 1 n 1 1 ′ ) y − y ′ ( H ∗ − 1 n 1 1 ′ ) y = y ′ ( H − H ∗ ) y = y ′ ( [ X 1 x j X 2 ] ( [ X 1 x j X 2 ] ′ [ X 1 x j X 2 ] ) − 1 [ X 1 x j X 2 ] ′ y = β ^ j 2 / c j j
在正态假设下,当原假设 H 0 H 0 成立时,由式 ( 3.4.5 ) ( 3.4.5 )
Δ SSR ( j ) σ 2 = ^ β 2 j c j j σ 2 = ( ^ β j √ c j j σ ) 2 ∼ χ 2 ( 1 ) Δ SSR ( j ) σ 2 = β ^ j 2 c j j σ 2 = ( β ^ j c j j σ ) 2 ∼ χ 2 ( 1 )
证毕。
可以证明上式给出的偏 F F 检验与 t t 检验是一致的,具体有下述定理
定理 3.4.6
对式 ( 3.4.9 ) ( 3.4.9 ) 的偏 F F 检验统计量和式 ( 3.4.6 ) ( 3.4.6 ) 的 t t 检验统计量有关系式
F j = t 2 j F j = t j 2
证明: 有
t 2 j = ^ β 2 j / c j j ^ σ 2 = SSR − SSR ( j ) SSE / ( n − p − 1 ) = Δ SSR ( j ) / 1 SSE / ( n − p − 1 ) = F j (3.4.10) (3.4.10) t j 2 = β ^ j 2 / c j j σ ^ 2 = SSR − SSR ( j ) SSE / ( n − p − 1 ) = Δ SSR ( j ) / 1 SSE / ( n − p − 1 ) = F j
证毕。
当从回归方程中剔除变元时,回归平方和减少,残差平方和增加。反之,往回归方程中引入变元,回归平方和增加,残差平方和减少,且两者的增减量相等。具体地,根据平方和分解式可得下式关系
Δ SSR ( j ) = Δ SSE ( j ) = SSE ( j ) − SSE Δ SSR ( j ) = Δ SSE ( j ) = SSE ( j ) − SSE
3.4.4 拟合优度
拟合优度用于检验回归方程对样本观测值的拟合程度 。在一元线性回归中,定义了样本决定系数 r 2 = SSR / SST r 2 = SSR / SST ,在多元线性回归中,同样可以定义样本决定系数 为:
R 2 = SSR SST = 1 − SSE SST (3.4.11) (3.4.11) R 2 = SSR SST = 1 − SSE SST
样本决定系数 R 2 R 2 的取值在 [ 0 , 1 ] [ 0 , 1 ] 区间内,R 2 R 2 越接近 1 1 ,表明回归拟合的效果越好;R 2 R 2 越接近 0 0 ,表明回归拟合的效果越差。与 F F 检验相比,R 2 R 2 可以更清楚直观地反映回归拟合的效果,但是并不能作为严格的显著性检验。
R = √ R 2 = √ SSR SST (3.4.14) (3.4.14) R = R 2 = SSR SST
称上式给出的 R R 为 y y 关于 x 1 x 1 ,x 2 x 2 ,⋯ ⋯ ,x p x p 的样本复相关系数。在两个变量的简单相关系数中,相关系数有正负之分,而复相关系数表示的是因变量 y y 与全体自变量之间的线性关系,它的符号不能由某一个自变量的回归系数的符号确定,因而都取正号。。。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!