Sum of squares
给定一个线性回归模型 yi = β0 + β1xi1 +…+ βpxi1 + εi
对应数据集(xi1, xi2,…, xip, yi), i=1,…,n,包含n个观察数据. β是系数,ε 是误差项
表示y的期望, 就是离差(deviation),注意不是方差(variance); 表示对yi预测的值.
The total sum of squares(TSS) = the explained sum of squares(ESS) + the residual sum of squares(RSS),对应于:
在普通最小二乘法(Ordinary Least Squares)中的应用
对β的估计:
The residual vector = ,则
用 表示向量,其每个元素都相等,为 y 的期望,则
让,则
当且仅当 (也即the sum of the residuals )时,TSS = ESS + RSS.
(由于,,
- 或
而X的第一列全是1,则第一个元素就是,并且等于0.
因此上面的条件成立,可使TSS = ESS + RSS)
Mean squared error(MSE)
posted on 2012-12-11 19:59 liangzh123 阅读(1257) 评论(0) 编辑 收藏 举报