连接

简单的10大统计技术:线性回归、分类、无监督学习...

 

 

 

原文链接

1. 线性回归

在统计学中,线性回归通过拟合因变量和自变量之间的最佳线性关系来预测目标变量。最佳拟合通过尽量缩小预测的线性表达式和实际观察结果间的距离总和来实现。没有其他位置比该形状生成的错误更少,从这个角度来看,该形状的拟合是"最佳"。线性回归的两个主要类型是简单线性回归和多元线性回归。

  • 简单线性回归使用一个自变量通过拟合最佳线性关系来预测因变量的变化情况。

  • 多元线性回归使用多个自变量通过拟合最佳线性关系来预测因变量的变化趋势。

任意选择两个日常使用且相关的物体。比如,我有过去三年月支出、月收入和每月旅行次数的数据。现在我需要回答以下问题:

  • 我下一年月支出是多少?

  • 哪个因素(月收入或每月旅行次数)在决定月支出方面更重要?

  • 月收入和每月旅行次数与月支出之间是什么关系?

2. 分类

分类是一种数据挖掘技术,为数据分配类别以帮助进行更准确的预测和分析。分类是一种高效分析大型数据集的方法。

两种主要的分类技术是:logistic 回归和判别分析(Discriminant Analysis)

logistic 回归是适合在因变量为二元类别的回归分析。和所有回归分析一样,logistic 回归是一种预测性分析。logistic 回归用于描述数据,并解释二元因变量和一或多个描述事物特征的自变量之间的关系。logistic 回归可以检测的问题类型如下:

  • 体重每超出标准体重一磅或每天每抽一包烟对得肺癌概率(是或否)的影响。

  • 卡路里摄入、脂肪摄入和年龄对心脏病是否有影响(是或否)?

                        

在判别分析中,两个或多个集合和簇等可作为先验类别,然后根据度量的特征把一个或多个新的观察结果分类成已知的类别。判别分析对每个对应类中的预测器分布 X 分别进行建模,然后使用贝叶斯定理将其转换成根据 X 的值评估对应类别的概率。此类模型可以是线性判别分析(Linear Discriminant Analysis),也可以是二次判别分析(Quadratic Discriminant Analysis)。

 

  • 线性判别分析(LDA):为每个观察结果计算“判别值”来对它所处的响应变量类进行分类。这些分值可以通过找到自变量的线性连接来获得。它假设每个类别的观察结果都从多变量高斯分布中获取,预测器变量的协方差在响应变量 Y 的所有 k 级别中都很普遍。

  •  二次判别分析(QDA):提供另外一种方法。和 LDA 类似,QDA 假设 Y 每个类别的观察结果都从高斯分布中获取。但是,与 LDA 不同的是,QDA 假设每个类别具备自己的协方差矩阵。也就是说,预测器变量在 Y 的所有 k 级别中不是普遍的。

3. 重采样方法

重采样方法(Resampling)包括从原始数据样本中提取重复样本。这是一种统计推断的非参数方法。即,重采样不使用通用分布来逼近地计算概率 p 的值。重采样基于实际数据生成一个独特的采样分布。它使用经验性方法,而不是分析方法,来生成该采样分布。重采样基于数据所有可能结果的无偏样本获取无偏估计。为了理解重采样的概念,你应该先了解自助法(Bootstrapping)和交叉验证(Cross-Validation):

  • 自助法(Bootstrapping)适用于多种情况,如验证预测性模型的性能、集成方法、偏差估计和模型方差。它通过在原始数据中执行有放回取样而进行数据采样,使用"未被选中"的数据点作为测试样例。我们可以多次执行该操作,然后计算平均值作为模型性能的估计。
  • 交叉验证用于验证模型性能,通过将训练数据分成 k 部分来执行。我们将 k-1 部分作为训练集,"留出"的部分作为测试集。将该步骤重复 k 次,最后取 k 次分值的平均值作为性能估计。

通常对于线性模型而言,普通最小二乘法是拟合数据时主要的标准。下面 3 个方法可以提供更好的预测准确率和模型可解释性。

 

 4. 子集选择

该方法将挑选 p 个预测因子的一个子集,并且我们相信该子集和所需要解决的问题十分相关,然后我们就能使用该子集特征和最小二乘法拟合模型。

 

 

  • 最佳子集的选择:我们可以为 p 个预测因子的每个组合拟合单独的 OLS 回归,然后再考察各模型拟合的情况。该算法分为两个阶段:(1)拟合包含 k 个预测因子的所有模型,其中 k 为模型的最大长度;(2)使用交叉验证预测损失选择单个模型。使用验证或测试误差十分重要,且不能简单地使用训练误差评估模型的拟合情况,这因为 RSS 和 R^2 随变量的增加而单调递增。最好的方法就是通过测试集中最高的 R^2 和最低的 RSS 来交叉验证地选择模型。

  • 前向逐步地选择会考虑 p 个预测因子的一个较小子集。它从不含预测因子的模型开始,逐步地添加预测因子到模型中,直到所有预测因子都包含在模型。添加预测因子的顺序是根据不同变量对模型拟合性能提升的程度来确定的,我们会添加变量直到再没有预测因子能在交叉验证误差中提升模型。

  • 后向逐步选择先从模型中所有 p 预测器开始,然后迭代地移除用处最小的预测器,每次移除一个。

  • 混合法遵循前向逐步方法,但是在添加每个新变量之后,该方法可能还会移除对模型拟合无用的变量。

5. Shrinkage

这种方法涉及到使用所有 p 个预测因子进行建模,然而,估计预测因子重要性的系数将根据最小二乘误差向零收缩。这种收缩也称之为正则化,它旨在减少方差以防止模型的过拟合。由于我们使用不同的收缩方法,有一些变量的估计将归零。因此这种方法也能执行变量的选择,将变量收缩为零最常见的技术就是 Ridge 回归和 Lasso 回归

  • Ridge 回归非常类似于最小二乘法,只不过它通过最小化一个稍微不同的数值来估计系数。Ridge 回归和 OLS 一样寻求减少 RSS 的系数估计。然而当系数收缩逼近零值时,它们都会对这种收缩进行惩罚。我们不需要数学分析就能看出 Ridge 回归很擅长于将特征收缩到最小的可能空间中。如主成分分析,Ridge 回归将数据投影到低维空间,并在系数空间内收缩较低方差的成分而保留有较高方差的成分。
  • Ridge 回归至少有一个缺点,它需要包含最终模型所有 p 个预测因子,这主要是因为罚项将会令很多预测因子的系数逼近零,但又一定不会等于零。这对于预测准确度来说通常并不是什么问题,但却令模型的结果更难以解释。Lasso 就克服了这一缺点,因为它在 s 足够小的时候能迫使一些预测因子的系数归零。因为 s = 1 将导致正规的 OLS 回归,而当 s 逼近 0 时,系数将收缩到零。因此 Lasso 回归同样是执行变量选择的一个好方法。

6. 降维

降维算法将 p+1 个系数的问题简化为 M+1 个系数的问题,其中 M<p。算法执行包括计算变量的 M 个不同线性组合或投射(projection)。然后这 M 个投射作为预测器通过最小二乘法拟合一个线性回归模型。两个主要的方法是主成分回归(principal component regression)和偏最小二乘法(partial least squares)

  • 主成分回归(PCR)可以看成一种从大型变量集合中导出低维特征集合的方法。数据中的第一主成分(first principal component)是指观察数据沿着这个变量方向的变化最大。换言之,第一主成分是最接近拟合数据的线,总共可以用 p 个不同的主成分拟合。第二主成分是和第一主成分不相关的变量的线性组合,且在该约束下有最大的方差。其主要思想是主成分能在各个互相垂直的方向使用数据的线性组合捕捉到最大的方差。使用这种方法,我们还能结合相关变量的效应从数据中获取更多的信息,毕竟在常规的最小二乘法中需要舍弃其中一个相关变量。
  • 上面描述的 PCR 方法需要提取 X 的线性组合,以获得预测器的最优表征。由于 X 的输出 Y 不能用于帮助决定主成分方向,这些组合(方向)使用无监督方法提取。即,Y 不能监督主成分的提取,从而无法保证这些方向是预测器的最优表征,也无法保证能获得最优预测输出(虽然通常假定如此)。偏最小二乘法(PLS)是一种监督方法,作为 PCR 的代替方法。和 PCR 类似,PLS 也是一种降维方法,它首先提取一个新的较小的特征集合(原始特征的线性组合),然后通过最小二乘法将原来的模型拟合为一个新的具有 M 个特征的线性模型。

7. 非线性模型

在统计学中,非线性回归属于一种回归分析形式,其中,观测数据使用模型参数的非线性组合的函数(依赖于一个或多个独立变量)建模。其使用逐次逼近法拟合数据。下方是几种处理非线性模型的重要技术。

  • 阶梯函数(step function),变量为实数,可以写成区间的指示函数的有限线性组合的形式。非正式的解释是,阶梯函数是一种分段常数函数,只有有限的部分。

  • 分段函数(piecewise function)通过多个子函数定义,每一个子函数被定义在主函数定义域的确定的区间上。分段实际上是一种表示函数的方式,而不是函数自身的特征,但通过额外的限定条件,它可以用于描述函数的本质。例如,一个分段多项式函数是一个在每一个子定义上为多项式的函数,其中每一个多项式都可能是不同的。

 

  • 样条曲线(spline)是一种用多项式分段定义的特殊函数。在计算机图形学中,样条曲线是一种分段多项式参数化曲线。由于结构的简单性、评估的简易和高精度、通过曲线拟合和交互曲线设计以逼近复杂曲线的能力,样条曲线很常用。

  • 广义加性模型(generalized additive model)是一种广义线性模型,其中线性预测器线性依赖于某些预测器变量的未知平滑函数,其主要作用就是推测这些平滑函数。

 

8. 基于树的方法

基于树的方法可以用于回归和分类问题,包括将预测器空间分层或分割成几个简单区域。由于用于预测器空间的分离规则集合可以总结为一个树,这类方法被称为决策树方法。以下的方法是几种不同的树,它们可以组合起来输出单个一致的预测。

  • bagging 能减少预测的方差,即通过从原始数据中生成额外的数据(通过组合和重复生成和原始数据大小相同的多段数据)用于训练。通过增大训练集无法提高模型的预测能力,只能减小方差,仔细地调整预测以得到期望的输出。

  • boosting 是一种计算输出的方法,即使用多个不同的模型,然后使用加权平均的方法对结果取平均值。我们一般通过改变这些方法所占的权重而结合各方法的优势,此外,我们还可以使用不同的精细调整获得对更宽泛输入数据的预测能力。

随机森林算法(random forest algorithm)实际上和 bagging 算法很相似,同样是对训练集提取随机 bootstrap 样本。然而,除了 bootstrap 样本以外,还可以提取特征的随机子集以训练单个树;而在 bagging 中,需要给每个树提供整个特征集。由于特征选择是随机的,相比常规的 bagging 算法,每个树之间更加独立,从而通常能获得更好的预测性能(得益于更好的方差—偏差权衡)。且计算速度也更快,因为每个树只需要学习特征的一个子集。

 

posted @ 2017-12-05 20:20  朱群喜_QQ囍_海疯习习  阅读(965)  评论(0编辑  收藏  举报
Map