4. 假设检验
基础回顾:
- 假设检验,用于判断一个结果是否在统计上是显著的、这个结果是否有机会发生。
- 显著性检验
- 原假设与备择假设
常把一个要检验的假设记作 H0,称为原假设(或零假设) (null hypothesis)
与H0对立的假设记作H1,称为备择假设(alternative hypothesis)
- 拟合优度Goodness of Fit,是指回归直线对观测值的拟合程度。
对非线性方程:
(1)计算残差平方和 Q =∑(y-y*)2 和 ∑y2 ,其中,y 代表的是实测值,y* 代表的是预测值
(2)拟合度指标 RNew=1-(Q/∑y2)1/2
角标new就是为了和线性回归方程的判定系数R2、adjusted R2进行区别。在对方程拟合程度的解释上,Rnew和R2、adjusted R2是等价的,其意义也相同。
对线性方程:
R2 = ∑(y预测-y)2/∑(y实际-y)2,y是平均数。
如果R2=0.775,则说明变量y的变异中有77.5%是由变量X引起的。
当R2=1时,表示所有的观测点全部落在回归直线上。
当R2=0时,表示自变量与因变量无线性关系。
- 独立性检验(属于卡方检验的一种)
它是根据频数判断两类因子彼此相关或相互独立的假设检验。
假设有两个分类变量X和Y,它们的值域分另为{x1, x2}和{y1, y2},其样本频数列联表为:
构造统计量:
K2越小,原假设H0成立的可能性越大;它越大,目标结论H1成立的可能性越大.)
步骤:
Mlib的假设检验:
spark.mllib
目前支持皮尔森卡方检测。- 输入属性的类型决定拟合优度(
goodness of fit
)检测还是独立性检测。 拟合优度检测需要输入数据的类型是vector
,独立性检测需要输入数据的类型是Matrix
。 - import org.apache.spark.mllib.stat.Statistics._ ; Statistics 的 chiSqTest 方法用来做检测,当输入 vector和Matrix 时不同的检验。
import org.apache.spark.SparkContext import org.apache.spark.mllib.linalg._ import org.apache.spark.mllib.regression.LabeledPoint import org.apache.spark.mllib.stat.Statistics._ // 作皮尔森拟合优度检测 val vec: Vector =Vectors.dense(1.0, 2.0, 3.0) val goodnessOfFitTestResult = Statistics.chiSqTest(vec) println(goodnessOfFitTestResult) // 作皮尔森独立性检测 val mat: Matrix =Matrices.dense(3,2,Array(9.0,1.0,2.0,3.0,8.0,6.0)) val independenceTestResult = Statistics.chiSqTest(mat) println(independenceTestResult)
5. 随机数生成
spark.mllib
支持生成随机的RDD
, RDD
的独立同分布(iid
)的值来自于给定的分布:均匀分布、标准正太分布、泊松分布。
例子:用标准正态分布生成一个随机的双精度RDD
import org.apache.spark.mllib.random.RandomRDDs._ val u = normalRDD(sc, 1000000L, 10) // 生成了一个10个RDD分区的百万个随机数 val v = u.map(x => 1.0 + 2.0 * x) //把标准正态分布产生的随机数map到N(1,4)的正态分布
6. 核密度估计
http://blog.163.com/zhuandi_h/blog/static/1802702882012111092743556/
核密度估计可以用来估计未知的密度函数,属于非参数检验方法。
假设我们有n
个数 ,要计算某个数X
的概率密度有多大, 可以通过下面的核密度估计方法估计。
K
为核密度函数,h
为窗宽。
-
原理比较简单,在我们知道某一事物的概率分布的情况下
如果某一个数在观察中出现了,我们认为这个数的概率密度很大,和这个数近的数的概率密度也比较大;而那些离这个数远的数的概率密度会比较小。
- 基于这种想法,针对观察中的第一个数,我们可以用
K
去拟合我们想象中的那个远小近大概率密度。
对每一个观察数拟合出的多个概率密度分布函数,取平均。 如果某些数是比较重要的,则可以取加权平均。
- 核密度的估计并不是找到真正的分布函数。
- 在
MLlib
中,仅仅支持以 高斯核(正态分布) 做核密度估计:
- KernelDensity 的 estimate 方法
import org.apache.spark.mllib.stat.KernelDensity import org.apache.spark.rdd.RDD val data: RDD[Double] = ... // an RDD of sample data val kd = new KernelDensity() .setSample(data) .setBandwidth(3.0) val densities = kd.estimate(Array(-1.0, 2.0, 5.0))