统计学问题集成——统计学(十四)

统计学习是一门通过数据建模和分析进行预测的重要学科,其核心依赖于数据的统计规律性。为帮助读者更好地理解统计学习中的关键问题和术语,这里集成阐述了一些容易被忽视或误解的概念。例如,自由度、方差的无偏估计和置信区间,这些术语在统计学习中至关重要,但常常让初学者感到困惑。

一、五人法则

五人法则是一个简单且实用的统计方法,用于快速估算某个观测量的中值及其置信区间。具体来说,若想评估某观测量的93.75%置信区间,可以通过在总体中随机抽取五个样本,利用这五个样本的最大值和最小值构建该观测量中值的置信区间,这种方法的理论基础是伯努利分布。
例如,若想快速了解某公司员工上班所需时间的中值及其置信区间,可以随机抽取5名员工,询问他们的上班时间。所得5个结果中的最大值与最小值将构成该公司员工上班时间中值的93.75%置信区间。其理论依据如下:对于任意一个员工,其上班时间大于中值的概率为50%。因此,若连续5名员工的上班时间都大于中值的概率为\((0.5)^5=0.03125\),同理,连续5人上班时间都小于中值的概率也是0.03125。两者相加即为0.0625,这意味着5个人里至少有一人的上班时间比中值大,另有一人的上班时间比中值小的概率为\((1-0.0625)=0.9375\),即93.75%。这种方法成立的前提是样本需随机采样且相互独立。

二、为什么经常说30个样本就是大样本量?

在许多统计学教材中,30个样本通常被视为一个“大样本”的标准。超过30个样本意味着抽样分布已经非常接近正态分布,进一步增加样本量对近似程度的提升作用有限。这一经验法则的理论依据包括中心极限定理和t检验。中心极限定理表明,无论原始数据的分布形态如何,只要样本量足够大,样本均值的分布趋向于正态分布。研究表明,当样本量达到30时,这种趋向已经相当明显。因此,30成为一个分界点。
然而,30个样本量被称为“大样本”并不是非常精准的表达,或许称其为“足够有效的样本量”更为合适。在实际应用中,30个样本已足以用于估算统计量的合理区间,但在一些高精度要求的场景中,仍可能需要更多样本。

三、为什么求方差除的是\(n-1\)而不是\(n\)

在统计学中,计算样本方差时通常会除以\(n-1\)而不是\(n\),这是为了得到所谓的无偏方差。无偏方差与总体方差相比没有系统性偏差,而直接除以\(n\)得到的方差则是偏差方差。
需要区分样本方差和总体方差。总体方差是基于所有可能样本计算得出的方差,它是理想值。样本方差是根据有限样本估计得到的,且由于样本量有限,样本方差往往会低估总体方差。随着样本数量增加,样本方差会逐渐逼近总体方差。例如,1000个样本的样本方差约为总体方差的99.9%,而10000个样本则达到了99.99%。但当样本量较小时,如20个样本,样本方差可能只有总体方差的95%,误差较大。
因此,为了修正这种偏差,在计算样本方差时,除以\(n-1\)可以得到一个更接近总体方差的估计。这一修正过程称为自由度调整,反映的是用于估计方差的独立数据点的数量。

四、自由度如何确定

自由度(degree of freedom, df)是统计学中一个核心概念,通常指在估计某个参数时,独立变动的数据点的数量。它反映了样本中有多少数据点能够独立提供信息,而不受其他数据点的约束。自由度与统计推断密切相关,特别是在计算样本统计量如均值、方差时,自由度的调整对于获得无偏估计至关重要。
以计算样本方差为例,样本方差的计算公式是基于所有数据点与样本均值之间的偏差求和。然而,样本均值并不是一个独立的值,它依赖于样本中的所有数据点。当样本均值确定后,数据集中的最后一个数据点就不能独立自由地变化,因为它的值被其他数据点及样本均值所限制。因此,虽然有\(n\)个数据点,但只有\(n-1\)个自由度。这意味着,在计算方差时,为了获得无偏估计,我们除以\(n-1\)而不是\(n\)
另一个直观的例子是,如果我们知道一个班级50名学生的平均成绩是80分,并且已经知道了其中49个人的成绩,那么第50个人的成绩已经被前49个人的成绩和平均值决定了。换言之,第50个成绩不再是自由的,因为它必须使所有数据点的平均值保持在80。因此,这个数据集中自由度是49,而不是50。

五、P值-统计学意义

P值(P-value)是统计学中用于衡量观察结果在原假设为真时出现的概率。它是推断统计中用来评估结果显著性的重要工具。P值反映了我们在假设总体无效时(即原假设为真)观察到当前样本结果的可能性。P值越小,越能说明观察到的结果偏离原假设的程度越大,进而表明原假设不成立的可能性越高。
通常,我们会选择一个显著性水平(\(\alpha\)),如0.05,作为判断标准。如果P值小于显著性水平(例如P < 0.05),则意味着在原假设成立的情况下,观察到当前结果的概率低于5%。在这种情况下,我们通常会拒绝原假设,认为结果具有统计学显著性。换句话说,P值小于0.05意味着我们有足够的证据认为样本中的现象并非偶然,而是具有一定的规律性或关联。
需要注意的是,P值并不能直接说明原假设为真或为假。它仅仅是一个用于评估证据强度的指标,而不是揭示实际原因的工具。P值越小,结果越显著,但这并不意味着其具有更强的实际意义。例如,P值为0.01和P值为0.001之间的差异,可能在统计学上具有显著差异,但在实际应用中未必代表重要性。
此外,P值也容易受到样本量的影响。随着样本量的增加,即使很小的效应也可能导致非常小的P值。因此,除了依赖P值,还应结合效应大小、实验设计等其他因素来全面判断结果的实际意义。

六、生活中常见几种偏见

样本偏差,又称为以偏概全,指的是通过少量观察值来得出整体结论,导致偏差。通常情况下,样本不足或不具代表性是造成这种偏差的主要原因。当样本量较小时,所观察的现象往往无法反映整体情况,因此结论可能不准确。为减少样本偏差,最有效的办法是增加样本量。样本越大,结果越能反映总体情况,从而降低偏差的可能性。
幸存者偏差是指只关注那些成功或显而易见的样本,而忽略那些因为失败或其他原因未被纳入统计的样本。这种偏差会导致人们得出错误的结论。例如,二战中研究飞机的易中弹区域时,只统计了幸存返航的飞机,忽略了那些已经被击落的飞机,导致研究结果偏离实际。避免幸存者偏差的关键在于全面地观察和分析问题,避免只关注幸存或成功的样本。
概率偏见发生在人们对某些事件概率的主观认知与客观事实之间存在偏差。例如,许多人认为飞机是最危险的交通工具,但实际上,飞机事故的概率远低于汽车事故。当涉及到风险时,人们容易被恐惧情绪左右,忽视数据背后的真实情况。减少概率偏见的方法是通过学习统计和概率,理性分析数据,并在面对未知风险时多咨询专业人士的意见。
信息茧房现象指的是人们倾向于只接触和关注符合自己观点或使自己舒适的信息源,长此以往会导致个人视野狭窄,形成偏见。为了避免这种情况,建议尽量接触多样化的信息来源,避免沉迷于个性化推荐的内容,保持对外界的全面了解。

上述内容展示了统计学中几种常见的偏差类型以及如何应对它们的思维陷阱。这些偏差强调了样本选择和数据分析过程中的潜在误区,如样本偏差会因样本量不足导致错误结论,幸存者偏差通过忽略失败样本导致片面分析,概率偏见则反映了人们主观认知与客观事实的差异,信息茧房则体现了信息获取中的偏倚。统计学意义在于提醒研究者必须严谨设计样本、理性分析数据,并综合多方信息,避免偏差和主观判断干扰,从而获得更加准确、全面的结论。

七、置信区间

置信区间是推断统计中的一个重要概念,它用于估计某一未知参数可能落入的区间。置信区间的意义在于,给定置信水平,样本统计量构造出的区间有多大的信心包含总体参数。置信区间的理论基础包括中心极限定理大数定律。中心极限定理指出,对于任意概率分布,只要对其执行相同的采样过程,采样结果的期望会趋于正态分布。大数定律则表明,随着样本量的增加,样本均值会收敛于总体均值。因此,置信区间依赖于样本均值的正态性,可以用于估计总体均值的范围。

7.1 点估计

点估计是通过样本数据直接估算总体参数的值。点估计无法给出参数的不确定性范围,且由于样本的随机性,不同的采样会得到不同的点估计值。下图展示了多次采样得到的不同点估计:

7.2 置信区间

置信区间提供了一种区间估计的方法。对于给定的置信水平(如95%),我们可以构造一个包含总体参数的区间估计。例如,下图显示了多个95%置信区间,其中大部分区间包含了真实的总体参数\(\mu\),但有一个例外(红色区间未包含\(\mu\)):

相比于点估计,置信区间虽然仍然无法确定具体哪个区间更准确,但有更大的概率包含总体参数。例如,对于95%置信区间,若构造100个区间,约有95个会包含总体参数\(\mu\)。这种情况就像用渔网捞鱼,虽然不能确定每次能捞到目标鱼,但95次捞到目标的概率很高。

八、模型性能评价指标

在统计学习中,模型的性能评价至关重要。常见的性能评价指标包括准确率、精确率、召回率、F1值和ROC曲线等。

8.1 准确率

准确率是指模型预测正确的样本占总样本的比例,计算公式为:

\[\text{准确率} = \frac{\text{正确预测的样本数}}{\text{总样本数}} \]

准确率是一个直观的评价指标,但在数据集类别不平衡的情况下,其可能会导致误导。例如,在一个类别极为稀少的数据集中,模型即使完全忽略稀少类别,其准确率仍可能很高。

8.2 精确率和召回率

为了更全面地评估模型性能,尤其是在数据不平衡的情况下,可以使用精确率(precision)和召回率(recall)。
精确率是指在所有被模型预测为正例的样本中,真正为正例的比例,计算公式为:

\[\text{精确率} = \frac{\text{真正例数}}{\text{预测为正例的样本数}} \]

召回率是指在所有真实正例样本中,被模型正确预测为正例的比例,计算公式为:

\[\text{召回率} = \frac{\text{真正例数}}{\text{真实正例样本数}} \]

这两个指标往往需要结合来看,因为在实际应用中,精确率和召回率存在一定的权衡关系。例如,精确率高的模型可能漏掉许多真正的正例,而召回率高的模型可能误将负例预测为正例。因此,需要根据具体应用场景来决定侧重精确率还是召回率。

8.3 F1值

F1值是精确率和召回率的调和平均值,用于综合评估模型的性能,计算公式为:

\[F1 = 2 \times \frac{\text{精确率} \times \text{召回率}}{\text{精确率} + \text{召回率}} \]

F1值在精确率和召回率权衡时提供了一个平衡的评价指标,尤其适用于分类任务。

8.4 ROC曲线与AUC值

ROC曲线(Receiver Operating Characteristic curve)是一种用于评估二分类模型性能的工具。横轴是假阳性率(False Positive Rate),纵轴是真正例率(True Positive Rate),通过绘制不同阈值下的曲线来评估模型的分类效果。
AUC值(Area Under Curve)是ROC曲线下的面积,取值范围为0到1,AUC越大,模型的区分能力越强。AUC值接近1时,表示模型具有很好的分类性能。

参考文献

1.(统计学笔记)[https://blog.csdn.net/RockHill_001/article/details/114177504]
2.(彻底理解样本方差为何除以n-1)[https://blog.csdn.net/zhoucoolqi/article/details/80380095]
3.(如何理解 95% 置信区间?)[https://www.zhihu.com/question/26419030/answer/2744722664]

posted @ 2022-07-31 20:02  郝hai  阅读(524)  评论(0编辑  收藏  举报