《机器学习(周志华)》笔记--模型的评估与选择(2)--评估方法:留出法、K折交叉验证、自助法

三、评估方法

  1、留出法(hold-out)

  直接将数据集D划分为两个互斥集合,其中一个集合作为训练集S,另一个作为测试集T,即D = S ∪ T,S ∩ T = ø  。 S 上训练出模型后,用 T 来评估其测试误差,作为对泛化误差的估计。

 举例:

  以二分类任务为例,假定 D 包含1000个样本,将其划分为 S 包含700个样本,T 包含300个样本,用 S 进行训练后,如果模型在 T 上有9个样本分类错误,那么其错误率为(90/300)* 100% = 30%,相应的,精度为1 - 30%  = 70% 。

  注意点:

  ① 训练/测试集的划分要尽可能保持数据分布的一致性,避免因数据划分过程引入额外的误差而对最终结果产生影响,例如在分类任务中至少要保持样本的类别比例相似。如果从采样(sampling)的角度看待数据集的划分过程,则保留类别比例的采样方式通常称为“分层采样”(stratified sampling)。若S 、T中样本类别比例差别很大,则误差估计将由于训练/测试数据分布的比例而产生偏差。

  ② 即便在给定训练/测试集的样本比例后,仍存在多种划分方式对初始数据集 D 进行分割。不同的划分将导致不同的训练/测试集,相应的,模型评估的结果也会有差别。因此,单次使用留出法得到的估计结果往往不够稳定可靠,在使用留出法时,一般要采用若干次随机划分、重复进行实验评估后取平均值作为留出法的评估结果。

  ③ 我们希望评估的是用 D 训练出的模型的性能,但留出法需划分训练/测试集,这就会导致一个窘境:若令训练集 S 包含绝大多数样本,则训练出的模型可能更接近于用 D 训练出的模型,但由于 T 比较小,评估结果可能不够稳定准确;若令测试集 T 多包含一些样本,则训练集 S 和 D 差别就更大了,被评估的模型与用 D 训练出的模型相比可能有较大差别,从而降低了评估结果的保真性。  

  2、K折交叉验证

  由于验证数据集不参与模型训练,当训练数据不够⽤时,预留⼤量的验证数据显得太奢侈。⼀种改善的⽅法是 K 折交叉验证。

  在 K 折交叉验证中,我们把原始训练数据集分割成 K 个不重合的⼦数据集,然后我们做K次模型训练和验证。每⼀次,我们使⽤⼀个⼦数据集验证模型,并使⽤其它 K−1 个⼦数据集来训练模型。在这 K 次训练和验证中,每次⽤来验证模型的⼦数据集都不同。最后,我们对这 K 次训练误差和验证误差分别求平均

  举例:

                        

  k 的值由我们自己来指定,以上为 5 折交叉验证。

    还是以考试为例,解释上图内容。交叉验证,相当于把平常的作业题和中期的测试题合并成一个题库,然后等分成几份。图中所示,将题库分成了五份,第一行的意思是,先让学生做后面的四份训练题,再用第一份题进行测试。以此类推,再重复四次,每一次相当于重新进行学习。最后,取五次的平均成绩,平均成绩高,说明老师的教学方法好,对应到模型,就是超参数更好。

    假定数据集 D 中包含 m 个样本,若令k = m ,则得到交叉验证法的一个特例:留一法

    留一法——n折交叉验证(n是数据集中样本的数目),即每次用一个样本做验证集,其余的样本做训练集。留一法的一个优点是每次迭代中都使用了最大可能数目的样本来训练。另一个优点是该方法具有确定性。

  3、自助法

  统计学中,自助法是一种从给定训练集中有放回的均匀抽样,也就是说,每当选中一个样本,它等可能地被再次选中并被再次添加到训练集中。

  自助法以自助采样法为基础,给定包含 m 个样本的数据集 D,我们对它进行采样产生数据集 D’;每次随机从 D 中挑选一个赝本,将其拷贝放入 D’,然后再将该样本放回初始数据集 D 中,使得该样本在下次采样时仍有可能被采到;这个过程重复执行 m 次后,就得到了包含m个样本的数据集 D’,这就是自助采样的结果。

  自助法在数据集较小、难以有效划分训练/测试集时很有用;此外,自助法能从初始数据集中产生多个不同的训练集,这对集成学习等方法有很大的好处。然而,自助法产生的数据集改变了初始数据集的分布,这会引入估计偏差

 

  集成学习:在机器学习的有监督学习算法中,我们的目标是学习出一个稳定的且在各个方面表现都较好的模型,但实际情况往往不这么理想,有时我们只能得到多个有偏好的模型(弱监督模型,在某些方面表现的比较好)。集成学习就是组合这里的多个弱监督模型以期得到一个更好更全面的强监督模型。集成学习潜在的思想是即便某一个弱分类器得到了错误的预测,其他的弱分类器也可以将错误纠正回来。集成方法是将几种机器学习技术组合成一个预测模型的元算法,以达到减小方差、偏差或改进预测的效果。

  

posted @ 2020-01-13 17:18  泰初  阅读(2354)  评论(0编辑  收藏  举报