决策树如何防止过拟合
决策树在长成的过程中极易容易出现过拟合的情况,导致泛化能力低。主要有两种手段可以用于防止过拟合。
提前停止
Early Stopping,在完全长成以前停止,以防止过拟合。主要有以下3种方式:
- 限制树的高度,可以利用交叉验证选择
- 利用分类指标,如果下一次切分没有降低误差,则停止切分
- 限制树的节点个数,比如某个节点小于100个样本,停止对该节点切分
后剪枝
提前停止的不足
“提前停止”是一个不错的策略,但是在实际的执行中会越到一些麻烦。比如「其中的第2点,如果下一次切分没有降低误差,则停止切分。」一看貌似很有道理,但是很容易举出反例:
对一个XOR的数据集生成决策树:

下面如果使用x[1]切分:

又或者用x[2]切分:

发现,无论选择哪一个维度进行切分都不会使得训练误差降低了。所以根据Early Stopping,仅仅长成只有一个节点的stump。但是实际上:

继续切下去,能学成一颗具有良好区分度的决策树。所以「提前停止」的第2种情况既有利也有弊:

剪枝
我们通过一颗决策树的叶子结点个数来定义这棵树有多复杂。

但是树太简单也不好,训练误差太大,欠拟合。所以,训练出一颗好的决策树就是在树的训练误差与复杂程度之间做权衡。

写成数学公式,可以表示为:


剪枝算法
举例说明
有一颗已经长成的树:

从底部开始考虑,第一个要检查的切分点是Term:

假设惩罚性lambda是0.3:
- 对于未剪枝的T,计算它的训练误差为0.25,叶子结点总数为6.所以总的cost为0.43
- 对于剪去Term的Tsamller,计算它的训练误差为0.26,叶子结点总数为5.所以总的cost为0.41
- 因为剪去后的树的损失更小。所以决定剪枝。
- 接着对于所有的切分节点做上述相同的动作。
算法