分类-回归树模型(CART)在R语言中的实现
CART模型
决策树是一种倒立的树结构,它由内部节点、叶子节点和边组成。其中最上面的一个节点叫根节点。
构造一棵决策树需要一个训练集,一些例子组成,每个例子用一些属性(或特征)和一个类别标记来描述。构造决策树的目的是找出属性和类别间的关系,一旦这种关系找出,就能用它来预测将来未知类别的记录的类别。这种具有预测功能的系统叫决策树分类器。其算法的优点在于:
1)可以生成可以理解的规则。
2)计算量相对来说不是很大。
3)可以处理多种数据类型。
4)决策树可以清晰的显示哪些变量较重要。
下面以一个例子来讲解如何在R语言中建立树模型。为了预测身体的肥胖程度,可以从身体的其它指标得到线索,例如:腰围、臀围、肘宽、膝宽、年龄。
#首先载入所需软件包
library(mboost)
library(rpart)
library(maptree)
#读入样本数据
data('bodyfat')
#建立公式
formular=DEXfat~age+waistcirc+hipcirc+elbowbreadth+kneebreadth
#用rpart命令构建树模型,结果存在fit变量中
fit=rpart(formula,method='avova',data=bodyfat)
#直接调用fit可以看到结果
n= 71
node), split, n, deviance, yval
1) root 71 8535.98400 30.78282
#也可以用画图方式将结果表达得更清楚一些
draw.tree(fit)
#建立树模型要权衡两方面问题,一个是要拟合得使分组后的变异较小,另一个是要防止过度拟合,而使模型的误差过大,前者的参数是CP,后者的参数是Xerror。所以要在Xerror最小的情况下,也使CP尽量小。如果认为树模型过于复杂,我们需要对其进行修剪
#首先观察模型的误差等数据
printcp(fit)
Regression tree:
rpart(formula = formula, data = bodyfat)
Variables actually used in tree construction:
[1] hipcirc
Root node error: 8536/71 = 120.23
n= 71
1 0.662895
2 0.083583
3 0.077036
4 0.018190
5 0.010000
#调用CP(complexity
parameter)与xerror的相关图,一种方法是寻找最小xerror点所对应的CP值,并由此CP值决定树的大小,另一种方法是利用1SE方法,寻找xerror+SE的最小点对应的CP值。
plotcp(fit)
#用prune命令对树模型进行修剪(本例的树模型不复杂,并不需要修剪)
pfit=prune(fit,cp=
fit$cptable[which.min(fit$cptable[,"xerror"]),"CP"])
#模型初步解释:腰围和臀围较大的人,肥胖程度较高,而其中腰围是最主要的因素。
#利用模型预测某个人的肥胖程度
ndata=data.frame(waistcirc=99,hipcirc=110,elbowbreadth=6,kneebreadth=8,age=60)
predict(fit,newdata=ndata)数据分析培训