拓端数据tecdat|R语言用主成分PCA、 逻辑回归、决策树、随机森林分析心脏病数据并高维可视化

原文链接:http://tecdat.cn/?p=22262 

 

在讨论分类时,我们经常分析二维数据(一个自变量,一个因变量)。但在实际生活中,有更多的观察值,更多的解释变量。随着两个以上的解释变量,它开始变得更加复杂的可视化。

数据

我们使用心脏病数据,预测急诊病人的心肌梗死,包含变量:

  1. 心脏指数
  2. 心搏量指数
  3. 舒张压
  4. 肺动脉压
  5. 心室压力
  6. 肺阻力
  7. 是否存活

其中我们有急诊室的观察结果,对于心肌梗塞,我们想了解谁存活下来了,以得到一个预测模型。但是在运行一些分类器之前,我们先把我们的数据可视化。

主成分PCA

由于我们有7个解释变量和我们的因变量(生存或死亡),我们可以去做一个PCA。

  1.  
     
  2.  
    acp=PCA(X)

添加死亡生存变量,就把它当作数字0,1变量。 

 

 是否存活= 是否存活=="存活")*1

 

 

结果不错,我们看到因变量与部分自变量是同向的。也可以可视化样本和类别

plot(cp  )

 

 

我们可以在这里推导出一个不错的分类器。至少,在前两个成分上投影时,我们可以看到我们的类别。
现在,我们不能在前两个主成分上得到一个分类器并将其可视化吗?    因为PCA是简单的基于正交投影的,所以我们可以(这里的数据是标准化的)。给定前两个分量平面上的两个坐标,给定我们的变换矩阵、归一化分量和一个分类器(这里是基于逻辑回归),我们可以回到原始空间,并对新数据进行分类。

  1.  
    PCA(X,ncp=ncol(X))
  2.  
    function(d1,d2,Mat,reg){
  3.  
    z=Mat %*% c(d1,d2,rep(0,ncol(X)-2))
  4.  
    newd=data.frame(t(z*s+m))
  5.  
    pred(reg, newd }

 逻辑回归

现在考虑一个逻辑回归。只是为了简化(去掉非显著变量),我们使用一个逐步回归的程序来简化模型。

  1.  
     
  2.  
    reg_tot=step(glm(是否存活~. ,
  3.  
    family=binomial))

可视化等概率线(如个人有50%的生存机会)使用以下

  1.  
     
  2.  
    xgrid=seq(-5,5,length=25 )
  3.  
    ygrid=seq(-5,5,length=25 )
  4.  
    zgrid=ter(xgrid,ygrid,p)

然后,我们在之前的图形上添加一条等高线

  1.  
    PCA(data,quali.sup=8 )
  2.  
     
  3.  
    contour( zgrid )

 

结果不差,但我们应该可以做得更好。如果我们把所有的变量都保留在这里(即使它们不重要),会怎么样呢?

  1.  
    glm(是否存活~.,
  2.  
    family=binomial)
  3.  
     
  4.  
    contour(xgrid,ygrid,zgrid )

 

在现实生活中,要想真正说出我们的分类器的一些相关信息,我们应该在观测值的一个子集上拟合我们的模型,然后在另一个子集上测试它。在这里,我们的目标更多的是在某个投影空间上得到一个函数来可视化我们的分类。

决策树

默认分类树

> plot( re,type=4,extra=6)

 

我们可以在此更改选项,例如每个节点的最小观察数

  1.  
    rpart(factor(是否存活)~ ,
  2.  
    + control=rpart.control(minsplit=10))

 

或者

  1.  
    rpart(
  2.  
    + control=rpart.control(minsplit=5))

 

要将该分类可视化,获得前两个成分的投影

  1.  
     
  2.  
    > p=function(d1,d2) pred2(d1,d2 )
  3.  
     
  4.  
    > zgrid=Outer(xgrid,ygrid,p)
  5.  
    PCA( quali.sup=8,graph=TRUE)
  6.  
    > image(xgrid,ygrid,zgrid )
  7.  
    > contour(xgrid,ygrid,zgrid,add=TRUE,levels=.5)

也可以考虑这种情况

 rpart( control=rpart.control(minsplit=5))

 

最后,我们还可以生成更多的树,通过采样获得。这就是bagging的概念:我们boostrap 观测值,生长一些树,然后,我们将预测值进行汇总。在网格上

 

  1.  
     
  2.  
    > for(i in 1:1200){
  3.  
    + indice = sample(1:nrow(MYOCARDE),
  4.  
    + arbre_b = rpart(factor(是否存活)~.,
  5.  
    +}
  6.  
    >Zgrid = Z/1200

可视化

 

随机森林

最后,可以使用随机森林算法。

  1.  
    > fore= randomForest(factor(是否存活)~.,
  2.  
    > pF=function(d1,d2) pred2(d1,d2,Minv,fore)
  3.  
    > zgridF=Outer(xgrid,ygrid,pF)
  4.  
    PCA(data,.sup=8,graph=TRUE)
  5.  
    > image(xgrid,ygrid,Zgrid,add=TRUE,
  6.  
    > contour(xgrid,ygrid,zgridF,

 

 


最受欢迎的见解

1.从决策树模型看员工为什么离职

2.R语言基于树的方法:决策树,随机森林

3.python中使用scikit-learn和pandas决策树

4.机器学习:在SAS中运行随机森林数据分析报告

5.R语言用随机森林和文本挖掘提高航空公司客户满意度

6.机器学习助推快时尚精准销售时间序列

7.用机器学习识别不断变化的股市状况——隐马尔可夫模型的应用

8.python机器学习:推荐系统实现(以矩阵分解来协同过滤)

9.python中用pytorch机器学习分类预测银行客户流失

posted @ 2021-05-27 20:18  拓端tecdat  阅读(185)  评论(0编辑  收藏  举报