kaggle之员工离职分析
本文探讨的是kaggle中的一个案例-员工离职分析,从数据集中分析员工的离职原因,并发现其中的问题。数据主要包括影响员工离职的各种因素(工资、绩效、工作满意度、参加项目数、工作时长、是否升职、等)以及员工是否已经离职的对应记录。
数据来源:Human Resources Analytics | Kaggle
参考学习视频:http://www.tianshansoft.com/
分析目的:分析员工离职原因。
1.对数据集中变量进行描述性分析,变量说明:
2.探索是否离职与公司满意度,绩效,工作时长,工作意外的联系。
#员工离职与满意度关系 p1_sat<- ggplot(data = train,aes(left,satisfaction_level,fill=left))+geom_boxplot()+ labs(x='员工情况',y='员工对公司满意度')+ scale_x_discrete(labels=c('在职','离职'))+ stat_summary(fun.y = mean,geom="point",shape=23,size=1.8)+ #添加均值点 guides(fill=F) #除去图例
其他数据绘图类似
#呈现一页多图(Rmisc包) multiplot(p1_sat,p2_eva,p3_hours,p4_time,cols =2)
初步结论:
1.离职员工对公司满意度普遍较低,评分集中在0.4
2.离职员工工作时长较长,集中在220小时
3.50%以上的离职员工绩效都在0.8以上,超过了平均绩效0.71
3.离职员工工作年限普遍较长,平均在该公司工作了4年
3.探索是否离职与薪水水平、职业的关系
#探索是否离职与自身职业的关系 p5_sales<- ggplot(data = train,aes(sales,..count..,fill=left))+ geom_bar(stat = 'count',position = 'fill')+ labs(x='职位名称',y='比例')+ guides(fill=F) #去除图例
其他数据绘图类似
图中可看出
1.低工资的员工离职率较高,超过了25%。离职率与薪资水平呈负相关,薪水越高,离职率越低。
2.五年内无升职的员工,离职率达25%,远大于已升职的员工。
3.只参加了两个项目离职率接近65%,参加过7个项目的员工均已离职。参加项目越多,离职率越高(除去参加2个项目的员工)
接下来要进行的是
建模预测:决策树和朴素贝叶斯
建立决策树模型思路:
1.提取出优秀员工(绩效>0.7或工作年限>=4或参加项目数>=5)
2.交叉验证 (此处使用五折交叉验证)
3.划分训练集和测试集
4.训练模型,建模
5.建立混淆矩阵
- 首先提取出优秀员工
good <-filter(.data = train,last_evaluation>0.7|time_spend_company>=4|number_project>=5) #满足三个条件中的一个均可 summary(good)
- 接着进行交叉验证(caret包)
train_control <- trainControl(method='cv',number = 5) #method = ‘cv’是设置交叉验证方法,number = 5意味着是5折交叉验证
- 划分训练集和测试集,70%作为训练集,剩下为测试集
set.seed(1234) #设置种子,使抽样结果一致 intrain <- createDataPartition(y = train$left,p = 0.7,list = F) #createDataPartition( )就是数据划分函数 #对象是left,p=0.7表示训练数据所占的比例为70% #list是输出结果的格式,默认list=FALSE
train_data <- train[intrain,] #训练集 test_data <- train[-intrain,] #测试集
- 使用训练集训练模型: train()函数
rpartmodel <- train(left ~ ., data = train_data, trControl = train_control, method = 'rpart') # 使用caret包中的trian函数对训练集使用5折交叉的方法建立决策树模型 # left ~.的意思是根据因变量与所有自变量建模;trCintrol是控制使用那种方法进行建模 # method就是设置使用哪种算法
- 利用rpartmodel模型进行预测:predict()函数
pre_model <- predict(rpartmodel,test_data[,-7])#([-7]的意思就是剔除测试集的因变量(left)这一列
- 建立混淆矩阵
con_rpart <- table(pre_model,test_data$left)
con_rpart #查看矩阵
求得
查准率=743/(743+61)=92.4%
查全率=743/(743+328)=69.3%
建立朴素贝叶斯模型
思路:
1.训练模型
2.预测
1 nbmodel <-train(left ~. ,data=train_data,trControl=train_control,method='nb') 2 pre_nb_model <-predict(nbmodel,test_data[,-7]) 3 con_nb <- table(pre_nb_model,test_data$left) 4 con_nb
查准率: 718/(718+46)=93.97%
查全率: 718/(718+353)=67%
查全率较低于决策模型中的69%,所以使用决策树模型
模型评估
- 将预测模型转化为数值型
pre_model <- as.numeric(pre_model) #绘制ROC曲线需要将值转为数值型 pre_nb_model <-as.numeric(pre_nb_model) roc_rpart <- roc(test_data$left,pre_model) #使用决策树模型
- 求假正例率和真正例率(查全率)
#假正例率=1-真反例率 Specificity <- roc_rpart$specificities #真反例率。假正例率为ROC曲线X轴 Sensitivity <- roc_rpart$sensitivities #真正例率,为ROC曲线Y轴
- 绘制ROC曲线(决策树模型)
ggplot(data = NULL,aes(1-Specificity,Sensitivity))+ geom_line(color='red') + #ROC曲线 geom_abline()+ #对角线 annotate(geom = 'text',x = 0.4,y=0.5,label=paste('AUC',round(roc_rpart$auc,3))) #geom='text'指图层上声明增加注释,在坐标(0.4,0.5)处添加AUC值
- 绘制ROC曲线(朴素贝叶斯模型)
pre_nb_model <-as.numeric(pre_nb_model) roc_nb <- roc(test_data$left,pre_nb_model) Specificity_nb <- roc_nb$specificities Sensitivity_nb <- roc_nb$sensitivities ggplot(data=NULL,aes(1-Specificity_nb,Sensitivity_nb))+ geom_line(color='red')+ geom_abline()+ geom_text(aes(0.4,0.5),data = NULL,label=paste('AUC',round(roc_nb$auc,3)))+ labs(title='ROC曲线(朴素贝叶斯)')+ theme(plot.title = element_text(hjust = 0.5))
模型应用
#使用回归树模型预测概率 Pre_end <- predict(rpartmodel,test_data[,-7],type='prob') data_end <- cbind(round(Pre_end,3),pre_model) names(data_end) <- c('pred.0', 'pred.1', 'pred') datatable(data_end)