[译]用R语言做挖掘数据《四》
回归
一、实验说明
1. 环境登录
无需密码自动登录,系统用户名shiyanlou,密码shiyanlou
2. 环境介绍
本实验环境采用带桌面的Ubuntu Linux环境,实验中会用到程序:
1. LX终端(LXTerminal): Linux命令行终端,打开后会进入Bash环境,可以使用Linux命令
2. GVim:非常好用的编辑器,最简单的用法可以参考课程Vim编辑器
3. R:在命令行输入‘R’进入交互式环境,下面的代码都是在交互式环境运行。
3. 环境使用
使用R语言交互式环境输入实验所需的代码及文件,使用LX终端(LXTerminal)运行所需命令进行操作。
完成实验后可以点击桌面上方的“实验截图”保存并分享实验结果到微博,向好友展示自己的学习进度。实验楼提供后台系统截图,可以真实有效证明您已经完成了实验。
实验记录页面可以在“我的主页”中查看,其中含有每次实验的截图及笔记,以及每次实验的有效学习时间(指的是在实验桌面内操作的时间,如果没有操作,系统会记录为发呆时间)。这些都是您学习的真实性证明。
二、课程介绍
这一节课主要介绍回归模型中基本的概念以及不同回归模型的例子。具体内容如下:
1. 建立一个线性回归模型来预测CPI数据
2. 是logistic模型
3. 广义线性模型(GLM)
4. 非线性模型
更多关于回归分析中的R函数的介绍可以参考《回归分析中的R函数》。
三、课程内容
1、线性回归
线性回归就是使用下面的预测函数预测未来观测量:
其中,x1,x2,...,xk都是预测变量(影响预测的因素),y是需要预测的目标变量。
线性回归模型的数据来源于澳大利亚的CPI数据,选取的是2008年到2011年的季度数据。
# rep函数里面的第一个参数是向量的起始时间,从2008-2010,第二个参数是向量里面的每个元素都被4个小时间段。 > year <- rep(2008:2010, each=4) > quarter <- rep(1:4, 3) > cpi <- c(162.2, 164.6, 166.5, 166.0, + 166.2, 167.0, 168.6, 169.5, + 171.0, 172.1, 173.3, 174.0) # plot函数中axat=“n”表示横坐标刻度的标注是没有的 > plot(cpi, xaxt="n", ylab="CPI", xlab="") # 绘制横坐标轴 > axis(1, labels=paste(year,quarter,sep="Q"), at=1:12, las=3)
接下来,观察CPI与其他变量例如‘year(年份)’和‘quarter(季度)’之间的相关关系。
> cor(year,cpi) > cor(quarter,cpi)
输出如下:
由上图可知,CPI与年度之间的关系是正相关,并且非常紧密,相关系数接近1;而它与季度之间的相关系数大约为0.37,只是有着微弱的正相关,关系并不明显。
然后使用lm()函数建立一个线性回归模型,其中年份和季度为预测因素,CPI为预测目标。
# 建立模型fit > fit <- lm(cpi ~ year + quarter) > fit
输出结果如下:
通过上面的输出结果,可以建立以下模型计算CPI:
其中,c0、c1和c2都是模型fit的参数分别是-7644.488、3.888和1.167。因此2011年的CPI可以通过以下方式计算:
> (cpi2011 <- fit$coefficients[[1]] + fit$coefficients[[2]]*2011 + + fit$coefficients[[3]]*(1:4))
输出的2011年的季度CPI数据分别是174.4417、175.6083、176.7750和177.9417。
模型的具体参数可以通过以下代码查看:
# 查看模型的属性 > attributes(fit) # 模型的参数 > fit$coefficients # 观测值与拟合的线性模型之间的差距,也称为残差 > residuals(fit)
除了将数据代入建立的预测模型公式中,还可以通过使用predict()预测未来的值。
# 建立预测时间 > data2011 <- data.frame(year=2011, quarter=1:4) > cpi2011 <- predict(fit, newdata=data2011) # 设置散点图上的观测值和预测值对应点的风格(颜色和形状) > style <- c(rep(1,12), rep(2,4)) > plot(c(cpi, cpi2011), xaxt="n", ylab="CPI", xlab="", pch=style, col=style) # 标签中sep参数设置年份与季度之间的间隔 > axis(1, at=1:16, las=3, + labels=c(paste(year,quarter,sep="Q"), "2011Q1", "2011Q2", "2011Q3", "2011Q4"))
预测结果如下:
上图中红色的三角形就是预测值。
2、Logistic回归
Logistic回归是通过将数据拟合到一条逻辑线上从而根据模型预测事件发生的概率。可以通过以下等式来建立一个Logistic回归模型:
其中,x1,x2,...,xk是预测因素,y是预测目标。令
等式被写成:
使用函数glm()并设置响应变量(被解释变量)服从二项分布(family='binomial,'link='logit')建立Logistic回归模型,更多关于Logistic回归模型的内容可以通过以下链接查阅:
- R Data Analysis Examples - Logit Regression
- 《Logistic Regression (with R)》
###3、广义线性模型
广义线性模型(generalized linear model, GLM)是简单最小二乘回归(OLS)的扩展,响应变量(即模型的因变量)可以是正整数或分类数据,其分布为某指数分布族。其次响应变量期望值的函数(连接函数)与预测变量之间的关系为线性关系。因此在进行GLM建模时,需要指定分布类型和连接函数。这个建立模型的分布参数包括binomaial(两项分布)、gaussian(正态分布)、gamma(伽马分布)、poisson(泊松分布)等。
广义线性模型可以通过glm()函数建立,使用的数据是包‘TH.data’包中的数据集bodyfat。
> data("bodyfat", package="TH.data") > myFormula <- DEXfat ~ age + waistcirc + hipcirc + elbowbreadth + kneebreadth # 设置响应变量服从正态分布,对应的连接函数服从对数分布 > bodyfat.glm <- glm(myFormula, family = gaussian("log"), data = bodyfat) # 预测类型为响应变量 > pred <- predict(bodyfat.glm, type="response") > plot(bodyfat$DEXfat, pred, xlab="Observed Values", ylab="Predicted Values") > abline(a=0, b=1)
预测结果如下:
由上图可知,模型虽然也有离群点,但是大部分的数据都是落在直线上的,也就说明模型建立的比较好,能较好的拟合数据。
###4、非线性回归
如果说线性模型是拟合拟合一条最靠近数据点的直线,那么非线性模型就是通过数据拟合一条曲线。在R中可以使用函数nls()建立一个非线性回归模型,具体的使用可以通过输入'?nls()'查看该函数的文档。