线性回归
线性回归
美国房价问题
Alex经过一年的努力,终于拿到了美国波士顿麻省理工学院的研究生录取通知书,在远离家乡的地方上学,Alex想在波士顿买一套房子,他手头有一些积蓄,在网上找了几套自己满意的房子,但是又不敢相信网上的价格,人生地不熟的,Alex怕被宰,就从自己做数据分析的朋友Bachelor手里要到了过去几年一些有关波士顿房价的资料。
import numpy as np
import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
!dir
驱动器 G 中的卷是 Code
卷的序列号是 AC81-1911
G:\Python\PythonAI\第二模块_人工智能之机器学习、智能玩具\Linear_Regression_Learn 的目录
2020/02/17 21:36 <DIR> .
2020/02/17 21:36 <DIR> ..
2020/01/27 09:01 <DIR> .ipynb_checkpoints
2019/12/15 21:33 13,370 data_description.txt
2020/02/10 10:16 195,892 HousePrices.zip
2020/02/17 21:36 43,963 Linear_Regression_Learn.ipynb
2019/12/15 21:33 31,939 sample_submission.csv
2020/02/10 09:08 35,527 submisson.csv
2019/12/15 21:33 451,405 test.csv
2019/12/15 21:33 460,676 train.csv
2020/02/14 16:40 565,862 线性回归.pptx
8 个文件 1,798,634 字节
3 个目录 92,257,865,728 可用字节
house_prices = pd.read_csv("train.csv")
Bachelor给的数据非常非常多,包含各个方面。
house_prices
Id | MSSubClass | MSZoning | LotFrontage | LotArea | Street | Alley | LotShape | LandContour | Utilities | ... | PoolArea | PoolQC | Fence | MiscFeature | MiscVal | MoSold | YrSold | SaleType | SaleCondition | SalePrice | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 60 | RL | 65.0 | 8450 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 2 | 2008 | WD | Normal | 208500 |
1 | 2 | 20 | RL | 80.0 | 9600 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 5 | 2007 | WD | Normal | 181500 |
2 | 3 | 60 | RL | 68.0 | 11250 | Pave | NaN | IR1 | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 9 | 2008 | WD | Normal | 223500 |
3 | 4 | 70 | RL | 60.0 | 9550 | Pave | NaN | IR1 | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 2 | 2006 | WD | Abnorml | 140000 |
4 | 5 | 60 | RL | 84.0 | 14260 | Pave | NaN | IR1 | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 12 | 2008 | WD | Normal | 250000 |
... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
1455 | 1456 | 60 | RL | 62.0 | 7917 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 8 | 2007 | WD | Normal | 175000 |
1456 | 1457 | 20 | RL | 85.0 | 13175 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | MnPrv | NaN | 0 | 2 | 2010 | WD | Normal | 210000 |
1457 | 1458 | 70 | RL | 66.0 | 9042 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | GdPrv | Shed | 2500 | 5 | 2010 | WD | Normal | 266500 |
1458 | 1459 | 20 | RL | 68.0 | 9717 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 4 | 2010 | WD | Normal | 142125 |
1459 | 1460 | 20 | RL | 75.0 | 9937 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 6 | 2008 | WD | Normal | 147500 |
1460 rows × 81 columns
为了方便分析呢,先提取其中三个特征作为分析素材,分别是LotArea表示房屋面积,TotalBsmtSF表示地下室的总面积,SalePrice表示的就是房价了。
house_prices[['LotArea', 'TotalBsmtSF', 'SalePrice']]
LotArea | TotalBsmtSF | SalePrice | |
---|---|---|---|
0 | 8450 | 856 | 208500 |
1 | 9600 | 1262 | 181500 |
2 | 11250 | 920 | 223500 |
3 | 9550 | 756 | 140000 |
4 | 14260 | 1145 | 250000 |
... | ... | ... | ... |
1455 | 7917 | 953 | 175000 |
1456 | 13175 | 1542 | 210000 |
1457 | 9042 | 1152 | 266500 |
1458 | 9717 | 1078 | 142125 |
1459 | 9937 | 1256 | 147500 |
1460 rows × 3 columns
理工科出生的Alex想起了曾经学过的知识,想计算一下自己喜欢的那几套房子的大概房价是多少,到买房的时候心里好有点数。
于是他把数据重新处理了一下。
sample_test_data = house_prices[['LotArea', 'TotalBsmtSF', 'SalePrice']].copy()
sample_test_data.rename(columns={'LotArea':'x1', 'TotalBsmtSF':'x2', 'SalePrice':'y'}, inplace=True)
sample_test_data
x1 | x2 | y | |
---|---|---|---|
0 | 8450 | 856 | 208500 |
1 | 9600 | 1262 | 181500 |
2 | 11250 | 920 | 223500 |
3 | 9550 | 756 | 140000 |
4 | 14260 | 1145 | 250000 |
... | ... | ... | ... |
1455 | 7917 | 953 | 175000 |
1456 | 13175 | 1542 | 210000 |
1457 | 9042 | 1152 | 266500 |
1458 | 9717 | 1078 | 142125 |
1459 | 9937 | 1256 | 147500 |
1460 rows × 3 columns
作为一名优秀的理科生,看见熟悉的x和y觉得舒服多了。
接下来就是建立一个数学模型了,简单的说就是找一个符合x1、x2与y关系的式子,这个简单嘛,高中就学过的东西,待定系数法呗,只不过从一个x变成了x1、x2而已,那设两个未知数不就可以了。
设:
这公式那么一写阿,瞅起来像是一个线性模型,简单理解也就是一条线嘛。
再仔细一看,这条线还必须过原点,那就麻烦了,还不能确定这个x1、x2跟y组成的函数图像一定过原点阿,必须要经过原点这个限制可就太大了。
没办法,再加一个未知数吧,把方程改成
这样以来,在没确定a、b、c之前,函数图像可以是空间中任意的。
接下来就是把a、b、c确定下来了,只要它们三个确定下来就好办了,把自己喜欢的房子的平均房间数和到五个波士顿就业中心的平均距离直接代入x1、x2,不就能计算出来一个大概的房价y了么。
看着
这个式子,Alex自己都笑了,这玩意是高中才写的方程,自己孬好也是上过大学的人,于是把方程又改了改:
这样,如果跟房价有关的x特征很多的话,就能把方程写成矩阵相乘的形式了:
这个θi阿,有个学名叫权重项。
这个θ0x0呢,就是之前写的θ0,让x0=1不就是咯。
也就是说,我得在我的数据里再加一行x0的数据,值全部设置为1就行了。
sample_test_data['x0'] = 1
sample_test_data = sample_test_data[['y', 'x0', 'x1', 'x2']] # 更换一下y、x1、x2、x0的顺序,方便看而已,无意义
sample_test_data
y | x0 | x1 | x2 | |
---|---|---|---|---|
0 | 208500 | 1 | 8450 | 856 |
1 | 181500 | 1 | 9600 | 1262 |
2 | 223500 | 1 | 11250 | 920 |
3 | 140000 | 1 | 9550 | 756 |
4 | 250000 | 1 | 14260 | 1145 |
... | ... | ... | ... | ... |
1455 | 175000 | 1 | 7917 | 953 |
1456 | 210000 | 1 | 13175 | 1542 |
1457 | 266500 | 1 | 9042 | 1152 |
1458 | 142125 | 1 | 9717 | 1078 |
1459 | 147500 | 1 | 9937 | 1256 |
1460 rows × 4 columns
毕竟阿,这个方程是咱自己写的,假设最后算出来了一套θi,为了拟合大部分的数据,按照θi计算出来的房价跟真实的房价之间还是有一定的差距的。
如果说对比真实的房价数据,根据咱们这个方程计算出来的房价跟真实的房价相差无几,那不就是想要的结果么,我输入想要买的房子的x特征值,计算出来的房价y就越接近真实房价。
当然这是后话,现在咱们的目的是啥,就是让通过咱们方程计算出来的房价跟真实的房价的差值越小越好嘛。
对于每一套房子,y(i)表示真实的房价,通过θTxi计算出来的是模型预测房价,εi是预测房价跟真实房价之间的差距,当然εi有可能是正数也有可能是负数。
目的什么来着,让差距越来越小对吧,也就是让εi越来越小,当然这个越来越小是说差距越来越小,也就是绝对值越来越接近于0。
给方程移下项:
这时候咱们再来回顾一下阿,对于方程
θTxi是表示系数,如果在坐标系表示的话是由x确定一个图像。
当只有一个x的时候,图像是一维的,也就是平面上的一条线;
当有两个x的时候,图像是二维的,也就是空间里的一个面;
当有更多x的时候,我是想象不出来了……
就拿只有两个x举例随便画一个图像:
在这个图像里,假设青蓝色的那个平面表示的就是θTxi,真实房价y(i)在图中表示的红色的点。
这样看就清晰了,目的是让
的绝对值越小越好,表示在图像上就是红色的点越接近青蓝色的平面越好。
这里要明确一个思想,真实房价是确定了,也就是y(i)、红色的点是确定的,而青蓝色的平面θTxi才是变动的,也就是说,在空间里,我们要移动平面来拟合点,找到哪一个平面到所有点的距离最小。
这个预测房价与真实房价之间的距离,也就是误差ε(i)是独立并同分布,并且服从均值为0方差为σ2的高斯分布。
这里突然间冒出来三个不熟悉的名词解释一下阿:
独立:各个样本点之间是相互独立的。也就是说,Alex去波士顿买房,跟Bachelor早波士顿买房,只要两个人买的不是同一套房子,它们之间是没有关系的,买到的房价多少只跟各个房东有关。
同分布:数据的来源必须相同。Alex是想在波士顿买房,所以需要的是过去几年波士顿的房价数据,如果拿得是纽约的房价数据,显然是不符合需求的,建立的数学模型也不准确。
高斯分布:也就是正态分布,一种连续型随机变量的概率密度函数。先来看一下正态分布的函数图像:
看起来是不是特别圆润,符合一种对称美,是不是觉得手感肯定特别好。
为什么要用高斯分布?
其实我们一开始并不能确定误差一定服从高斯分布,只不过阿,根据前人的经验,大多数误差经过测量被证实是服从高斯分布的,说明高斯分布对误差假设来说是一种很好的模型。
在自然界与生产中,一些现象受到许多相互独立的随机因素的影响,也就是我们买房过程中的每套住房的平均房间数、到五个波士顿就业中心的平均距离,如果每个因素所产生的影响都很微小,总的影响可以看作是服从正态分布的。
当然上面那个高斯分布图看起来不是很清晰,我们可以用numpy和matplotlib自己来画一个简单的高斯分布函数图像。
在数学上,正态分布的概率密度函数:
当u=0,σ=1时,正态分布称为标准正态分布:
def gaussian(x, mean, sigma):
return (np.exp((-(x - mean) ** 2) / (2 * sigma ** 2)) / (np.sqrt(2 * np.pi) * sigma))
mean, sigma = 0, 1
x = np.arange(-3, 3, 0.001)
plt.plot(x, gaussian(x, mean, sigma))
plt.show()
从高斯分布图可知,[-2,2]之间的分布占大部分,啥意思呢,说的其实是预测房价跟真实房价大多数情况下都是差异不大的。
在我们的房价预测问题中,均值μ=0,所以可以把公式写成:
之前所假设的是误差ε(i)服从正态分布,所以ε(i)就是正态分布函数中的x,我们再把ε(i)代入到公式中:
我们把之前推导出的结果
也就是预测房价与真实房价之间的差距,再代入到公式中:
在这个公式中,y(i)表示的真实房价,是已知的,x(i)呢,是每间房子的特征,也就是房屋的平均房间数之类的,也是已知的。
也就是说,整个公式中,只有θT是未知的。
这样的话,咱们把自变量换一下,整成一个关于未知数θ的函数:
我们一开始的目的是想让误差变小,在正态分布中,对于自变量x,绝对值越小,越接近于0,因变量的值越大。
好了,现在我们的目的进阶了一下,让L(θ)的值越大越好。
那么,怎么才能让L(θ)的值变大呢?
我们不是有往年的波士顿房价资料么,把以前的一些资料全部代入进去不就行了。
代入一个,得到一个L(θ1),再代入一个得到一个L(θ2),然后一直代入,一直代入……
咱们是想让建立的数学模型最好能够拟合所有的样本,也就是说,让所有的L(θ)都最大。
现在把所有的L(θ)整合起来,做一个累乘:
为什么要做累乘而不是累加呢?
这个其实跟数学有关,多个样本之间的累乘依然保留原本的分布模式,并且会使常见的概率更常见,这个概率对所有的样本关联性更强。
累加当然可以用,假如说L(θi)={1,2,3,4,5,6,7,8,9},把所有的数累加起来,其结果sum_L(θi)=45,但是如果把所有的结果累乘起来,其结果ride_L(θi)=362880。
这个时候,如果缺了一个数7,那么sum_L(θi)’=38,ride_L(θi)’=51840,累乘的结果降低的更多,说明累乘的结果对每一个样本的关联性更大。
对于L(θ),它有一个学名叫似然函数。
来看一下定义:似然函数也是一个概率密度函数L(θ∣x),表示在样本值x已知的情况下求最可能的θ值;实际运用中,根据我们的样本去估计参数值,找到最最符合的参数,使得与我们的数据组合后恰好是真实值。
暂时不需要去深刻的理解似然函数的概念,咱现在的主要目的是买房。
现在得到了一个累乘的结果L(θ),但是累乘算起来比较麻烦,咱们可以把累乘转换为累加,方法是对等式两边同时取对数:
虽然转换了,但是效果还是一样的,只是通过累加来计算而已。
根据对数运算的性质,可以将累乘计算提到ln前边,变成累加运算:
再看一下右式ln运算的真数:
这也是一个乘法运算,而且前一项
是一个常数,后一项
根据对数运算的性质可以消去e。
化简一下,公式就变成了:
之前我们分析过了,整个式子里只有θ𝑇是未知数,所以可以先把常数项能化简的化简,能提前的提前,将公式化简为:
这时候再看一下公式的常数项:
把1/2保留到变量项里,后续有用。
我们的目的是让似然函数L(θ)越大越好,也就是lnL(θ)越大越好,也就是让
越小越好。
写成目标函数:
你可能觉得,
这个式子不就是之前推导出来的么,整了那么一大圈,最后的出来的还是这个。
实则不然,现在要计算的是:J(θ)的最小值,
当x只有一维取值的时候,这是一个二次函数,用高中的话讲就是一个开口向上的二次函数,有最小值,怎么求呢?
求导,导数为0的时候取极值,极值中存在最值。
我们得到的目标函数J(θ)不是简单的二次函数,而是将所有的x(i)映射到一个x上。
现在得到了目标函数:
转换成矩阵相乘的形式并化简一下:
咱们的未知数是θ,现在是一个关于θ的函数,对θ求导得:
令J’(θ)=0得:
现在,我们终于得到得到最终的θ了,为什么说最终了呢?X是已经获得的房屋的数据,y是房价,都是已知的,直接代入就OK了。
有了公式,现在回头来看看真实的问题和真实的数据该怎么处理:
House Prices: Advanced Regression Techniques
房价:先进的回归技术
housing = pd.read_csv("train.csv")
housing
Id | MSSubClass | MSZoning | LotFrontage | LotArea | Street | Alley | LotShape | LandContour | Utilities | ... | PoolArea | PoolQC | Fence | MiscFeature | MiscVal | MoSold | YrSold | SaleType | SaleCondition | SalePrice | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 60 | RL | 65.0 | 8450 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 2 | 2008 | WD | Normal | 208500 |
1 | 2 | 20 | RL | 80.0 | 9600 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 5 | 2007 | WD | Normal | 181500 |
2 | 3 | 60 | RL | 68.0 | 11250 | Pave | NaN | IR1 | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 9 | 2008 | WD | Normal | 223500 |
3 | 4 | 70 | RL | 60.0 | 9550 | Pave | NaN | IR1 | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 2 | 2006 | WD | Abnorml | 140000 |
4 | 5 | 60 | RL | 84.0 | 14260 | Pave | NaN | IR1 | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 12 | 2008 | WD | Normal | 250000 |
... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
1455 | 1456 | 60 | RL | 62.0 | 7917 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 8 | 2007 | WD | Normal | 175000 |
1456 | 1457 | 20 | RL | 85.0 | 13175 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | MnPrv | NaN | 0 | 2 | 2010 | WD | Normal | 210000 |
1457 | 1458 | 70 | RL | 66.0 | 9042 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | GdPrv | Shed | 2500 | 5 | 2010 | WD | Normal | 266500 |
1458 | 1459 | 20 | RL | 68.0 | 9717 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 4 | 2010 | WD | Normal | 142125 |
1459 | 1460 | 20 | RL | 75.0 | 9937 | Pave | NaN | Reg | Lvl | AllPub | ... | 0 | NaN | NaN | NaN | 0 | 6 | 2008 | WD | Normal | 147500 |
1460 rows × 81 columns
数据预处理
拿到数据之后,不是上来就要进行计算的,首先要做的就是数据预处理。
首先,我们来分析一下每一个x特征:
MSSubClass: Identifies the type of dwelling involved in the sale.
MSSubClass:标识参与销售的住宅类型。
20 1-STORY 1946 & NEWER ALL STYLES
1946年1层和更新的所有样式
30 1-STORY 1945 & OLDER
1945年1层及以上
40 1-STORY W/FINISHED ATTIC ALL AGES
1层,带成品阁楼,所有年龄段
45 1-1/2 STORY - UNFINISHED ALL AGES
1-1/2层-未完成所有年龄段
50 1-1/2 STORY FINISHED ALL AGES
1-1/2层完成所有年龄段
60 2-STORY 1946 & NEWER
1946年2层及以上
70 2-STORY 1945 & OLDER
1945年2层及以上
75 2-1/2 STORY ALL AGES
2-1/2层,所有年龄段
80 SPLIT OR MULTI-LEVEL
拆分或多级
85 SPLIT FOYER
分体式门厅
90 DUPLEX - ALL STYLES AND AGES
复式-所有样式和年龄
120 1-STORY PUD (Planned Unit Development) - 1946 & NEWER
一层建筑(计划单元开发)-1946年及更新版本
150 1-1/2 STORY PUD - ALL AGES
1-1/2层布德-所有年龄段
160 2-STORY PUD - 1946 & NEWER
两层楼的PUD-1946及更新版本
180 PUD - MULTILEVEL - INCL SPLIT LEV/FOYER
PUD-多级-包括分离式LEV/门厅
190 2 FAMILY CONVERSION - ALL STYLES AND AGES
2家庭转换-所有风格和年龄
虽然没太看懂啥意思,但是大致就是MSSubClass越高越好,从一两层的到复式再到什么家庭转换,看着就感觉挺贵的样子。
先看一下MSSubClass这一列有没有缺失值。
housing["MSSubClass"].isnull().sum()
0
MSSubClass这一列数据状况良好,没有缺失值,看一下它的分布情况。
plt.scatter(housing["MSSubClass"], housing["SalePrice"], )
plt.show()
这么一看分布的话,我们之前的猜测不成立啊,MSSubClass和SalePrice不是正相关的关系,那它俩的关系先待定。
通过散点图虽然能看到不同房价的分布,但是有些地方很多点重合在一起,很难看出房价密度。
这时候,我们给MSSubClass和SalePrice添加一个抖动,抖动只是让它在图上的显示位置稍微偏离一下,并不会更改真实的数据,然后再设置一下透明度,重叠的点越多,图像颜色越深。
sns.regplot(data=housing, x="MSSubClass", y="SalePrice", x_jitter=3, scatter_kws={"alpha":0.3})
如图可见,大部分MSSubClass都在0~100之内,而MSSubClass与SalePrice的拟合线接近于一条直线,而且有点偏向于负相关。
MSZoning: Identifies the general zoning classification of the sale.
MSZoning:标识销售的一般分区分类。
A Agriculture
农业
C Commercial
商业
FV Floating Village Residential
流动村住宅
I Industrial
工业
RH Residential High Density
住宅高密度
RL Residential Low Density
住宅低密度
RP Residential Low Density Park
住宅低密度公园
RM Residential Medium Density
住宅中密度
上来还是先看有没有缺失值:
housing["MSZoning"].isnull().sum()
housing["MSZoning"].value_counts()
没有缺失值,还是看一下MSZoning跟SalePrice的关系,但是我们看一下数据:
housing["MSZoning"]
数据并不是常规的数值,而是字母变量,我们要把字母变量对应到数值。
确定一个简单的对应关系:
1 <—— A Agriculture
2 <—— C Commercial
3 <—— FV Floating Village Residential
4 <—— I Industrial
5 <—— RH Residential High Density
6 <—— RL Residential Low Density
7 <—— RP Residential Low Density Park
8 <—— RM Residential Medium Density
housing.loc[housing["MSZoning"] == "A", "MSZoning"] = 1.0
housing.loc[housing["MSZoning"] == "C (all)", "MSZoning"] = 2.0
housing.loc[housing["MSZoning"] == "FV", "MSZoning"] = 3.0
housing.loc[housing["MSZoning"] == "I", "MSZoning"] = 4.0
housing.loc[housing["MSZoning"] == "RH", "MSZoning"] = 5.0
housing.loc[housing["MSZoning"] == "RL", "MSZoning"] = 6.0
housing.loc[housing["MSZoning"] == "RP", "MSZoning"] = 7.0
housing.loc[housing["MSZoning"] == "RM", "MSZoning"] = 8.0
housing["MSZoning"].value_counts()
sns.regplot(data=housing, x="MSZoning", y="SalePrice", x_jitter=0.4, scatter_kws={"alpha":0.3})
哎呀我去,我就随便一对应,没想到对应出来一个正相关。
LotFrontage: Linear feet of street connected to property
地块临街:连接到地产的街道的直线英尺
housing["LotFrontage"]
housing["LotFrontage"].isnull().sum()
终于找到一个含有缺失值的了,LotFrontage列含有259个缺失值,这时候,我们需要对缺失值做填充。
我比较喜欢的一种方案是利用均值和标准差的信息进行填充。
当然,并不是只有LotFrontage采用缺失值,所以我们可以把缺失值填充抽象成一个函数。
def fill_null(df, col):
mean = df[col].dropna().mean()
std = df[col].dropna().std()
null_sum = df[col].isnull().sum()
fill_num = np.random.randint(mean - std, mean + std, null_sum)
df.loc[df[col].isnull(), col] = fill_num
fill_null(housing, "LotFrontage")
sns.regplot(data=housing, x="LotFrontage", y="SalePrice", scatter_kws={"alpha":0.3})
这么一看的话,LotFrontage和SalePrice也是成正相关的关系。
LotArea: Lot size in square feet
housing["LotArea"].isnull().sum()
sns.regplot(data=housing, x="LotArea", y="SalePrice", scatter_kws={"alpha":0.4})
总结
找一下套路,对于每一个特征数据:
1.判断该列数据是否含有缺失值
1.1、如果不含有缺失值,继续后续操作
1.2、如果含有缺失值,对缺失值进行填充
2.判断该列数据是不是数值
2.1、如果是数值继续后续操作
2.2、如果不是数值,定义对应关系,将数据对应到数值
3.去除异常数据
4.绘制散点图和线性关系
那么接下来我们吧数据统一重新处理一下:
train_house = pd.read_csv("http://kaggle.shikanon.com/house-prices-advanced-regression-techniques/train.csv")
第一列数据是ID,是我们人为标注的数据,对房价并无影响,先把它单独抽离出来。
train_house_ID = train_house["Id"]
train_house.drop("Id", axis=1, inplace=True)
我们第一步要做的就是缺失值处理,缺失值处理有两种方案,一种是分析含缺失值的特征对任务有没有用,没用的特征直接删除,有用的特征依据缺失量,少则删除样本,多则用mean,median或mod补全;另一种方案是分析这些缺失值缺失的原因,并用一定方法将其转换为一类数据(成为类型变量的一个类型)。
na_count = train_house.isnull().sum().sort_values(ascending=False)
na_rate = na_count / len(train_house)
na_data = pd.concat([na_count,na_rate],axis=1,keys=['count','ratio'])
pd.set_option('display.max_rows',None) # 将pandas的输出数据不省略显示
print(na_data)
首先,如果某一特征的数据缺失量达到15%以上,那这项特征应该予以删除并认为数据集中不存在这样的特征。
也就是说我们并不会设法去填补这些特征的缺失值,因为假定它是不存在的,因此删除数据的 ’PoolQC’, ‘MiscFeature’, ‘Alley’, ‘Fence’, ‘FireplaceQu’和‘LotFrontage’这几列。
这应该不会导致数据的有效信息量下降,因为这些特征的字面含义似乎根本与房价无关,难怪会有这么多缺失值,而且这些特征的有效数据具有各种离群值。
其次,在剩下的含缺失值变量中,以Garage开头的5个GarageX特征具有相同数量的缺失值,据此推测他们可能代表的是同一组观测值,而关于Garage的信息,’GarageCars’已经能够很好地表征了,因此删除这几个特征,对BsmtX也可以进行同样的操作。
之后,对于MasVnrArea和MasVnrType,根据其字面意思我们认为它们并不重要,而且它们与YearBuilt和OverallQual有较强的相关性。因此,我们删除这两个特征也不会丢失任何信息。
然后,除了Electrical,其它无意义的含缺失值的变量我们都已经删除了,Electrical这个变量下只有一个样本带有缺失值,因此我们不妨删除带有这个缺失值的那各样本。
最后,经过我们的严密分析哈,所有的含有缺失值的特征都可以删除。
train_house.drop(na_data[na_data['count'] > 1].index, axis=1, inplace=True)
train_house.drop(train_house.loc[train_house['Electrical'].isnull()].index, inplace=True)
train_house.shape
第二步我们要做的就是讲数据中的字符串型特征映射为数值型特征,这样才能方便计算,但是我总不能一列一列的看是不是数值型数据然后再做数据对应吧,那还不如不学了,pandas给我提供好了这样的功能——factorize函数可以将Series中的标称型数据映射称为一组数字,相同的标称型映射为相同的数字。
举个简单的例子看一下factorize函数:
由上面可见,我们送入一串序列[‘b’, ‘b’, ‘a’, ‘c’, ‘b’],该函数做了什么事,其实,它是将送入的字符映射成数字,原则是相同的字符对应同一个数字。
比如上面,函数先处理 ‘b’,将其映射成 1, 然后处理第二个字符还是 ‘b’,因为已经映射成功,所以直接返回 1, 接着处理到 ‘a’,将其映射为 0,然后处理 ‘c’,将其映射成 2, 最后处理 ‘b’,已经映射过了,所以直接输出 1。
将上述输出汇总成序列,输出到 labels 中,codes里面其实就是存储我们输入序列中互异的元素,即上面的[‘a’, ‘b’, ‘c’]。
有了这个函数,就可以帮助我们将所有的非数值型数据转换为数值型数据:
for col in train_house.columns:
if train_house[col].dtypes == "object":
train_house[col], uniques = pd.factorize(train_house[col])
train_house.dtypes
所有的缺失值都被处理,所有的字符串型数据都被替换为数值型数据,这样就可以计算了。
我们把之前计算的θ公式拿过来:
y = train_house["SalePrice"]
X = train_house.drop('SalePrice', axis=1)
theta = np.dot(np.dot(np.linalg.inv(np.dot(X.T, X)), X.T), y)
theta.shape
求出了θ,我们就可以根据自己输入的特征预测房价了:
test_house = pd.read_csv("test.csv")
在计算之前,需要把测试集的数据做一遍跟训练集一样的处理:
test_house_ID = test_house["Id"]
test_house.drop("Id", axis=1, inplace=True)
test_house.drop(na_data[na_data['count'] > 1].index, axis=1, inplace=True)
for col in test_house.columns:
if test_house[col].dtypes == "object":
test_house[col], uniques = pd.factorize(test_house[col])
test_house[col].fillna(test_house[col].mean(), inplace=True)
test_house.shape
再把房价的计算公式拿过来:
# 不以科学计数显示:
np.set_printoptions(suppress = True)
Y = np.dot(test_house, theta)
submisson = pd.concat([test_house_ID, pd.Series(abs(Y))], axis=1, keys=["Id","SalePrice"])
submisson.to_csv("submisson.csv", index=False)
我们把submission提交到Kaggle的平台上,看看能获得什么样的分数:
结果显示并不是很好,当然,我们还有好多因素没有考虑,不过,线性回归,我们就先讲到这里,后续我们有更好的方法来解决房价问题。