动手学数据分析 -- Task02_2
复习:在前面我们已经学习了Pandas基础,第二章我们开始进入数据分析的业务部分,在第二章第一节的内容中,我们学习了数据的清洗,这一部分十分重要,只有数据变得相对干净,我们之后对数据的分析才可以更有力。而这一节,我们要做的是数据重构,数据重构依旧属于数据理解(准备)的范围。
开始之前,导入numpy、pandas包和数据
# 导入基本库
import numpy as np
import pandas as pd
# 载入data文件中的:train-left-up.csv
df = pd.read_csv('./data/train-left-up.csv')
df
2 第二章:数据重构
2.4 数据的合并
2.4.1 任务一:将data文件夹里面的所有数据都载入,观察数据的之间的关系
#写入代码
text_left_up = pd.read_csv("data/train-left-up.csv")
text_left_down = pd.read_csv("data/train-left-down.csv")
text_right_up = pd.read_csv("data/train-right-up.csv")
text_right_down = pd.read_csv("data/train-right-down.csv")
#写入代码
text_left_up
text_left_down
text_right_up
text_right_down
【提示】结合之前我们加载的train.csv数据,大致预测一下上面的数据是什么
2.4.2:任务二:使用concat方法:将数据train-left-up.csv和train-right-up.csv横向合并为一张表,并保存这张表为result_up
#写入代码
list_up = [text_left_up,text_right_down]
result_up = pd.concat(list_up,axis=1)
result_up
2.4.3 任务三:使用concat方法:将train-left-down和train-right-down横向合并为一张表,并保存这张表为result_down。然后将上边的result_up和result_down纵向合并为result。
#写入代码
list_up = [text_right_up,text_right_down]
result_down = pd.concat(list_up,axis=0)
result = pd.concat([result_up,result_down])
result
2.4.4 任务四:使用DataFrame自带的方法join方法和append:完成任务二和任务三的任务
#写入代码
resul_up = text_left_up.join(text_right_up)
result_down = text_left_down.join(text_right_down)
result = result_up.append(result_down)
result
2.4.5 任务五:使用Panads的merge方法和DataFrame的append方法:完成任务二和任务三的任务
#写入代码
result_up = pd.merge(text_left_up,text_right_up,left_index=True,right_index=True)
result_down = pd.merge(text_left_down,text_right_down,left_index=True,right_index=True)
result = resul_up.append(result_down)
result
【思考】对比merge、join以及concat的方法的不同以及相同。思考一下在任务四和任务五的情况下,为什么都要求使用DataFrame的append方法,如何只要求使用merge或者join可不可以完成任务四和任务五呢?
2.4.6 任务六:完成的数据保存为result.csv
#写入代码
result.to_csv('result.csv')
2.5 换一种角度看数据
2.5.1 任务一:将我们的数据变为Series类型的数据
#写入代码
text = pd.read_csv('result.csv')
# 代码写在这里
unit_result=text.stack().head(20)
unit_result
#写入代码
unit_result.to_csv('unit_result.csv')
复习:在前面我们已经学习了Pandas基础,第二章我们开始进入数据分析的业务部分,在第二章第一节的内容中,我们学习了数据的清洗,这一部分十分重要,只有数据变得相对干净,我们之后对数据的分析才可以更有力。而这一节,我们要做的是数据重构,数据重构依旧属于数据理解(准备)的范围。
开始之前,导入numpy、pandas包和数据
# 导入基本库
import numpy as np
import pandas as pd
# 载入上一个任务人保存的文件中:result.csv,并查看这个文件
pd.read_csv('result.csv')
2 第二章:数据重构
第一部分:数据聚合与运算
2.6 数据运用
2.6.1 任务一:通过教材《Python for Data Analysis》P303、Google or anything来学习了解GroupBy机制
#写入心得
# 举例
employees = ["小明","小周","小孙"] # 3位员工
df=pd.DataFrame({
"employees":[employees[x] for x in np.random.randint(0,len(employees),9)], # 在员工中重复选择9个人
"salary":np.random.randint(800,1000,9), # 800-1000之间的薪资选择9个数值
"score":np.random.randint(6,11,9) # 6-11的分数选择9个
})
# 根据员工姓名进行分组
employeesGroups = df.groupby("employees")
type(employeesGroups) # pandas.core.groupby.generic.DataFrameGroupBy
# 查看DataFrameGroupBy内部情况
list(employeesGroups) # DataFrameGroupBy对象内部是个列表,每个元素内部是个元组对象:
xiaozhou = list(employeesGroups) [0]
type(xiaozhou) # tuple
list(xiaozhou)
# 每个元组对象中第一个元素是名字,第二个元素是DataFrame对象
list(xiaozhou)[0] # '小周'
list(xiaozhou)[1] # DataFrame
# 遍历
# for name, group in employeesGroups:
# print(name)
# print(group)
# get_group()
employeesGroups.get_group("小孙")
# 对同一个列名使用不同聚合函数:agg
df1 = df.groupby("employees")["score"].agg(["sum","max","min","mean","size"]).reset_index()
# df1
# 聚合函数:min/max/mean/median/std/var(房差)/count
df.groupby("employees")["salary"].sum() # 写法1
df.groupby("employees").agg({"salary":"sum"}) # 写法2
salary_score = df.groupby("employees").agg({"salary":"sum",
"score":"mean"
})
# salary_score
df.groupby("employees").agg({"salary":"sum","score":"mean"}).reset_index().rename(columns={"salary":"salary_sum","score":"score_mean"})
# 统计列名的非重复个数 去重
df.groupby("employees").agg({"score":"unique"}).reset_index() # 具体值
df.groupby("employees").agg({"score":"nunique"}).reset_index() # 个数
# transform函数
df["score_mean"] = df.groupby("employees")["score"].transform("mean") # transform后面指定需要聚合的函数
df
# transform与agg的区别
# transform是在原数据基础上加新的列,agg是根据分组字段和聚合函数生成新的数据帧
# transform的数据是填充到分组对象的每列上,agg只是生成了一个最终的聚合结果
#### 2.4.2:任务二:计算泰坦尼克号男性与女性的平均票价
# 写入代码
text = pd.read_csv('result.csv')
df = text['Fare'].groupby(text["Sex"])
means = df.mean()
means
在了解GroupBy机制之后,运用这个机制完成一系列的操作,来达到我们的目的。
下面通过几个任务来熟悉GroupBy机制。
2.4.3:任务三:统计泰坦尼克号中男女的存活人数
# 写入代码
text = pd.read_csv('result.csv')
cnt = text['Survived'].groupby(text["Sex"]).sum()
cnt
2.4.4:任务四:计算客舱不同等级的存活人数
# 写入代码
text = pd.read_csv('result.csv')
cnt2 = text['Survived'].groupby(text["Pclass"]).sum()
cnt2
【提示:】表中的存活那一栏,可以发现如果还活着记为1,死亡记为0
【思考】从数据分析的角度,上面的统计结果可以得出那些结论
思考心得
女性存活的人数比男性多、买不同客舱存货的人数无规律
【思考】从任务二到任务三中,这些运算可以通过agg()函数来同时计算。并且可以使用rename函数修改列名。你可以按照提示写出这个过程吗?
#思考心得
text = pd.read_csv('result.csv')
text.groupby('Sex').agg({'Fare': 'mean', 'Pclass': 'count'}).rename(columns=
{'Fare': 'mean_fare', 'Pclass': 'count_pclass'})
2.4.5:任务五:统计在不同等级的票中的不同年龄的船票花费的平均值
# 写入代码
text = pd.read_csv('result.csv')
# text.groupby(['Pclass', 'Age']).agg({'Fare': 'mean'}).rename(columns = {'Fare': 'mean_fare'}) # 写法一
text.groupby(['Pclass','Age'])['Fare'].mean() # 写法二
2.4.6:任务六:将任务二和任务三的数据合并,并保存到sex_fare_survived.csv
# 写入代码
result = pd.merge(means, cnt, on='Sex') # on参数:用于连接的列名称
result
2.4.7:任务七:得出不同年龄的总的存活人数,然后找出存活人数最多的年龄段,最后计算存活人数最高的存活率(存活人数/总人数)
# 写入代码
# 得出不同年龄的总的存活人数
text = pd.read_csv('result.csv')
survived_age = text.groupby('Age')['Survived'].sum()
# 写入代码
# 找出存货人数最多的年龄段
survived_age[survived_age.values==survived_age.max()]
# 写入代码
# 计算总人数
_sum = text['Survived'].sum()
# 写入代码
# 计算存活率
precetn = survived_age.max()/_sum
precetn