《Python 数据分析》笔记——pandas
Pandas
pandas是一个流行的开源Python项目,其名称取panel data(面板数据)与Python data analysis(Python 数据分析)之意。
pandas有两个重要的数据结构:DataFrame和Series
pandas数据结构之DataFrame
pandas的DataFrame数据结构是一种带标签的二维对象,与Excel的电子表格或者关系型数据表非常相似。
可以用下列方式来创建DataFrame:
1.从另一个DataFrame创建DataFrame
2.从具有二维形状的Numpy数组或者数组的复合结构来生成DataFrame
3.类似地,可以用pandas的另一种数据结构Series来创建DataFrame.关于Series,后文介绍
4.DataFrame也可以从类似CSV之类的文件来生成
考察pandas的DataFrame及其各种属性
(1)首先,将数据文件载入DataFrame,并显示其内容:
from pandas.io.parsers import read_csv df=read_csv("WHO_first9cols.csv") print("Dataframe",df)
(2)DataFrame有一个属性,以元组的形式来存放DataFrame的形状数据,这与ndarray非常相似,我们可以查询一个DataFrame的行数
print("shape",df.shape) print("Length",len(df))
(3)下面通过其他属性来考察各列的标题与数据类型
print("Column Headers",df.columns) print("Data types",df.dtypes)
(4)pandas的DataFrame带有一个索引,类似于关系型数据库中数据表的主键(primary key)。对于这个索引,我们既可以手动规定,也可以让pandas自动创建。访问索引时,使用相应的属性即可
print("Index",df.index)
(5)有时我们希望遍历DataFrame的基础数据,如果使用pandas的迭代器,遍历列值的效率可能会很低。更好的解决方案是从基础的Numpy数组中提取这些数值,然后进行相应的处理。不过,pandas的DataFrame的某一个属性可以在这方面为我们提供帮助
print("Values",df.values)
Pandas数据结构之Series
pandas的Series数据结构是由不同类型的元素组成的一维数组,该数据结构也具有标签。可以通过下列方式来创建pandas的Series数据结构。
1.由Python的字典来创建Series
2.由Numpy数组来创建Series
3.由单个标量来创建
创建Series数据结构时,可以向构造函数递交一组轴标签,这些标签通常称为索引,是一个可选参数。默认情况下,如果使用Numpy数组作为输入数据,那么pandas会将索引值从0开始递增。如果传递给构造函数的数据是一个Python字典,那么这个字典的键会经排序后变成相应的索引;如果输入数据是一个标量值,那么就需要由我们来提供相应的索引。索引中的每一个新值都要输入一个标量值。pandas的Series和DataFrame数据类型接口的特征和行为是从Numpy数组和Python字典那里借用来的
(1)首先,选中输入文件中的第一列,即Country列;然后显示这个对象在局部作用域中的类型
country_col=df["Country"] print("Type df",type(df)) print("Type country col",type(country_col))
(2)pandas的Series数据结构不仅共享了DataFrame的一些属性,还另外提供了与名称有关的一个属性。
print("Series shape",country_col.shape) print("Series index",country_col.index) print("Series values”,country_col.values) print("Series name",country_col.name)
(3)为了演示Series的切片功能,这里以截取Series变量Country中的最后两个国家为例进行说明
print("Last 2 countries",country_col[-2:]) print("Last 2 countries type",type(country_col[-2:]))
(4)Numpy的函数同样适用于pandas的DataFrame和Series数据结构
可以在DataFrame、Series和Numpy数组之间进行各种类型的数值运算。
利用pandas查询数据:
(1)head()和tail()这两个函数的作用类似于UNIX系统中同名的两个命令,即选取DataFrame的前n和后n个数据记录,其中n是一个整型参数:
print("Head 2",sunspots.head(2)) print("Tail 2",sunspots.tail(2))
(3)下面用最近的日期来查询最近一年太阳黑子的相关数据:
last_data=sunspots.index[-1] print("Last value",sunspots.loc[last_date])
(4)下面介绍如何通过YYYYMMDD格式的日期字符串来查询日期,具体如下所示:
print(“Values slice by date”,sunspots[“20020101”:”20131231”])
(5)索引列表也可用于查询
print("Slice from a list of indices",sunspots.iloc[[2,4,-4,2]])
(6)要想选择标量值,有两种方法,这里给出的是速度明显占优势的第二种方法。它们需要两个整数作为参数,其中第一个整数表示行,第二个整数表示列:
print("Scalar with Iloc",sunspots.iloc[0,0]) print("Scalar with iat",sunspots.iat[1,0])
(7)查询布尔型变量的方法与SQL的Where子句非常接近
print("Boolean selection",sunspots[sunspots>sunspots.mean()])
利用pandas的DataFrame进行统计计算
pandas的DataFrame数据结构为我们提供了若干统计函数。
describe:这个方法将返回描述性统计信息
count:这个方法将返回非NaN数据项的数量
mad:这个方法用于计算平均绝对偏差,即类似于标准差的一个有力统计工具
median:这个方法用于返回中位数
min:这个方法将返回最小值
max:这个方法将返回最大值
mode:这个方法将返回众数
std:这个方法将返回标准差
var:这个方法将返回方差
skew:这个方法用来返回偏态系数,该系数表示的是数据分布的对称程度
kurt:这个方法将返回峰态系数,该系数用来反映数据分布曲线顶端尖峭或扁平程度
利用pandas的DataFrame实现数据聚合
(1)为Numpy的随机数生成器指定种子,以确保重复运行程序时生成的数据不会走样
import pandas as pd from numpy.random import seed from numpy.random import rand from numpy.random import random_integers import numpy as np seed(42) df=pd.DataFrame({'Weather':['cold','hot','cold','hot','cold','hot','cold'],'Food':['soup','soup','icecream','chocolate','icecream','icecream','soup'],'Price':10*rand(7),'Number':random_integers(1,9,size=(7,))}) print(df)
(2)通过Weather 列为数据分组,然后遍历各组数据
weather_group=df.groupby('Weather') i=0 for name,group in weather_group: i=i+1 print("Group",i,name) print(group)
(3)变量Weather_group是一种特殊的pandas对象,可由groupby()生成。这个对象为我们提供了聚合函数,下面展示它的使用方法:
print("Weather group first",weather_group.first()) print("Weather_group last",weather_group.last()) print("Weather_group mean",weather_group.mean())
(4)恰如利用数据库的查询操作那样,也可以针对多列进行分组
(5)通过agg()方法,可以对数据组施加一系列的Numpy函数
print("WF Aggregrated\n",weather_group.agg([np.mean,np.median]))
DataFrame的串联与附加操作
数据库的数据表有内部连接和外部连接两种连接操作类型。实际上,pandas的DataFrame也有类似的操作,因此我们也可以对数据行进行串联和附加。我们将使用前面章节中的DataFrame来练习数据行的串联和附加操作
函数concat()的作用是串联DataFrame,如可以把一个由3行数据组成的DataFrame与其他数据行串接,以便重建原DataFrame:
print("Concat Back together\n",pd.concat([df[:3],df[3:]]))
为了追加数据行,可以使用append()函数:
print("Appending rows\n",df[:3].append(df[5:]))
连接DataFrames
pandas提供的merge()函数或DataFrame的join()实例方法都能实现类似数据库的连接操作功能。默认情况下,join()实例方法会按照索引进行连接,不过,有时不符合我们的要求
虽然,pandas支持所有的这些连接类型(内部连接、左外连接、右外连接与完全外部连接等操作)
(1)用merge()函数按照员工编号进行连接处理
print("Merge() on key\n",pd.merge(dests,tips,on='EmpNr'))
(2)用join()方法执行连接操作时,需要使用后缀来指示左操作对象和右操作对象:
print("Dests join() tips\n",dests.join(tips,lsuffix='Dest',rsuffix='Tips'))
这个方法会连接索引值,因此得到的结果与SQL内部连接会有所不同
(3)用merge()执行内部连接时,更显式的方法如下所示:
print("Inner join with merge()\n",pd.merge(dests,tips,how='inner'))
只要稍作修改,就可以变成完全外部连接:
print("Outer join\n",pd.merge(dests,tips,how='outer'))
处理缺失数据问题
对于pandas来说,它会把缺失的数值标为NaN,表示None;还有一个类似的符号是NaT,不过它代表的是datetime64型对象。对NaN这个数值进行算数运算时,得到的结果还是NaN。
pandas的isnull()函数可以帮我们检查缺失的数据,使用方法如下。
print("Null values\n",pd.isnull(df))
类似地,可以用DataFrame的notnull()方法来考察非缺失数据:
print("Not Null Values\n",df.notnull())
通过fillna()方法,可以用一个标量(如0)来替换缺失数据,尽管有时可以用0替换缺失数据,但是事情并不总是如此
print("zero filled\n",df.fillna(0))
数据透视表
数据透视表可以从一个平面文件中指定的行和列中聚合数据,这种聚合操作可以是求和、求平均值、求标准差等运算
由于pandas API已经为我们提供了顶级pivot_table()函数以及相应的DataFrame方法,所以,只要设置好aggfunc参数,就可以让这个聚合函数来执行Numpy中诸如sum()之类的函数。参数cols用来告诉pandas要对哪些列进行聚合运算。
print(pd.pivot_table(df,cols=['Food'],aggfunc=np.sum))