Pandas 数据分析基础
Pandas
安装
- anaconda 安装:
- conda list pandas 查看是否已经安装
- conda install pandas
- conda update pandas
- pip 安装
- pip install pandas
- apt 安装
- sudo apt-get install python-pandas
测试是否安装成功
nosetests pandases
不成功会进行提醒,可以重新安装或者更新
pandas数据结构
- Series
- DataFrame
Series
1 声明series 对象
s = pd.Series([12,3,9,1])
s
s = pd.Series([12,52,4,2],index=['a','b','c','d'])
s.values
s.index
2 用numpy数组或其他对象定义
arr=np.array([1,2,3])
s=pd.Series(arr)
# 注意这里的s对象中的元素是对arr的引用,如果改变arr的值,s的值也会改变
# 用作字典
dic={'red':123,'blue',122,'green':129}
s.Series(dic)
3 筛选元素
s[s>8] # 对values的比较
s/2
np.log(s)
4 其他函数
s.unique() # 只出现一次
s.value_counts() # 统计数量
# 做筛选
s.isin([0,3])
s[s.isin([0,3])]
# 空和不空
s.isnull()
s.notnull()
DataFrame
和excel类似
创建Frame
data={'title1':[1,2,3],'title2':[5,4,3]}
frame=pd.DataFrame(data)
frame=pd.DataFrame(data,columns=['title1'])
# index 会自动生成索引也可以通过index属性进行更改
pd.DataFrame(data,index=['one','two','three']) # 个数需要匹配
选取元素
frame.columns
frame.index
frame.values
frame['title1'] or frame.title1
# 行
frame.ix[2]
frame.ix[[0,1]]
frame[0:2]
frame['title1'][2]
赋值
frame.index.name='id'
frame.columns.name='cols'
frame['title1'][3]= 3
ser=pd.Series(np.arange(5))
frame['new']=ser
其他
# 所属关系
frame.isin([1.0,'a'])
# 删除一列
del frame['new']
# 筛选
frame[frame <= 2]
# 转置
frame.T
Index 对象
ser.idxmin()
ser.idxmax()
ser.index.is_unique()
# 执行更换索引
ser.reindex(['a','b','c'])
# 删除
ser.drop('0')
算数运算方法
frame1.add(frame2)
sub(), div(), mul()
DataFrame 与 Series的运算
frame=pd.DataFrame(np.arange(16).reshape(4,4),index=['red','blue','gren','yellow'],columns=['ball','pen','paper','socket'])
ser=pd.Series(np.arange(4),index=['ball','pen','paper','socket'])
frame - ser
Pandas 库函数
按行或列执行
f=lambda x:x.max() - x.min()
def f(x):
return x.max()-x.min()
frame.apply(f,axis=1) # 处理行
函数
sum()
mean()
describe() # 计算多个统计量
# 排序函数
sort_index([ascending=False][axis=1])
对数据结构中的元素排序
# series
ser.order()
# DataFrame
frame.sort_index(by='pen')
frame.sort_index(by=['pen','pencil'])
位次排序
- ser.rank()
- ser.rank(method='first')
- ser.rank(ascending=False)
相关性和协方差
correlation and covariance 计算通常涉及到两个Series 对象
>>> seq2=pd.Series([3,4,3,4,5,4,3,2],['06','07','08','09','10','11','12','13'])
>>> seq1=pd.Series([1,2,3,4,4,3,2,1],['06','07','08','09','10','11','12','13'])
>>> seq1.corr(seq1)
1.0
>>> seq1.corr(seq2)
0.7745966692414835
>>> seq1.cov(seq2)
0.8571428571428571
DataFrame 可以实现其对象的相关性和协方差,返回DataFrame矩阵
>>> frame2=pd.DataFrame([[1,4,3,6],[4,5,6,1],[3,3,1,5],[4,1,6,4]],index=['r','g','b','w'],columns=['ball','pen','pencil','paper'])
>>> frame2.corr()
ball pen pencil paper
ball 1.000000 -0.276026 0.577350 -0.763763
pen -0.276026 1.000000 -0.079682 -0.361403
pencil 0.577350 -0.079682 1.000000 -0.692935
paper -0.763763 -0.361403 -0.692935 1.000000
>>> frame2.cov()
ball pen pencil paper
ball 2.000000 -0.666667 2.000000 -2.333333
pen -0.666667 2.916667 -0.333333 -1.333333
pencil 2.000000 -0.333333 6.000000 -3.666667
paper -2.333333 -1.333333 -3.666667 4.666667
除此之外还可以计算DataFrame对象与Series或者DataFrame对象之间的关系
frame.corrwith(ser)
frame.corrwith(frame2)
NaN
过滤NaN
# series obj
ser.dropna()
or
ser[ser.notnull()]
# DataFrame obj
frame.dropna() # 整行都被删除
frame.dropna(how='all') # 删除全部Nan的列
为NaN填充
frame.fillna(0)
frame.filena('ball':1,'mug':2)
等级索引&分级
>>> mser=pd.Series(np.random.rand(6),[['a','a','b','b','c','c'],[2,3,6,4,5,8]])
>>> mser
a 2 0.936455
3 0.431867
b 6 0.996895
4 0.584551
c 5 0.883911
8 0.049483
dtype: float64
# 选取
mser['a'][2]=0.936455
DataFrame 与 Series转化
DataFrame -> Series : stack()
frame.stack()
Series -> DataFrame : unstack()
mser.unstack()
交换层级:
frame.colums.names=['a','b']
frame.index.name=['c','d']
frame.swaplevel('c','d')
frame.sortlevel('c')# 只按照一个层级进行排序
# 按层级统计数据
frame.sum(level='c')
frame.sum(level='c',axis=1)
Pandas 数据读写
读
- read_csv()
- read_excel()
- read_sql()
- read_json()
- read_html()
- read_clipboard()
写
- to_csv()
- to_excel()
- to_sql()
- to_json()
- to_html()
- to_clipboard()
CSV 文件
- read_csv()
- read_table()
- to_csv()
pd.csvframe=read_csv('data.csv')
pd.read_table('data.csv',sep=',')
# names 指定表头
read_csv('data.csv',names=['id'])
# header 添加表头
TxT RegExp 解析
在read_table中使用sep中的正则表达式
. | 单个字符 |
---|---|
\d | 数字 |
\D | 非数字 |
\s | 空白字符 |
\S | 非空白字符 |
\n | 换行符 |
\t | 制表符 |
>>> pd.read_table('tt.txt',sep='\s*')
white red blue green
0 1 5 2 3
1 2 7 8 5
2 3 3 6 7
>>> pd.read_table('tt.txt',sep='\D*',header=None)
# skiprows=[1,3,6]排除1,3,6 行
# skiprows=5 排除前五行
部分数据读取(常用用法)
从 skiprows 开始读,读多少 nrows行
read_csv('data.csv',skiprows=[2],nrows=3,header=None)
解析文本:
out=pd.Series()
i=0
# chunksize 一次处理数据行数
pieces = pd.read_csv('tips.csv',chunksize=3)
for piece in pieces:
out.set_value(i,piece['size'].sum())
i=i+1
往CSV中写数据
frame.to_csv('tt.csv',index=False,header=False)
替换,,中内容
frame.to_csv('new.csv',na_rep='NaN')
HTML
读取HTML
read_html()
to_html()
安装html5lib库
conda install html5lib
tf=pd.DataFrame(np.arange(4).reshape(2,2))
print(tf.to_html()) # 自动转化html
更加复杂的例子:(生成)
frame=pd.DataFrame(np.random.random((4,4)),index=['white','black','red','blue'],columns=['up','down','right','left'])
s=['<html>']
s.append('<head><title>DataFrame</title></head>')
s.append('<body>')
s.append(frame.to_html())
s.append('</body></html>')
html=''.join(s)
html_file=open('myFrame.html','w')
html_file.write(html)
html_file.close()
打开HTML文件:
>>> web_frame=pd.read_html('myFrame.html')
>>> web_frame
[ Unnamed: 0 up down right left
0 white 0.654247 0.917280 0.599515 0.401334
1 black 0.647599 0.555069 0.612985 0.279210
2 red 0.204044 0.719828 0.950169 0.749252
3 blue 0.089194 0.498193 0.568361 0.427534]
局限于读表格
从XML读取数据
lxml 库文件
from lxml import objectify
xml=objectify.parse('test.xml')
root=xml.getroot()
读写excel文件
pd.read_excel('data.xlsx')
pd.read_excel('data.xlsx','sheet2')
代码改变世界