【python】numpy pandas 用法

【df apply所有列】

df.applymap(lambda v: v+1)

 

【duplicated保留所有行】

df.duplicated(keep=False)

 

【pivot_table使用】

index = 需要groupby的东西

values = 有用的东西

columns = 放在column上的index

pd.pivot_table(df,index=[字段1],values=[字段2],aggfunc=[函数],fill_value=0)
df.groupby([字段1])[字段2].agg(函数).fillna(0)

以上两个表述完全等价

 

【将某个column设为index】

df.set_index('columnName', inplace=True)

 

【根据其中某几列合并两个dataFrame】

recordsAll = pd.merge(records1, records2, on=['symbol', 'updateDate'], how='left')

 

【根据值group】

series.value_counts()

 

【pivot的逆操作】/ 【将multiindex转化为columns】

df_pivot.stack([1,2]).reset_index()

【将daily数据按照tick数据对齐】

dateIndex = residualSys.index.date
adjfactorTick = adjfactor.reindex(index=dateIndex)
adjfactorTick.index = residualSys.index

 

【multiIndex:  取levels[0]】

如果看有几层,len(df.index.levels)

如果看set,用 df.index.levels[0]

如果跟index等长,用df.index.get_level_values(0)

如果想drop某一层,用df.droplevel() 

新建multiIndex, 

 

【drop index duplicated】

>>> %timeit df3.reset_index().drop_duplicates(subset='index', keep='first').set_index('index')
1000 loops, best of 3: 1.54 ms per loop

>>> %timeit df3.groupby(df3.index).first()
1000 loops, best of 3: 580 µs per loop

>>> %timeit df3[~df3.index.duplicated(keep='first')]
1000 loops, best of 3: 307 µs per loop

 

【value map】

用df.replace(dict)可以解决。但是如果dict太大,会非常非常慢。

 

【level调换】

df = df.swaplevel(0, 1, axis=1).sort_index(axis=1)

 

【array相加的维度规律】【广播】

(2,3) 能和 (3,) 相加,不能和(2,)相加

(2,3) 能和 (2, 1) (1, 3)相加,

同理,对于三维数组来说

(2, 3, 4)能和(4, ) (3,4)相加 —— 高维和低维相加的时候,低维默认是从后面数的维数

(2,3,4)能和(2,3,1) (2,1,4) (1,3,4)相加

(2,3,4)能和(2,1,1) (1,3,1) (1,1,4)相加

 

【panel取出dataFrame的index和columns问题】

假设(2,3,4)的panel([0,1], [a,b,c], [d,e,f,g])

按第一维取, 没问题([a,b,c], [d,e,f,g])

按第二维取,第三维是Index ([d,e,f,g], [0,1])

按第三维取,第二维是Index ([a,b,c], [0,1])

 

【按条件取数组】

df1[df2 == 0.], 那么df2 !=  0.的部分会置为np.nan

 

【numpy数组合并】

1、横向

>>> np.hstack((a,b))
>>> np.concatenate((a,b),axis=1)

2、纵向

>>> np.vstack((a,b))
>>> np.concatenate((a,b),axis=0)

【添加记录与记录合并】

dataFrame添加一条记录:df.loc[index] = columnsList

不看index的添加一条记录:df = df.append(series, ignore_index=True)

dataFrame记录合并:df = df.append(df2, ignore_index=True)

 

【upsert记录】

df = pd.concat([ df1[~df1.index.isin(df2.index)], df2 ])

 

【2维数据转化为3维数组】

df1 = df[None, :]
等价于df1 = df.reshape(1, x, x)

df2 = np.repeat(df1, n, axis=0)

 

【3维数据转化为2维数据】

pd.Panel().to_frame()

但是比较大的数据可能会出问题。

如果使用numpy, 比如转换 n * m * 3的数据为 3 * (n*m) 的数据:

参考https://stackoverflow.com/questions/32838802/numpy-with-python-convert-3d-array-to-2d

首先使用 np.transpose 把 n * m * 3 转换为 3 * n * m,data.transpose(2, 0, 1)

然后用reshape(3, -1)解决。

 

【numpy drop na】

drop列

xNew1 = xNew[:, ~(np.isnan(xNew).all(axis=0))]

drop行

xNew1 = xNew[~(np.isnan(xNew).all(axis=1))]

 

【按天操作】

df.resample('d').sum()

 

【ewma的用法】

pd.Series.ewm

alpha = 1 / (1+com) = 2 / (1+span) = 1 - exp(log(0.5) / halflife)

对于span=3来说

x = range(n)

y大致上为x-1,因此相当于最新3个平均

 

如果adjust:(default)

weights:   (1-alpha)**(n-1) , ... , (1-alpha), 1 加权

如果alpha=1, 那么等于本身

如果alpha=0, 那么等于平均

也就是说权重的比例永远是 1 / 1-alpha

如果n足够大, alpha=1/2,  那么权重为1/2, 1/4, 1/8 ...

如果n足够大,alpha=1/3 那么权重为1/3, 2/9, 4/27 ...

alpha越大, 本身的权重越大。

如果不adjust:

weights: y[i] = alpha * x[i] + (1 - alpha) * y[i-1], y[0] = x[0]

是否adjust的区别!: 在序列足够长或者alpha比较大的情况下没区别,如果短序列alpha比较小,那么用 adjust的比较合理,adjust的永远保证比例,不adjust的在前面的比例都是 1  / 1 - alpha, 在最后两个的比例是  alpha  /  1 - alpha,所以如果alpha小而且序列短,那么不adjust在第一个的权重就太大了,这是不健康的。

 

【一些trick】

panel当dtype不是object的时候,.loc = xxx 会出现奇怪的问题。

 

【pandas不包含的切片】

x[x.index < startDate] = np.nan

posted on 2016-12-27 16:14  yesuuu  阅读(442)  评论(0编辑  收藏  举报

导航