读取写入千万级别的excel文件费时费力,调试起来比较慢,面对这个问题,第一步可以先无脑全部转换成pkl文件,这样几乎和内存操作一样的速度。
例如:
t=pd.read_excel("12月.xlsx",sheet_name=None)
excel全表读入,然后无脑写入硬盘:
import pickle
with open('test.pkl', 'wb') as f: pickle.dump(t,f)
用起来就直接取,操作速度几乎媲美内存操作吧
with open('test.pkl', 'rb') as f: t = pickle.load(f)
和pandas结合的操作是:
df.to_pickle(newfile) #写
d = pd.read_pickle(thefile) #读
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix