python读取大文件时避免内存溢出
大文件直接用read()函数会内存溢出
解决办法
1. 一行一行的取
with open('t1.txt') as f:
while True:
data = f.readline()
# 判断文件是否结束
if not data:
break
# 优化版
with open('t1.txt') as f:
data = f.readline()
while data:
data = f.readline()
2. 使用第三方模块linecache,可以取指定行
import linecache
# 读取第2行
data = linecache.getline('t1.txt',2)
3.使用for迭代
with open('t1.txt') as f:
for i in f:
print(i)
参考
https://www.cnblogs.com/misswangxing/p/7921740.html
https://blog.csdn.net/weixin_40006779/article/details/109879397
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· C#/.NET/.NET Core技术前沿周刊 | 第 29 期(2025年3.1-3.9)
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异