python读取大文件时避免内存溢出

大文件直接用read()函数会内存溢出

解决办法

1. 一行一行的取

with open('t1.txt') as f:
    while True:
        data = f.readline()
        # 判断文件是否结束
        if not data:
            break
            
# 优化版
with open('t1.txt') as f:
    data = f.readline()
    while data:
        data = f.readline()
        

2. 使用第三方模块linecache,可以取指定行

import linecache

# 读取第2行
data = linecache.getline('t1.txt',2)

3.使用for迭代

with open('t1.txt') as f:
    for i in f:
        print(i)

参考

https://www.cnblogs.com/misswangxing/p/7921740.html

https://blog.csdn.net/weixin_40006779/article/details/109879397 

posted @   xuecl  阅读(905)  评论(0编辑  收藏  举报
(评论功能已被禁用)
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· C#/.NET/.NET Core技术前沿周刊 | 第 29 期(2025年3.1-3.9)
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
点击右上角即可分享
微信分享提示