python内存泄漏,python垃圾手动回收,1

部署的舆情系统,内存变大,找原因。

一个小例子。

def func():

    local_list = list(range(10000000))

 

func()

time.sleep(200)

 

能够观察到,在sleep 200秒的时间内,程序的内存一直是200多M,虽然是函数局部变量,执行后在外部无法使用了,但仍然占据大内存。

 

 

再来一个

global_list = list(range(10000000))

del global_list

time.sleep(200)

能够观察到,在sleep 200秒的时间内,程序的内存一直也是200多M,引用计数变为0,但仍然占据大内存。

 

引入gc模块

在sleep之前插入 gc.collect()

查看内存,内存直接下降到10M内了,这是我期待的。

 

本篇的list代表一个巨大的内存的变量,以range(10000000)来指代。不要扯上什么xrange  range,我就是要用这个来简单指代一些巨大内存的变量。

实际过程中指代的是下载 上传巨大的html源码,爬虫过程中如果遇到mp4 avi连接没有过滤,下载了mp4的字符串就会是一个巨大的字符串。

 

之前有个地方,给njinx的网关接口上传结果,发现一直被njinx拒绝,请求不成功,而程序中遇到这种情况,一直等待60秒一直重试,导致永远不可能上传,内存永远降不下来。

 

下一篇介绍,监控内存和释放内存。

 

posted @ 2017-12-17 20:11  北风之神0509  阅读(2098)  评论(0编辑  收藏  举报