Python:关于subprocess.stdout.read()导致程序死锁的问题

subprocess.stdout.read()导致程序死锁的问题解决

今天有位老哥联系我说,在我的python之路系列中,解决粘包问题那一章的代码有BUG

这里当运行命令过于庞大的时候,会导致程序直接卡死在这里,我自己试试了下,确实有这个问题。

但是到底是为什么呢,前前后后想了好久,没找到答案,后来google了半天以及翻了下官方文档

终于找到了问题所在!!!划重点

如果设置了stdout或stderr,subprocess就会调用os.pipe创建一个管道用于其和子进程之间的通信,而上面的问题正好是cmd输出的数据把pipe塞满,无法继续往pipe里写入数据导致程序hang住,而我们没有去读出pipe数据,而是死等子进程完成,导致死锁。

具体大小的话windows只有4kb,而linux有64kb(辣鸡windows)

那么如何解决呢

解决办法一:

使用communicate及时读出pipe中内容,避免堵死,但在输出量非常大的情况下会影响性能:

 

这也是官方文档里推荐的做法,但是不能乱用,因为会影响性能.

 

解决办法二:

使用文件代替PIPE,但是这样子的话传给客户端的就只能是文件了。

fdout = open(len(procs)+".out", 'w')
fderr = open(len(procs)+".err", 'w')

 

 

总结:

两种方法需要自己根据情况进行取舍,都有各自的优势和劣势。

 

posted @ 2018-11-17 20:31  __Miracle  阅读(5213)  评论(0编辑  收藏  举报