记一次多进程的写入同一个文件的方法

个人是小白,没有学习之前,我的想法是这样的:

第一种办法,就是设置一个全局变量write_flag,当一个进程将结果写入时,首先看看write_flag是否为True,如果为True,然后将write_flag重置为Flase,然后将结果写入文件,然后将write_flag重置为True;

第二种办法,使用Lock锁,写之前先lock.acquire(),写完后lock.release();

第三种办法,使用回调函数,callback表示一个单参数的方法,当有结果返回时,callback方法会被调用,参数即为任务执行后的结果

然后自己一通瞎写,      结果第一种方法pycharm中执行起来还行,但是打包出来的话,在windows上执行会出问题;接着试第二种方法,pycharm中执行起来还行,但是打包出来的话,执行会出问题;接着试第三种方法,pycharm中执行起来还行,但是打包出来的话,执行会出问题;

什么问题呢?

运行exe,启动无数个主程序,导致系统无法使用!!!!

在进程中能看到,启动了很多进程,远远多于pool中设置的processes数,什么原因呢?明明资料中介绍的是;

Pool(processes=None, initializer=None, initargs=(), maxtasksperchild=None)
    Returns a process pool object
processes表示工作进程的个数,默认为None,表示worker进程数为cpu_count()
initializer表示工作进程start时调用的初始化函数,initargs表示initializer函数的参数,如果initializer不为None,在每个工作进程start之前会调用initializer(*initargs)
maxtaskperchild表示每个工作进程在退出/被其他新的进程替代前,需要完成的工作任务数,默认为None,表示工作进程存活时间与pool相同,即不会自动退出/被替换。
函数返回一个进程池(Pool)对象

这都是啥意思?

然后,然后就不知道问题出在哪里了…………

 

 

 

 

 

1.问题描述:运行exe,启动无数个主程序,导致系统无法使用

    原因:在程序中使用了multiprocessing的包

    解决办法:在主文件if __name__ == "__main__":后,添加multiprocessing.freeze_support(),一定要在添加在最开始处

2. 问题描述:运行后,提示在freeze_support中sys.stdout.flush处异常

   原因:使用的PyQT作为界面,没有控制台

   解决办法:在调用multiprocessing.freeze_support()前,重定向stdout和stderr,添加:sys.stdout = io.StringIO()和 sys.stderr = io.StringIO()

3.使用shelve模块,IDE下调试可以正常使用,打包后无法使用

    原因:shelve 的 open 函数在运行中还会装入其它的数据库管理模块,无从了解还需要哪些额外的包,故在打包时就漏掉了一些必要的模块

 

解决办法:修改打包脚本,添加如下内容:

packages = []
for dbmodule in ['dbhash', 'gdbm', 'dbm', 'dumbdbm']:
try:
__import__(dbmodule)
except ImportError:
pass
else:
# If we found the module, ensure it's copied to the build directory.
packages.append(dbmodule)
options = {
'build_exe': {
'includes': 'atexit',
"packages": packages
}
}

 

4.使用inspect.getsourcelines异常OSError: could not get source code

  原因:打包后,都是pyc文件,没有源代码,导致动态获取代码失败

  解决办法:将包含所需源码的py文件打包到library.zip文件中,在‘build_exe'参数中,增加'zip_includes':['path\\source.py']

 

 

 

待续…………

posted on 2019-09-03 14:55  jack_6511  阅读(1771)  评论(0编辑  收藏  举报

导航