Python守护进程、进程互斥锁、进程间通信ICP(Queue队列)、生产者消费者模型
知识点一:守护进程
守护进程:p1.daemon=True
守护进程其实就是一个“子进程“,守护=》伴随
守护进程会伴随主进程的代码运行完毕后而死掉
进程:当父进程需要将一个任务并发出去执行,需要将该任务放到以个子进程里
守护:当该子进程内的代码在父进程代码运行完毕后就没有存在的意义了,就应该
将该子进程设置为守护进程,会在父进程代码结束后死掉
from multiprocessing import Process import time def foo(): print(123) time.sleep(1) print("end123") def bar(): print(456) time.sleep(3) print("end456") if __name__ == '__main__': p1=Process(target=foo) p2=Process(target=bar) # 将子进程p1设置为守护进程, # 所以p1会在print("main-------")打印完成后死掉,所以p1进程不会打印 p1.daemon=True p1.start() p2.start() # time.sleep(1) print("main-------")
主进程代码运行完,但是主进程不会死,还要回收子进程的僵尸进程,
所有守护进程只是守护主进程代码运行完就会死掉
p.daemon=True #守护进程要放在进程start之前
p.start()
print('主')
(1):正常情况子进程p不会打印,而会直接打印‘主’
(2):个别请况电脑速度快的时候,子类p里面的代码可能会运行(可能不是全部),然后等
主进程打印输出后,p会死掉(代码自上而下运行,操作系统产生并造出子类的速度快的前提下)
知识点二:进程的互斥锁
互斥锁:就是将要执行任务的部门代码(只涉及到修改共享数据的代码)变成串行
第一步:导入multiprocessing方法下面的Lock类
第二步:在if __name__ == '__main__':方法下面调用Lock类mutex=Lock(),拿到一个对象
第三步:在子类中需要共享的数据前后加入 加锁:mutex.acquire()——》需要共享修改数据的代码体《解锁:——mutex.release()
实验:实现简单的抢票功能
分析:1)查看变为并发(实现大家查询到的车票信息是一致的)
2)购买变为串行(因为购买涉及到了修改数据信息,所以一定要遵循先到先得)
(理解为用锁来限制,同一时间只能让一个人拿着锁去改数据,先抢到锁的人
就有优先购买的权限)
join:是将子类里面的所有代码都整体串行(就会将查询、购买2部分全部都变为串行,延迟更高)
互斥锁:可以挑选一段代码(修改数据即买票的那部分)单独抽出来加锁
#模拟抢票软件的原理:
from multiprocessing import Lock,Process import json,os,time,random def check(): #查票功能实现并行访问 time.sleep(1) with open('db.txt','rt',encoding='utf-8') as f: dic=json.load(f) print('%s 查看余票数为 %s'%(os.getpid(),dic['count'])) def get(): #购票因为牵涉到对后台数据的修改,所以加互斥锁目的是逐一进行访问修改,以免数据错乱 with open('db.txt', 'rt',encoding='utf-8') as f: dic = json.load(f) time.sleep(2) if dic['count'] >0: #有票 dic['count']-=1 time.sleep(random.randint(1, 3)) #在购票时,模拟网络延迟... with open('db.txt', 'wt',encoding='utf-8') as f: json.dump(dic,f) print('%s 购票成功'%os.getpid()) else: print('%s 没有余票'%os.getpid()) def task(mutex): #查看(并行访问) check() #抢票(加入互斥锁,实现串行访问,先到先得原则) mutex.acquire() get() mutex.release() #第一个购买完成后,解锁,后续进入继续购买 if __name__ == '__main__': mutex=Lock() #调用Lock类拿到一个对象 for i in range(10): p=Process(target=task,args=(mutex,)) p.start()
知识点三:进程间的通信
需求的演变思路:就是为了用一块儿共享的内存==》实现进程间的共享
必须有2个特点:
1.一定是内存空间
2.能够自动帮忙处理锁的问题
IPC机制:
PIPE:管道
Queue:PIPE+锁(队列)
注意:
1.队列占用的是内存空间
2.不应该往队列中放大数据,应该只存放数据量较小的精简的内容
重点讲队列:Queue 同样也是在multiprocessing方法里面导入Queue模块: from multiprocessing import Queue # q.put()括号里面可以传多种数据类型 #定义队列里面存在数据的个数,先进先出原则 # 1.block、time是搭配使用的 # 2.False:一般单独使用,会立即报错(打印提示信息) q=Queue(3) # #存数据 # q.put('first') q.put({'k':'second'}) q.put(['two',]) q.put(['three',]) # q.put(4,block=True,timeout=3) #*****如果不加block=True,timeout=3备注,一直是收取的状态 # #block=True timeout:意思是管道满了无法再往里面放,并且会等待3秒 # 如果还是满的状态,就会报错(如果不加程序是一直加载状态不会报错) print(q.get()) print(q.get()) print(q.get()) # print(q.get(block=True,timeout=2)) #***如果不跟参数,会打印前3个,后卡在那里.. #block=True,timeout=2,加了如果管道里面没有数据,等待2秒后会报错(提示信息) #注意无论是收还是发:当block=False的时候,是会直接报错,(所以False一般不与time搭配使用) # print(q.get(block=False)
知识点四:生产者消费者模型
1.为什么是生产者消费者模型
生产者:比喻的是程序中负责产生数据的任务
消费者:比喻的是程序中负责处理数据的任务
生产者———>共享的介质(队列)<————消费者
2.为何用
实现生产者与消费者的解耦和,生产者可以不停的生产,消费者也可以不停的消费
从而平衡了生产者的生产能力与消费者消费能力,提升了而整体运行的效率
什么时候用:
当我们程序中存在明显的两类任务,一类是负责产生数据,一类是负责处理数据,此时
就应该考虑使用生产者消费者模型来提升程序的效率
第一个初始版本(分析): from multiprocessing import Queue,Process import time import os import random def producer(name,food,q): for i in range(2): res='第%s食物%s'%(i,food) time.sleep(random.randint(1,3)) q.put(res) #往管道传数据 print('\033[45m%s 生产了 %s\033[0m'%(name,res)) # q.put(None) def consumer(name,q): while True: time.sleep(random.randint(1, 3)) res=q.get() #从管道取数据 if res is None:break print('%s 吃了 %s'%(name,res)) if __name__ == '__main__': q=Queue() p1=Process(target=producer,args=('生产1','包子',q,)) p2=Process(target=producer,args=('生产2','面条',q,)) p3=Process(target=producer,args=('生产3','米饭',q,)) c1=Process(target=consumer,args=('消费1',q,)) c2=Process(target=consumer,args=('消费2',q,)) #开始造食物 p1.start() p2.start() p3.start() #开始造消费者 c1.start() c2.start() #保证食物完全造好到管道里面 p1.join() #保证全部生产完,放入管道 p1.join() p1.join() q.put(None) #保证所有东西都在管道里面 q.put(None) #2个None是并排放在最后面的,为了保证每个用户进去取完最后取None不至于一致卡在那里接收 print('主程序') #消费者取走了多少,取决于每个消费者网络延迟各方面的速度,另外管道里面的东西取走就没了,搜所以同时取,取得多少是不一定的
终极版本:
#终极版本:消费者给生产者发信号,...等队列结束JoinableQueue,对队列被取空了 from multiprocessing import Queue,Process,JoinableQueue import time import os import random def producer(name,food,q): for i in range(2): res='第%s食物%s'%(i,food) time.sleep(random.randint(1,3)) q.put(res) #往管道传数据 print('\033[45m%s 生产了 %s\033[0m'%(name,res)) def consumer(name,q): while True: time.sleep(random.randint(1, 3)) res=q.get() #从管道取数据 if res is None:break print('%s 吃了 %s'%(name,res)) q.task_done() #最终版新增,执行完一次get 就告诉系统有一个数据被取走了 if __name__ == '__main__': # q=Queue() q=JoinableQueue() # p1=Process(target=producer,args=('生产1','包子',q,)) p2=Process(target=producer,args=('生产2','面条',q,)) p3=Process(target=producer,args=('生产3','米饭',q,)) c1=Process(target=consumer,args=('消费1',q,)) c2=Process(target=consumer,args=('消费2',q,)) c1.daemon=True #开始前将子进程设置为守护进程 c2.daemon=True #开始造食物 p1.start() p2.start() p3.start() #开始造消费者 c1.start() c2.start() #保证食物完全造好到管道里面 # p1.join() #保证全部生产完,放入管道 # p1.join() # p1.join() # q.put(None) # q.put(None) #等所有生产者都生产完了,再执行 p1.join() p2.join() p3.join() #这样就保证一定是队列里面就不会有新东西再放了... q.join() #等待队列被取干净,执行的同时统计队列里面有多少个值,碰到一个q.task_done()就减1 # 主进程的代码运行完毕--->(生产者运行完毕)+队列中的数据也被取干净了->消费者没有存在的意义 #等到队列取空就执行下一行代码 # print('主程序') #消费者没结束: #生产者已经结束了,此时就是消费者也已经取完了数据,那么就用到了守护进程