并发编程之多进程
进程理论
一 、进程
进程:正在进行的一个过程或者说一个任务。而负责执行任务则是cpu。
二、进程与程序的区别
程序仅仅只是一堆代码而已,而进程指的是程序的运行过程。
需要强调的是:同一个程序执行两次,那也是两个进程,比如打开暴风影音,虽然都是同一个软件,但是一个可以播放苍井空,一个可以播放饭岛爱。
三、并发与并行
无论是并行还是并发,在用户看来都是'同时'运行的,不管是进程还是线程,都只是一个任务而已,真是干活的是cpu,cpu来做这些任务,而一个cpu同一时刻只能执行一个任务。
- 并发
是伪并行,即看起来是同时运行。单个cpu+多道技术就可以实现并发
- 并行
同时运行,只有具备多个cpu才能实现并行
四、进程的创建
但凡是硬件,都需要有操作系统去管理,只要有操作系统,就有进程的概念,就需要有创建进程的方式,一些操作系统只为一个应用程序设计,比如微波炉中的控制器,一旦启动微波炉,所有的进程都已经存在。
而对于通用系统(跑很多应用程序),需要有系统运行过程中创建或撤销进程的能力,主要分为4中形式创建新的进程
-
系统初始化(查看进程linux中用ps命令,windows中用任务管理器,前台进程负责与用户交互,后台运行的进程与用户无关,运行在后台并且只在需要时才唤醒的进程,称为守护进程,如电子邮件、web页面、新闻、打印)
-
一个进程在运行过程中开启了子进程(如nginx开启多进程,os.fork,subprocess.Popen等) 我们主要研究对象
-
用户的交互式请求,而创建一个新进程(如用户双击暴风影音)
-
一个批处理作业的初始化(只在大型机的批处理系统中应用)
-
无论哪一种,新进程的创建都是由一个已经存在的进程执行了一个用于创建进程的系统调用而创建的:
-
在UNIX中该系统调用是:fork,fork会创建一个与父进程一模一样的副本,二者有相同的存储映像、同样的环境字符串和同样的打开文件(在shell解释器进程中,执行一个命令就会创建一个子进程)
-
在windows中该系统调用是:CreateProcess,CreateProcess既处理进程的创建,也负责把正确的程序装入新进程。
-
关于创建的子进程,UNIX和windows
1.相同的是:进程创建后,父进程和子进程有各自不同的地址空间(多道技术要求物理层面实现进程之间内存的隔离),任何一个进程的在其地址空间中的修改都不会影响到另外一个进程。
2.不同的是:在UNIX中,子进程的初始地址空间是父进程的一个副本,提示:子进程和父进程是可以有只读的共享内存区的。但是对于windows系统来说,从一开始父进程与子进程的地址空间就是不同的。
unix父进程会拷贝数据给子进程,子进程的初始状态和父进程一模一样;windows父进程也会拷贝数据给子进程,但和父进程有区别。
五、进程的终止(了解)
-
正常退出(自愿,如用户点击交互式页面的叉号,或程序执行完毕调用发起系统调用正常退出,在linux中用exit,在windows中用ExitProcess)
-
出错退出(自愿,python a.py中a.py不存在)
-
严重错误(非自愿,执行非法指令,如引用不存在的内存,1/0等,可以捕捉异常,try...except...)
-
被其他进程杀死(非自愿,如kill -9)
六 、进程的层次结构
无论UNIX还是windows,进程只有一个父进程,不同的是:
-
在UNIX中所有的进程,都是以init进程为根,组成树形结构。父子进程共同组成一个进程组,这样,当从键盘发出一个信号时,该信号被送给当前与键盘相关的进程组中的所有成员。
-
在windows中,没有进程层次的概念,所有的进程都是地位相同的,唯一类似于进程层次的暗示,是在创建进程时,父进程得到一个特别的令牌(称为句柄),该句柄可以用来控制子进程,但是父进程有权把该句柄传给其他子进程,这样就没有层次了。
七、 进程的状态
tail -f access.log |grep '404'
执行程序tail,开启一个子进程,执行程序grep,开启另外一个子进程,两个进程之间基于管道'|'通讯,将tail的结果作为grep的输入。
进程grep在等待输入(即I/O)时的状态称为阻塞,此时grep命令都无法运行
其实在两种情况下会导致一个进程在逻辑上不能运行,
-
进程挂起是自身原因,遇到I/O阻塞,便要让出CPU让其他进程去执行,这样保证CPU一直在工作
-
与进程无关,是操作系统层面,可能会因为一个进程占用时间过多,或者优先级等原因,而调用其他的进程去使用CPU。
因而一个进程由三种状态
八、 进程并发的实现(了解)
进程并发的实现在于,硬件中断一个正在运行的进程,把此时进程运行的所有状态保存下来,为此,操作系统维护一张表格,即进程表(process table),每个进程占用一个进程表项(这些表项也称为进程控制块)
该表存放了进程状态的重要信息:程序计数器、堆栈指针、内存分配状况、所有打开文件的状态、帐号和调度信息,以及其他在进程由运行态转为就绪态或阻塞态时,必须保存的信息,从而保证该进程在再次启动时,就像从未被中断过一样。
开启进程两种方式
一 、multiprocessing模块介绍
python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu\_count\(\)查看),在python中大部分情况需要使用多进程。
Python提供了multiprocessing。 multiprocessing模块用来开启子进程,并在子进程中执行我们定制的任务(比如函数),该模块与多线程模块threading的编程接口类似。multiprocessing模块的功能众多:支持子进程、通信和共享数据、执行不同形式的同步,>提供了Process、Queue、Pipe、Lock等组件。
需要再次强调的一点是:与线程不同,进程没有任何共享状态,进程修改的数据,改动仅限于该进程内。
二 、Process类的介绍
创建进程的类:
Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,可用来开启一个子进程
强调:
1. 需要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号
参数介绍:
group参数未使用,值始终为None
target表示调用对象,即子进程要执行的任务
args表示调用对象的位置参数元组,args=(1,2,'egon',)
kwargs表示调用对象的字典,kwargs={'name':'egon','age':18}
name为子进程的名称
方法介绍:
p.start():启动进程,并调用该子进程中的p.run()
p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法
p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
p.is_alive():如果p仍然运行,返回True
p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间
属性介绍:
p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
p.name:进程的名称
p.pid:进程的pid
三 Process类的使用
注意:在windows中Process()必须放到# if __name__ == '__main__':下
创建并开启子进程的方式一
1 import time 2 import random 3 from multiprocessing import Process 4 5 def piao(name): 6 print('%s piaoing' %name) 7 time.sleep(random.randrange(1,5)) 8 print('%s piao end' %name) 9 10 if __name__ == '__main__': 11 #实例化得到对象 12 p1=Process(target=piao,args=('egon',)) #必须加,('egon',) 表示元组否则与args='egon'一样 13 14 #调用对象下的方法,开启进程 15 p1.start() 16 17 print('主') #运行至此父进程结束了,但子进程仍然在运行,因为运行完全独立
主 egon piaoing egon piao end
创建并开启子进程的方式二
定义子类 继承Process类
1 import time 2 import random 3 from multiprocessing import Process 4 5 class Piao(Process): 6 def __init__(self,name): 7 super().__init__() 8 self.name=name 9 def run(self): #此处要定义一个方法,且方法名一定要交run 10 print('%s piaoing' %self.name) 11 12 time.sleep(random.randrange(1,5)) 13 print('%s piao end' %self.name) 14 15 if __name__ == '__main__': 16 #实例化得到对象 17 p1=Piao('egon') #实例化传参数和第一种直接用Process类的不同 18 19 #调用对象下的方法,开启进程 20 p1.start() #start会自动调用run 21 22 print('主')
主 egon piaoing egon piao end
四、查看进程的pid和ppid
1 from multiprocessing import Process 2 import time, os 3 4 def task(): 5 print('%s is running,parent id is %s'%(os.getpid(),os.getppid())) 6 time.sleep(2) 7 print('%s is done' % os.getpid()) 8 9 if __name__ == '__main__': 10 p = Process(target=task,) 11 p.start() 12 13 print('主',os.getpid(),os.getppid())
主 5260 10292 2176 is running,parent id is 5260 2176 is done
当前.py文件的进程pid为5260,
该.py文件由pycharm运行,则pycharm为.py文件的符进程,pid为10292,
.py文件中发起了一个新的进程,因此.py对于该进程为父进程,新进程pid为2716。
Process对象的其他属性或方法
一、join方法
在主进程运行过程中如果想并发地执行其他的任务,我们可以开启子进程,此时主进程的任务与子进程的任务分两种情况
情况一:在主进程的任务与子进程的任务彼此独立的情况下,主进程的任务先执行完毕后,主进程还需要等待子进程执行完毕,然后统一回收资源。
注:主进程任务执行完毕后不代表主进程结束,主进程任务结束了代表其中的代码运行完了,但进主程还在,主进程需要等子进程运行完后才结束,因此在子进程还没结束时关闭主进程会导致子进程结束时没有及时的回收资源,出现孤儿进程。
注意区分进程和进程任务
情况二:如果主进程的任务在执行到某一个阶段时,需要等待子进程执行完毕后才能继续执行,就需要有一种机制能够让主进程检测子进程是否运行完毕,在子进程执行完毕后才继续执行,否则一直在原地阻塞,这就是join方法的作用
1 from multiprocessing import Process 2 import time, os 3 4 5 def task(name,n): 6 print('%s is piaoing' %name) 7 # time.sleep(random.randint(1,3)) 8 time.sleep(n) 9 print('%s is piao end' %name) 10 11 12 if __name__ == '__main__': 13 p1=Process(target=task,args=('子进程1',5)) 14 p2=Process(target=task,args=('子进程2',3)) 15 p3=Process(target=task,args=('子进程3',2)) 16 p4=Process(target=task,args=('子进程4',1)) 17 start = time.time() 18 p1.start() 19 p2.start() 20 p3.start() 21 p4.start() #此处p.star()只是给操作系统发送一个信号,有操作系统开启子进程,而不是程序去开启,因此此处不代表先开启p1,p2,p3,p4 22 23 # 有的同学会有疑问: 既然join是等待进程结束, 那么我像下面这样写, 进程不就又变成串行的了吗? 24 # 当然不是了, 必须明确:p.join()是让谁等? 25 # 很明显p.join()是让主线程等待p的结束,卡住的是主进程而绝非子进程p, 26 p1.join() 27 p2.join() 28 p3.join() 29 p4.join() 30 print(time.time()-start) #查看程序4子进程的共花了多少时间 31 print('主',os.getppid(),os.getppid())
子进程2 is piaoing 子进程1 is piaoing 子进程3 is piaoing 子进程4 is piaoing 子进程4 is piao end 子进程3 is piao end 子进程2 is piao end 子进程1 is piao end 5.310313940048218 主 10292 10292
4个子进程共花费的5.3s而不是1+2+3+5=11s,因此可以看出进程之间是串行执行的。
练习:基于多进程实现套接字
server端
1 from socket import * 2 from multiprocessing import Process 3 4 def talk(conn): 5 while True: 6 data = conn.recv(1024) # 单位:bytes, 1024代表最大接收1024个bytes 7 # conn tcp协议三次握手的成果,双向链接 8 if not data: break # 适用与linux操作,当client单方面终止链接时,service端会出现死循环 9 print('客户端的数据', data) 10 conn.send(data.upper()) 11 12 def server(ip,port): 13 server = socket(AF_INET,SOCK_STREAM) 14 server.setsockopt(SOL_SOCKET,SO_REUSEADDR,1) 15 server.bind((ip,port)) 16 server.listen(5) 17 18 while True: 19 conn,addr = server.accept() 20 p = Process(target=talk,args=(conn,)) 21 p.start() 22 23 if __name__ == '__main__': 24 server('127.0.01',8080)
client端
1 from socket import * 2 from multiprocessing import Process 3 4 client = socket(AF_INET,SOCK_STREAM) 5 client.connect(('127.0.0.1',8080)) 6 7 while True: 8 cmd = input('>>:').encode('utf-8') 9 if not cmd:continue 10 client.send(cmd) 11 data = client.recv(1024) 12 print(data.decode('utf-8'))
这种方式的缺点:来多少个client,则server端就建多少个进程,会把服务器给拖垮。
守护进程
关于守护进程需要强调两点:
其一:守护进程会在主进程代码执行结束后就终止,但主进程代码结束并不代表主进程结束,除了守护进程外还有其他子进程的话,主进程需要等待所有子进程结束后才能结束。
其二:守护进程内无法再开启子进程(开启的子进程为守护进程也不可以),否则抛出异常:AssertionError: daemonic processes are not allowed to have children
因为守护进程内再开启子进程,当但主进程结束时守护进程结束,但守护进程开启的子进程任务还没有结束,等到子进程任务结束时资源得不到回收,因此守护进程不能在开启子进程否则会造成僵尸进程
如果我们有两个任务需要并发执行,那么开一个主进程和一个子进程分别去执行就ok了,如果子进程的任务在主进程任务结束后就没有存在的必要了,那么该子进程应该在开启前就被设置成守护进程。主进程代码运行结束,守护进程随即终止
1 from multiprocessing import Process 2 import time, os 3 import random 4 5 def task(name): 6 print('%s is piaoing' %name) 7 time.sleep(random.randrange(1,3)) 8 print('%s is piao end' %name) 9 10 11 if __name__ == '__main__': 12 p=Process(target=task,args=('egon',)) 13 p.daemon=True #一定要在p.start()前设置,设置p为守护进程,禁止p创建子进程,并且父进程代码执行结束,p即终止运行 14 p.start() 15 print('主') #只要终端打印出这一行内容,那么守护进程p也就跟着结束掉了
主
守护进程内的打印操作没有执行,主进程结束,因此守护进程也跟着结束。
互斥锁
进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,而共享带来的是竞争,竞争带来的结果就是错乱,
互斥锁的原理,就是把并发改成串行,降低了效率,但保证了数据安全不错乱
1 #并发运行,效率高,但竞争同一打印终端,带来了打印错乱 2 from multiprocessing import Process 3 import os,time 4 def work(): 5 print('%s is running' %os.getpid()) 6 time.sleep(2) 7 print('%s is done' %os.getpid()) 8 9 if __name__ == '__main__': 10 for i in range(3): 11 p=Process(target=work) 12 p.start()
13856 is running 15448 is running 16256 is running 13856 is done 15448 is done 16256 is done
加锁控制:
1 #由并发变成了串行,牺牲了运行效率,但避免了竞争 2 from multiprocessing import Process,Lock 3 import os,time 4 def work(lock): 5 lock.acquire() #加锁 6 print('%s is running' %os.getpid()) 7 time.sleep(2) 8 print('%s is done' %os.getpid()) 9 lock.release() #释放锁 10 if __name__ == '__main__': 11 lock=Lock() 12 for i in range(3): 13 p=Process(target=work,args=(lock,)) 14 p.start()
12492 is running 12492 is done 12980 is running 12980 is done 14552 is running 14552 is done
模拟抢票练习
多个进程共享同一文件,我们可以把文件当数据库,用多个进程模拟多个人执行抢票任务。
1 #文件db.txt的内容为:{"count":1} 2 #注意一定要用双引号,不然json无法识别 3 from multiprocessing import Process 4 import json, time 5 6 def search(name): 7 dic = json.load(open('db.txt','r',encoding='utf-8')) 8 print('<%s> 查到的余票数 [%s]'%(name,dic['count'])) 9 10 def get(name): 11 time.sleep(2) #模拟读数据的网络延迟 12 dic = json.load(open('db.txt','r',encoding='utf-8')) 13 if dic['count'] > 0: 14 dic['count'] -= 1 15 time.sleep(2) #模拟读数据的网络延迟 16 json.dump(dic,open('db.txt','w',encoding='utf-8')) 17 print('<%s> 购票成功'%name) 18 19 def task(name): 20 search(name) 21 get(name) 22 23 if __name__=='__main__': 24 for i in range(5): #模拟并发5个客户端抢票 25 p = Process(target=task,args=('路人%s'%i,)) 26 p.start()
<路人1> 查到的余票数 [1] <路人0> 查到的余票数 [1] <路人2> 查到的余票数 [1] <路人3> 查到的余票数 [1] <路人4> 查到的余票数 [1] <路人1> 购票成功 <路人0> 购票成功 <路人2> 购票成功 <路人3> 购票成功 <路人4> 购票成功
查看数据库中的数据{"count": 0},确实有购票操作,但看输出,数据写入错乱,只有一张票,卖成功给了5个人
加锁处理:购票行为由并发变成了串行,牺牲了运行效率,但保证了数据安全。
1 from multiprocessing import Process,Lock 2 import json, time 3 4 def search(name): 5 dic = json.load(open('db.txt','r',encoding='utf-8')) 6 print('<%s> 查到的余票数 [%s]'%(name,dic['count'])) 7 8 def get(name,lock): 9 time.sleep(2) #模拟读数据的网络延迟 10 dic = json.load(open('db.txt','r',encoding='utf-8')) 11 if dic['count'] > 0: 12 dic['count'] -= 1 13 time.sleep(2) #模拟读数据的网络延迟 14 json.dump(dic,open('db.txt','w',encoding='utf-8')) 15 print('<%s> 购票成功'%name) 16 17 18 def task(name,lock): 19 search(name) 20 with lock: #相当于lock.acquire(),执行完自代码块自动执行lock.release() 21 get(name,lock) 22 23 if __name__=='__main__': 24 lock = Lock() 25 for i in range(5): #模拟并发5个客户端抢票 26 p = Process(target=task,args=('路人%s'%i,lock)) 27 p.start()
<路人1> 查到的余票数 [1] <路人0> 查到的余票数 [1] <路人2> 查到的余票数 [1] <路人4> 查到的余票数 [1] <路人3> 查到的余票数 [1] <路人1> 购票成功
都可以查票,但只有一个可以购票成功。
队列
上一小节的互斥锁将多个进程并行改为串行来共享同一文件系统(不是共享内存数据),也相当于通过文件系统来进行通信,保证了数据安全不错乱,接下来通过对列来实现在内存里进行进程间的通信。
对列:用于进程间的通信,优点:
1.在内存内共享数据,效率比共享文件系统高
2.加锁保证数据安全不错乱
进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的
创建队列的类(底层就是以管道和锁定的方式实现):
Queue([maxsize]):创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。
参数介绍:
maxsize是队列中允许最大项数,省略则无大小限制。
但需要明确:
1、队列内存放的是消息而非大数据
2、队列占用的是内存空间,因而maxsize即便是无大小限制也受限于内存大小
主要方法介绍:
q.put方法用以插入数据到队列中。
q.get方法可以从队列读取并且删除一个元素。
队列的使用
from multiprocessing import Process,Queue q=Queue(3) #put ,get ,put_nowait,get_nowait,full,empty q.put(1) q.put(2) q.put(3) print(q.full()) #满了 # q.put(4) #再放就阻塞住了 print(q.get()) print(q.get()) print(q.get()) print(q.empty()) #空了 # print(q.get()) #再取就阻塞住了
生产消费者模型
一 生产者消费者模型介绍
为什么要使用生产者消费者模型
生产者指的是生产数据的任务,消费者指的是处理数据的任务,在并发编程中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。
什么是生产者和消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。
生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。
这个阻塞队列就是用来给生产者和消费者解耦的。
好处:
1.平衡了生产者和消费者的处理能力;
2.这个阻塞队列就是用来给生产者和消费者解耦的。
1 #生产者消费者模型总结 2 3 #程序中有两类角色 4 一类负责生产数据(生产者) 5 一类负责处理数据(消费者) 6 7 #引入生产者消费者模型为了解决的问题是: 8 平衡生产者与消费者之间的工作能力,从而提高程序整体处理数据的速度 9 10 #如何实现: 11 生产者<-->队列<——>消费者 12 #生产者消费者模型实现类程序的解耦和
1 from multiprocessing import Process,Lock, Queue 2 import json, time 3 4 def producer(q): 5 for i in range(3): 6 res = '包子%s'%i 7 time.sleep(0.5) 8 print('生产了%s'%res) 9 q.put(res) 10 11 def consumer(q): 12 while True: 13 res = q.get() 14 if not res: 15 print(res) 16 break 17 time.sleep(1) 18 print('消费者吃了%s'%res) 19 20 21 22 if __name__ == '__main__': 23 q = Queue() 24 # 生产者们 25 p1 = Process(target=producer,args=(q,)) 26 p2 = Process(target=producer,args=(q,)) 27 p3 = Process(target=producer,args=(q,)) 28 # 消费者们 29 c1 = Process(target=consumer,args=(q,)) 30 c2 = Process(target=consumer,args=(q,)) 31 32 p1.start() 33 p2.start() 34 p3.start() 35 c1.start() 36 c2.start() 37 38 39 p1.join() 40 p2.join() 41 p3.join() 42 43 q.put(None) #必须要在生产者全部生产完后再发送结束信号,且有多少个消费者就发多少个结束信号 44 q.put(None) 45 c1.join() 46 c2.join() 47 48 print('主')
生产了包子0 生产了包子0 生产了包子0 生产了包子1 生产了包子1 生产了包子1 消费者吃了包子0 生产了包子2 消费者吃了包子0 生产了包子2 生产了包子2 消费者吃了包子0 消费者吃了包子1 消费者吃了包子1 消费者吃了包子1 消费者吃了包子2 消费者吃了包子2 None 消费者吃了包子2 None 主
注:若生产者生产结束后不发送结束信号,则消费者在取完包子后就会卡在q.get(),等待新的包子,因此必须发送结束信号让消费者停止。
JoinableQueue([maxsize]
这就像是一个Queue对象,但队列允许项目的使用者(消费者)通知生成者(生产者)项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。
与之前的例子相反,之前的例子是生产者通知消费者 已生产完。
maxsize是队列中允许最大项数,省略则无大小限制。
方法介绍:
JoinableQueue的实例p除了与Queue对象相同的方法之外还具有:
q.task_done():使用者使用此方法发出信号,表示q.get()的返回项目已经被处理。如果调用此方法的次数大于从队列中删除项目的数量,将引发ValueError异常
q.join():生产者调用此方法进行阻塞,直到队列中所有的项目均被处理。阻塞将持续到队列中的每个项目均调用q.task_done()方法为止
主要方法介绍:
q.put方法用以插入数据到队列中。
q.get方法可以从队列读取并且删除一个元素。
1 from multiprocessing import Process,JoinableQueue 2 import time,random,os 3 def consumer(q,name): 4 while True: 5 res=q.get() 6 time.sleep(random.randint(1,3)) 7 print('\033[43m%s 吃 %s\033[0m' %(name,res)) 8 q.task_done() #发送信号给q.join(),说明已经从队列中取走一个数据并处理完毕了 9 10 def producer(q,name,food): 11 for i in range(3): 12 time.sleep(random.randint(1,3)) 13 res='%s%s' %(food,i) 14 q.put(res) 15 print('\033[45m%s 生产了 %s\033[0m' %(name,res)) 16 q.join() #等到消费者把自己放入队列中的所有的数据都取走之后,生产者才结束 17 18 if __name__ == '__main__': 19 q=JoinableQueue() #使用JoinableQueue() 20 21 #生产者们:即厨师们 22 p1=Process(target=producer,args=(q,'egon1','包子')) 23 p2=Process(target=producer,args=(q,'egon2','骨头')) 24 p3=Process(target=producer,args=(q,'egon3','泔水')) 25 26 #消费者们:即吃货们 27 c1=Process(target=consumer,args=(q,'alex1')) 28 c2=Process(target=consumer,args=(q,'alex2')) 29 c1.daemon=True 30 c2.daemon=True 31 32 #开始 33 p1.start() 34 p2.start() 35 p3.start() 36 c1.start() 37 c2.start() 38 39 p1.join() 40 p2.join() 41 p3.join() 42 #1、主进程等生产者p1、p2、p3结束 43 #2、而p1、p2、p3是在消费者把所有数据都取干净之后才会结束 44 #3、所以一旦p1、p2、p3结束了,证明消费者也没必要存在了,应该随着主进程一块死掉,因而需要将生产者们设置成守护进程 45 print('主')
生产者消费者模型总结
1、程序中有两类角色
一类负责生产数据(生产者)
一类负责处理数据(消费者)
2、引入生产者消费者模型为了解决的问题是
平衡生产者与消费者之间的速度差
程序解开耦合
3、如何实现生产者消费者模型
生产者<--->队列<--->消费者