并发编程之多进程知识

 并发编程之多进程

一 、multiprocessing模块介绍
       python中的多线程无法利用多核优势,如果想要充分地使用多核CPU的资源(os.cpu_count()查看),在python中大部分情况需要使用多进程。Python提供了multiprocessing。
multiprocessing模块用来开启子进程,并在子进程中执行我们定制的任务(比如函数),该模块与多线程模块threading的编程接口类似。
    multiprocessing模块的功能众多:支持子进程、通信和共享数据、执行不同形式的同步,提供了Process、Queue、Pipe、Lock等组件。
需要再次强调的一点是:与线程不同,进程没有任何共享状态,进程修改的数据,改动仅限于该进程内。

二、 Process类的介绍

创建进程的类:
Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,
可用来开启一个子进程
强调:
1. 需要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号

参数介绍:
group参数未使用,值始终为None
target表示调用对象,即子进程要执行的任务
args表示调用对象的位置参数元组,args=(1,2,'egon',)
kwargs表示调用对象的字典,kwargs={'name':'egon','age':18}
name为子进程的名称

方法介绍:
p.start():启动进程,并调用该子进程中的p.run()
p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法
p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,
使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
p.is_alive():如果p仍然运行,返回True
p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。
timeout是可选的超时时间。

属性介绍:
p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程
终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
p.name:进程的名称
p.pid:进程的pid


三、Process类的使用
注意:在windows中Process()必须放到# if __name__ == '__main__':下
Since Windows has no fork, the multiprocessing module starts a new Python
process and imports the calling module.
If Process() gets called upon import, then this sets off an infinite succession of
new processes (or until your machine runs out of resources).
This is the reason for hiding calls to Process() inside

if __name__ == "__main__"
since statements inside this if-statement will not get called upon import.
由于Windows没有fork,多处理模块启动一个新的Python进程并导入调用模块。
如果在导入时调用Process(),那么这将启动无限继承的新进程(或直到机器耗尽资源)。
这是隐藏对Process()内部调用的原,使用if __name__ == “__main __”,这个if语句
中的语句将不会在导入时被调用。


创建并开启子进程的方式一

 1 from multiprocessing import Process
 2 import time
 3 
 4 
 5 def task(name):
 6 print('%s is running' % name)
 7 time.sleep(3)
 8 print('%s is done' % name)
 9 
10 
11 if __name__ == '__main__':
12 # 实例化得到四个对象
13 p = Process(target=task, args=('子线程1',))
14 p2 = Process(target=task, args=('子线程2',))
15 p3 = Process(target=task, args=('子线程3',))
16 p4 = Process(target=task, args=('子线程4',))
17 # 调用对象下的方法,开启四个进程
18 p.start() # 仅仅是给操作系统发送一个信号
19 p2.start()
20 p3.start()
21 p4.start()
22 print('主进程')
View Code

 

创建并开启子进程的方式二

 1 from multiprocessing import Process
 2 import time
 3 
 4 
 5 class MyProcess(Process):
 6 def __init__(self,name):
 7 super().__init__()
 8 self.name = name
 9 
10 def run(self):
11 print('%s is running' % self.name)
12 time.sleep(3)
13 print('%s is done' % self.name)
14 
15 
16 if __name__ == '__main__':
17 # 实例化得到四个对象
18 p1 = MyProcess('子进程1')
19 p2 = MyProcess('子进程2')
20 p3 = MyProcess('子进程3')
21 p4 = MyProcess('子进程4')
22 
23 p1.start() # start会自动调用run
24 p2.start()
25 p3.start()
26 p4.start()
27 print('主进程')
View Code

 

进程之间的内存空间是隔离的

 1 from multiprocessing import Process
 2 n = 100 # 在windows系统中应该把全局变量定义在if __name__ == '__main__'之上就可以了
 3 
 4 
 5 def work():
 6 global n
 7 print('子进程内部:', n)
 8 
 9 
10 if __name__ == '__main__':
11 p = Process(target=work)
12 p.start()
13 print('主进程内部:', n)
View Code

 

查看进程与pid

 1 from multiprocessing import Process
 2 import os
 3 import time
 4 
 5 
 6 def task():
 7 print('%s is running,parent id is %s' % (os.getpid(), os.getppid()))
 8 time.sleep(3)
 9 print('%s is done,parent id is %s' % (os.getpid(), os.getppid()))
10 
11 
12 if __name__ == '__main__':
13 p = Process(target=task,)
14 p.start()
15 print('主进程', os.getpid(), os.getppid())
View Code

 

四、join方法
在主进程运行过程中如果想要并发的执行其他任务,我们可以开启子进程,此时主进程的任务和子进程的任务分为两种情况

  一种情况是:在主进程的任务与子进程的任务彼此独立的情况下,主进程的任务先执行完毕后,主进程还需要等待子进程执行完毕,然后统一回收资源

  一种情况是:如果主进程的任务在执行到某一个阶段时,需要等待子进程执行完毕后才能继续执行,就需要一种机制能够让主进程监测子进程是否运行完

毕,在子进程执行完毕后才继续执行,否则一直在原地阻塞,这就是join方法的作用。

 1 from multiprocessing import Process
 2 import time
 3 import os
 4 
 5 
 6 def task():
 7 print('%s is running,parent id is <%s>' % (os.getpid(), os.getppid()))
 8 time.sleep(3)
 9 print('%s is done,parent id is <%s>' % (os.getpid(), os.getppid()))
10 
11 
12 if __name__ == '__main__':
13 p = Process(target=task,)
14 p.start()
15 
16 p.join()
17 print('主进程', os.getpid(), os.getppid())
18 print(p.pid)
View Code

join() 等待进程结束,是让主线程等待;
多任务多并发时,一个进程结束,另一个进程可能早已结束;理论上,jion花费的总时间是耗时间最长的那个进程运行的时间

 

五、Process对象的其他属性或方法

进程对象的其他方法一:terminate(关闭进程,不会立即关闭)与is_alive(查看进程是否存活,返回的是布尔类型)

 1 from multiprocessing import Process
 2 import time
 3 import os
 4 
 5 
 6 def task():
 7 print('%s is running,parent id is <%s>' %(os.getpid(),os.getppid()))
 8 time.sleep(3)
 9 print('%s is done,parent id is <%s>' %(os.getpid(),os.getppid()))
10 
11 
12 def task1(name):
13 print('%s is running' % name)
14 time.sleep(3)
15 print('%s is done' % name)
16 
17 
18 if __name__ == '__main__':
19 p1 = Process(target=task1, args=('egon',), name='子进程1') # 可以用关键参数来指定进程名
20 p=Process(target=task,name='sub——Precsss')
21 p.start()
22 p1.start()
23 p.terminate() # 关闭进程,不会立即关闭,所以is_alive立刻查看的结果可能还是存活
24 time.sleep(1)
25 print(p.is_alive()) # 结果为False
26 print('主进程')
27 print(p.name)
28 print(p1.name, p1.pid,)
View Code

 

六、守护进程

主进程创建子进程,然后将该进程设置成守护自己的进程

特点:1.守护进程会在主进程代码执行结束后就终止
2.守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes
are not allowed to have children

如果我们有两个任务需要并发执行,可以开一个主进程和一个子线程,子线程应该在开启之前设置成守护进程,这样主程序运行结束,守护进程也终止了

 1 from multiprocessing import Process
 2 import time
 3 import random
 4 
 5 
 6 def task(name):
 7 print('%s is running' % name)
 8 time.sleep(random.randrange(1, 3))
 9 print('%s is run done' % name)
10 
11 
12 if __name__ == '__main__':
13 p = Process(target=task, args=('egon',))
14 p.daemon = True # 一定要在p.start()前设置,设置p为守护进程,禁止p创建子进程,并且父进程代码执行结束,p即终止运行
15 p.start()
16 print('') # 只要终端打印出这一行内容,那么守护进程p也就跟着结束掉了
View Code

 

 

七、基于多进程实现的并发套接字通信
客户端

 1 from socket import *
 2 
 3 client=socket(AF_INET,SOCK_STREAM)
 4 client.connect(('127.0.0.1',8080))
 5 
 6 while True:
 7 msg=input('>>: ').strip()
 8 if not msg:continue
 9 
10 client.send(msg.encode('utf-8'))
11 data=client.recv(1024)
12 print(data.decode('utf-8'))
View Code

服务端

 1 from socket import *
 2 from multiprocessing import Process
 3 
 4 def talk(conn):
 5     while True:
 6         try:
 7             data = conn.recv(1024)
 8             if not data: break
 9             conn.send(data.upper())
10         except ConnectionResetError:
11             break
12 
13     conn.close()
14 
15 
16 def server(ip,port):
17     server = socket(AF_INET, SOCK_STREAM)
18     server.setsockopt(SOL_SOCKET, SO_REUSEADDR, 1)
19     server.bind((ip,port))
20     server.listen(5)
21 
22     while True:
23         conn, addr = server.accept()
24         p = Process(target=talk, args=(conn,))
25         p.start()
26 
27     server.close()
28 
29 
30 if __name__ == '__main__':
31     server('127.0.0.1', 8080)
View Code

 

八、互斥锁
进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或者打印终端是没有问题的,但是带来的是竞争,竞争带来的结果是错乱,如下

 1 # 并发运行,效率高,但竞争同一打印终端,带来了打印错乱
 2 from multiprocessing import Process
 3 import os, time
 4 
 5 
 6 def work():
 7 print ('%s is running' % os.getpid ())
 8 time.sleep (2)
 9 print ('%s is done' % os.getpid ())
10 
11 
12 if __name__ == '__main__':
13 for i in range (3):
14 p = Process (target=work)
15 p.start ()
View Code

如何控制,就是加锁处理。互斥锁的原理,就是把并发改成串行,降低了效率,但保证了数据安全不错乱

 1 # 由并发变成了串行,牺牲了运行效率,但避免了竞争
 2 from multiprocessing import Process,Lock
 3 import os,time
 4 
 5 
 6 def work(lock):
 7 lock.acquire() # 加锁
 8 print('%s is running' % os.getpid())
 9 time.sleep(2)
10 print('%s is done' % os.getpid())
11 lock.release() # 释放锁
12 
13 
14 if __name__ == '__main__':
15 lock = Lock()
16 for i in range(3):
17 p = Process(target=work, args=(lock,))
18 p.start()
View Code

 

模拟抢票
使用互斥锁

 1 # 文件db.txt的内容为:{"count":1} 注意一定要用双引号,不然json无法识别
 2 from multiprocessing import Process,Lock
 3 import json
 4 import time
 5 
 6 def search(name):
 7 time.sleep(1)
 8 dic=json.load(open('db.txt','r',encoding='utf-8'))
 9 print('<%s> 查看到剩余票数【%s】' %(name,dic['count']))
10 
11 
12 def get(name):
13 time.sleep(1)
14 dic=json.load(open('db.txt','r',encoding='utf-8'))
15 if dic['count'] > 0:
16 dic['count']-=1
17 time.sleep(3)
18 json.dump(dic,open('db.txt','w',encoding='utf-8'))
19 print('<%s> 购票成功' %name)
20 
21 
22 def task(name,mutex):
23 search(name)
24 mutex.acquire()
25 get(name)
26 mutex.release()
27 
28 if __name__ == '__main__':
29 mutex=Lock()
30 for i in range(10):
31 p=Process(target=task,args=('路人%s' %i,mutex))
32 p.start()
View Code

 

使用join方法

 1 #把文件db.txt的内容重置为:{"count":1}
 2 from multiprocessing import Process,Lock
 3 import time,json
 4 
 5 def search(name):
 6 dic=json.load(open('db.txt'))
 7 print('\033[43m%s 查到剩余票数%s\033[0m' %(name,dic['count']))
 8 
 9 def get(name):
10 dic=json.load(open('db.txt'))
11 time.sleep(1) #模拟读数据的网络延迟
12 if dic['count'] >0:
13 dic['count']-=1
14 time.sleep(1) #模拟写数据的网络延迟
15 json.dump(dic,open('db.txt','w'))
16 print('\033[46m%s 购票成功\033[0m' %name)
17 
18 def task(name,):
19 search(name)
20 get(name)
21 
22 if __name__ == '__main__':
23 for i in range(10):
24 name='<路人%s>' %i
25 p=Process(target=task,args=(name,))
26 p.start()
27 p.join()
View Code

join是将一个任务整体串行,而互斥锁的好处则是可以将一个任务中的某一段代码串行

加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行地修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。

虽然可以用文件共享数据实现进程间通信,但问题是:

1、效率低(共享数据基于文件,而文件是硬盘上的数据)---->转换成 效率高
2、需要自己加锁处理 ---->处理好加锁问题

mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。
队列和管道都是将数据存放于内存中,而队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,因而队列才是进程间通信的最佳选择。
我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。

 

九、队列
进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的

创建队列的类(底层就是以管道和锁定的方式实现):
Queue([maxsize]):创建共享的进程队列,Queue是多进程安全的队列,
可以使用Queue实现多进程之间的数据传递。

参数介绍:
maxsize是队列中允许最大项数,省略则无大小限制。
但需要明确:
1、队列内存放的是消息而非大数据
2、队列占用的是内存空间,因而maxsize即便是无大小限制也受限于内存大小

主要方法介绍:
q.put方法用以插入数据到队列中。
q.get方法可以从队列读取并且删除一个元素。

队列的使用:

 1 from multiprocessing import Process,Queue
 2 
 3 q=Queue(3)
 4 
 5 #put ,get ,put_nowait,get_nowait,full,empty
 6 q.put(1)
 7 q.put(2)
 8 q.put(3)
 9 print(q.full()) #满了
10 # q.put(4) #再放就阻塞住了
11 
12 print(q.get())
13 print(q.get())
14 print(q.get())
15 print(q.empty()) #空了
16 # print(q.get()) #再取就阻塞住了
View Code

 

十、生产者消费者模型
生产者指的是生产数据的任务,消费者指的是处理数据的任务,在并发编程中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

这个阻塞队列就是用来给生产者和消费者解开耦合的

 1 from multiprocessing import Process,Queue
 2 import time
 3 
 4 def producer(q):
 5 for i in range(10):
 6 res='包子%s' %i
 7 time.sleep(0.5)
 8 print('生产者生产了%s' %res)
 9 
10 q.put(res)
11 
12 def consumer(q):
13 while True:
14 res=q.get()
15 if res is None:break
16 time.sleep(1)
17 print('消费者吃了%s' % res)
18 
19  
20 
21 if __name__ == '__main__':
22 #容器
23 q=Queue()
24 
25 #生产者们
26 p1=Process(target=producer,args=(q,))
27 p2=Process(target=producer,args=(q,))
28 p3=Process(target=producer,args=(q,))
29 
30 #消费者们
31 c1=Process(target=consumer,args=(q,))
32 c2=Process(target=consumer,args=(q,))
33 
34 p1.start()
35 p2.start()
36 p3.start()
37 c1.start()
38 c2.start()
39 
40 p1.join()
41 p2.join()
42 p3.join()
43 q.put(None)
44 q.put(None)
45 print('')
View Code

 

JoinableQueue([maxsize])
这就像是一个Queue对象,但队列允许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。

参数介绍
maxsize是队列中允许最大项数,省略则无大小限制。

方法介绍
JoinableQueue的实例p除了与Queue对象相同的方法之外还具有:
q.task_done():使用者使用此方法发出信号,表示q.get()的返回项目已经被处理。如果调用此方法的次数大于从队列中删除项目的数量,将引发ValueError异常
q.join():生产者调用此方法进行阻塞,直到队列中所有的项目均被处理。阻塞将持续到队列中的每个项目均调用q.task_done()方法为止

基于JoinableQueue实现生产者消费者模型

 1 from multiprocessing import Process,JoinableQueue
 2 import time
 3 
 4 def producer(q):
 5 for i in range(2):
 6 res='包子%s' %i
 7 time.sleep(0.5)
 8 print('生产者生产了%s' %res)
 9 
10 q.put(res)
11 q.join()
12 
13 def consumer(q):
14 while True:
15 res=q.get()
16 if res is None:break
17 time.sleep(1)
18 print('消费者吃了%s' % res)
19 q.task_done()
20 
21 
22 if __name__ == '__main__':
23 #容器
24 q=JoinableQueue()
25 
26 #生产者们
27 p1=Process(target=producer,args=(q,))
28 p2=Process(target=producer,args=(q,))
29 p3=Process(target=producer,args=(q,))
30 
31 #消费者们
32 c1=Process(target=consumer,args=(q,))
33 c2=Process(target=consumer,args=(q,))
34 c1.daemon=True
35 c2.daemon=True
36 
37 p1.start()
38 p2.start()
39 p3.start()
40 c1.start()
41 c2.start()
42 
43 
44 p1.join()
45 p2.join()
46 p3.join()
47 #1、主进程等生产者p1、p2、p3结束
48 #2、而p1、p2、p3是在消费者把所有数据都取干净之后才会结束
49 #3、所以一旦p1、p2、p3结束了,证明消费者也没必要存在了,应该随着主进程一块死掉,因而需要将生产者们设置成守护进程
50 print('')
View Code

 

 

posted @ 2018-07-09 00:39  我要去流浪  阅读(130)  评论(0编辑  收藏  举报