python之进程

1,什么是进程呢?

进程(Process)是计算机中的关于某数据集合上的一次运算,是系统进行资源分配和调度的基本单位,是操作系统结构的基础。进程是程序的实体。

动态性:进程的实质是程序在多道程序系统中的一次执行过程,进程是动态产生,动态消亡的。
并发性:任何进程都可以同其他进程一起并发执行
独立性:进程是一个能独立运行的基本单位,同时也是系统分配资源和调度的独立单位;
异步性:由于进程间的相互制约,使进程具有执行的间断性,即进程按各自独立的、不可预知的速度向前推进
结构特征:进程由程序、数据和进程控制块三部分组成。
多个不同的进程可以包含相同的程序:一个程序在不同的数据集里就构成不同的进程,能得到不同的结果;但是执行过程中,程序不能发生改变。
进程的特征
程序是指令和数据的有序集合,其本身没有任何运行的含义,是一个静态的概念。
而进程是程序在处理机上的一次执行过程,它是一个动态的概念。
程序可以作为一种软件资料长期存在,而进程是有一定生命期的。
程序是永久的,进程是暂时的。
程序与进程的区别

同一个程序执行两次,就会在操作系统中出现两个进程,可以同时运行一个软件,分别做不同的事情也不会混乱。

2,进程调度

要想多个进程交替运行,操作系统必须对这些进程进行调度,需要进程调度算法。

(1)先来先服务调度算法

(2)短作业优先调度算法

(3)时间片轮转发

(4)多级反馈队列:设置多个就绪队列,为各个队列赋予不同优先级。优先级逐个降低,当一个程序在时间片仍未执行完,便加入到下一对列,直到执行完。每当有新进程进来,优先执行。

3,进程的并行与并发

并行:并行是指两者同时执行,例:比赛,两个人都在不停的往前跑(资源够用。比如三个线程,四核的cpu)

并发:并发是指在资源有限的情况下,两者交替轮流使用资源。(单核cpu)A走一段hou

,让B走一段,B用完后在给A,交替使用。

区别:

并行:是从微观上,就是在一个精确的时间片刻,有不同的程序在执行,要求必须有多个处理器。

并发:是从宏观上,在一个时间段可以看出同时执行的,比如一个服务器同时处理多个session

4,同步异步阻塞非阻塞

操作系统调度算法控制时,程序会进入几个状态:就绪,运行,阻塞。

(1)同步与异步

同步:完成一个任务需要依赖另一个任务,只等别依赖的任务完成后,才能执行自己的。

异步:不需要等待依赖任务完后成,只需通知被依赖的任务执行。

(2)阻塞非阻塞

阻塞:程序停止不在执行

5,进程的创建与结束

multiprocess模块

(1)

Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)

强调:
1. 需要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号

参数介绍:
1 group参数未使用,值始终为None
2 target表示调用对象,即子进程要执行的任务
3 args表示调用对象的位置参数元组,args=(1,2,'egon',)
4 kwargs表示调用对象的字典,kwargs={'name':'egon','age':18}
5 name为子进程的名称
View Code
1 p.start():启动进程,并调用该子进程中的p.run() 
2 p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法  
3 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
4 p.is_alive():如果p仍然运行,返回True
5 p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程 
方法
1 p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
2 p.name:进程的名称
3 p.pid:进程的pid
4 p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
5 p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)
属性
在Windows操作系统中由于没有fork(linux操作系统中创建进程的机制),在创建子进程的时候会自动 import 启动它的这个文件,而在 import 的时候又执行了整个文件。因此如果将process()直接写在文件中就会无限递归创建子进程报错。所以必须把创建子进程的部分使用if __name__ ==‘__main__’ 判断保护起来,import 的时候  ,就不会递归运行了。
注意事项
# from  multiprocessing import Process
# import os
# def func(i):
#     print('%d:子进程%d干的事,父进程:%d'%(i,os.getpid(),os.getppid()))
#
# if __name__=='__main__':
#     p_lst=[]
#     for i in range(10):
#         p=Process(target=func,args=(i,))
#         p.start()
#         p_lst.append(p)
#     # p.join()                         #等子进程执行完,才执行下面的
#     for p in p_lst:p.join()
#     print('---主进程---')

多进程同时运行,子进程的执行顺序不是根据启动顺序决定的。

(2)通过继承Process类开启进程。

import os
from multiprocessing import Process


class MyProcess(Process):
    def __init__(self,name):
        super().__init__()
        self.name=name
    def run(self):                                 #必须有run方法
        print(os.getpid())
        print('%s 正在和女主播聊天' %self.name)

p1=MyProcess('wupeiqi')
p2=MyProcess('yuanhao')
p3=MyProcess('nezha')

p1.start() #start会自动调用run
p2.start()
# p2.run()
p3.start()


p1.join()
p2.join()
p3.join()

print('主线程')

注:进程之间的数据不是共享的(数据的隔离问题)

from multiprocessing import Process

def work():
    global n
    n=0
    print('子进程内: ',n)


if __name__ == '__main__':
    n = 100
    p=Process(target=work)
    p.start()
    print('主进程内: ',n)

5,守护进程

子进程会随主进程的结束而结束。

主进程创建守护进程

       其一:守护进程会在主进程代码执行结束后终止

       其二:守护进程内无法再开子进程,否则抛异常。

 

# start  开启一个进程
# join   用join可以让主进程等待子进程结束

# 守护进程
# 守护进程会随着主进程的代码执行结束而结束
# 正常的子进程没有执行完的时候主进程要一直等着
import time
from multiprocessing import Process
def func():
    print('--'*10)
    time.sleep(15)
    print('--'*10)

def cal_time():
    while True:
        time.sleep(1)
        print('过去了1秒')

if __name__ == '__main__':
    p = Process(target=cal_time)
    p.daemon = True     # 一定在开启进程之前设置
    p.start()
    p2 = Process(target=func)  # 15s
    p2.start()
    for i in range(100):    # 10s
        time.sleep(0.1)
        print('*'*i)
    p2.join()

# 守护进程的进程的作用:
    # 会随着主进程的代码执行结束而结束,不会等待其他子进程
# 守护进程 要在start之前设置
# 守护进程中 不能再开启子进程
View Code

6,锁

  当多个进程使用同一份数据资源的时候,就会引发数据安全或顺序混乱问题

from multiprocessing import Lock

import time
import json
import random
from multiprocessing import Lock
from multiprocessing import Process

def search(i):
    with open('ticket') as f:
        print(i,json.load(f)['count'])

def get(i):
    with open('ticket') as f :
        ticket_num=json.load(f)['count']
    time.sleep(random.random())
    if ticket_num>0:
        with open('ticket','w') as f:
            json.dump({'count':ticket_num-1},f)
        print('%s买到票了'%i)
    else:
        print('%s没买到票'%i)
def task(i,lock):
    search(i)
    lock.acquire()   #锁,钥匙
    get(i)
    lock.release()   #还钥匙

if __name__=='__main__':
    lock=Lock()
    for i in range(20):
        p=Process(target=task,args=(i,lock))
        p.start()
抢票的例子
#加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。
虽然可以用文件共享数据实现进程间通信,但问题是:
1.效率低(共享数据基于文件,而文件是硬盘上的数据)
2.需要自己加锁处理

#因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。
队列和管道都是将数据存放于内存中
队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,
我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。

7,信号量(from multiprocessing import Semaphore)

信号量基于内部的计数器,可以有多个锁钥匙。

import random
import time
from multiprocessing import Process
from multiprocessing import Semaphore

def sing(i,sem):
    sem.acquire()
    print('%s :进去 ktv '%i)
    time.sleep(random.randint(2,8))
    print('%s : 离开 ktv'%i)
    sem.release()

if __name__=='__main__':
    sem=Semaphore(5)          #钥匙数,参数可以设置
    for i in range(20):
        Process(target=sing,args=(i,sem)).start()
例子

8,事件(from multiprocessing import Event)

python线程的事件用于主线程控制其他线程的执行,事件主要提供了三个方法 set、wait、clear。

    事件处理的机制:全局定义了一个“Flag”,如果“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。

clear:将“Flag”设置为False
set:将“Flag”设置为True
介绍
# import time
# import random
# from multiprocessing import Process
# from multiprocessing import Event
#
# def traffic_light(e):
#     while True:
#         if e.is_set():         # e.is_set()是否阻塞 True就是绿灯 False就是红灯
#             time.sleep(3)
#             print('红灯亮')
#             e.clear()        
#         else:
#             time.sleep(3)
#             print('绿灯亮')
#             e.set()
# def car(i,e):
#     e.wait()
#     print('%s车通过'%i)
#
# if __name__=='__main__':
#     e=Event()
#     tra=Process(target=traffic_light,args=(e,))
#     tra.start()
#     for i in range(100):
#         if i%6 == 0:
#             time.sleep(random.randint(1,3))
#         car_pro=Process(target=car,args=(i,e))
#         car_pro.start()
例子

9,队列(from multiprocessing import Queue)

创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。

Queue([maxsize]) 
创建共享的进程队列。maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还需要运行支持线程以便队列中的数据传输到底层管道中。 
Queue的实例q具有以下方法:

q.get( [ block [ ,timeout ] ] ) 
返回q中的一个项目。如果q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 如果设置为False,将引发Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。如果在制定的时间间隔内没有项目变为可用,将引发Queue.Empty异常。

q.get_nowait( ) 
同q.get(False)方法。

q.put(item [, block [,timeout ] ] ) 
将item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。如果设置为False,将引发Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引发Queue.Full异常。

q.qsize() 
返回队列中目前项目的正确数量。此函数的结果并不可靠,因为在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引发NotImplementedError异常。


q.empty() 
如果调用此方法时 q为空,返回True。如果其他进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。

q.full() 
如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的(参考q.empty()方法)。
方法介绍
#1.进程之间通信 可以使用multiprocessing 的 Queue模块
#2.队列有两种创建方式 第一种不传参数 这个队列就没有长度限制 ;传参数,创建一个有最大长度限制的队列
#3.提供两个重要方法;put get
#4.qsize

from multiprocessing import Process
from multiprocessing import Queue

# def q_put(q):
#     q.put('hello')
#
# def q_get(q):
#     print(q.get())
#
# if __name__ =='__main__':
#     q = Queue()
#     p = Process(target=q_put,args=(q,))
#     p.start()
#     p1 = Process(target=q_get, args=(q,))
#     p1.start()
View Code

生产者消费者模型

# 通过队列实现了 主进程与子进程的通信   子进程与子进程之间的通信
# 生产者消费者模型

# 我要生产一个数据 然后 给一个函数 让这个函数依赖这个数据进行运算  拿到结果  —— 同步过程

# 做包子 和 吃包子
import time
def producer(q):  # 生产者
    for i in  range(100):
        q.put('包子%s'%i)

def consumer(q): #  消费者
    for i in range(100):
        time.sleep(1)
        print(q.get())

if __name__ == '__main__':
    q = Queue(10)   # 托盘
    p = Process(target=producer,args=(q,))
    p.start()
    c1 = Process(target=consumer, args=(q,))
    c2 = Process(target=consumer, args=(q,))
    c1.start()
    c2.start()

# 首先 对于内存空间来说 每次只有很少的数据会在内存中
# 对于生产与消费之间的不平衡来说
    # 增加消费者或者增加生产者来调节效率
View Code

 

posted @ 2018-02-02 23:04  一种清孤不等闲  阅读(511)  评论(0编辑  收藏  举报
Live2D