线程与进程
一、线程介绍 |
线程是操作系统能够进行运算调度的最小单位,它被包含在进程之中,是进程中的实际运作单位,一条线程指的是进程中一个单一顺序的控制流,一个进程中可以并发多个线程,每条线程并行执行不同的任务。
在同一个进程内的线程的数据是可以进行互相访问的。
线程的切换使用过上下文来实现的,比如有一本书,有a和b这两个人(两个线程)看,a看完之后记录当前看到那一页哪一行,然后交给b看,b看完之后记录当前看到了那一页哪一行,此时a又要看了,那么a就通过上次记录的值(上下文)直接找到上次看到了哪里,然后继续往下看。
线程中的5种状态:
各状态说明:
1.新建状态(New):
使用threading.threading创建实例时候,线程还没有开始运行,此时线程处在新建状态。 当一个线程处于新生状态时,程序还没有开始运行线程中的代码。
2.就绪状态(Runnable)
一个新创建的线程并不自动开始运行,要执行线程,必须调用线程的start()方法。当线程对象调用start()方法即启动了线程,start()方法创建线程运行的系统资源,并调度线程运行run()方法。当start()方法返回后,线程就处于就绪状态。
处于就绪状态的线程并不一定立即运行run()方法,线程还必须同其他线程竞争CPU时间,只有获得CPU时间才可以运行线程。因为在单CPU的计算机系统中,不可能同时运行多个线程,一个时刻仅有一个线程处于运行状态。因此此时可能有多个线程处于就绪状态。
3.运行状态(Running)
当线程获得CPU时间后,它才进入运行状态,真正开始执行run()方法.
4. 阻塞状态(Blocked)
线程运行过程中,可能由于各种原因进入阻塞状态:
1>线程通过调用sleep方法进入睡眠状态;
2>线程调用一个在I/O上被阻塞的操作,即该操作在输入输出操作完成之前不会返回到它的调用者;
3>线程试图得到一个锁,而该锁正被其他线程持有;
4>线程在等待某个触发条件;
......
所谓阻塞状态是正在运行的线程没有运行结束,暂时让出CPU,这时其他处于就绪状态的线程就可以获得CPU时间,进入运行状态。
5. 死亡状态(Dead)
有两个原因会导致线程死亡:
1) run方法正常退出而自然死亡,
2) 一个未捕获的异常终止了run方法而使线程猝死。
为了确定线程在当前是否存活着(就是要么是可运行的,要么是被阻塞了),需要使用isAlive方法。如果是可运行或被阻塞,这个方法返回true,如果线程仍旧是new状态且不是可运行的, 或者线程死亡了,则返回false.
python中的多线程:
Python通过两个标准库thread和threading提供对线程的支持。thread提供了低级别的、原始的线程以及一个简单的锁,threading则弥补了其缺陷,所以线程模块使用threading就可以了。
多线程在Python内实则就是一个假象,为什么这么说呢,因为CPU的处理速度是很快的,所以我们看起来以一个线程在执行多个任务,每个任务的执行速度是非常之快的,利用上下文切换来快速的切换任务,以至于我们根本感觉不到。
但是频繁的使用上下文切换也是要耗费一定的资源,因为单线程在每次切换任务的时候需要保存当前任务的上下文。
什么时候用到多线程?
首先IO操作是不占用CPU的,只有计算的时候才会占用CPU(譬如1+1=2),Python中的多线程不适合CPU密集型的任务,适合IO密集型的任务(sockt server).
IO密集型(I/O bound):频繁网络传输、读取硬盘及其他IO设备称之为IO密集型,最简单的就是硬盘存取数据,IO操作并不会涉及到CPU。
计算密集型(CPU bound):程序大部分在做计算、逻辑判断、循环导致cpu占用率很高的情况,称之为计算密集型,比如说python程序中执行了一段代码1+1
,这就是在计算1+1的值
线程创建方法:
1.普通方法
#!/usr/bin/env python3 #_*_ coding:utf-8 _*_ #Author:wd import threading def task(n): print('run task ',n) for i in range(50):#启动50个线程 t=threading.Thread(target=task,args=(i,))#args参数是一个tuple t.start()#启动线程
2.类继承方法
#!/usr/bin/env python3 #_*_ coding:utf-8 _*_ #Author:wd import threading class Mythreading(threading.Thread): def __init__(self,fun,args): self._fun=fun self._agrs=args super(Mythreading,self).__init__() def run(self):#启动线程时候会允许run方法,这里重写父类run方法,可以自定义需要运行的task print('start running ....') self._fun(self._agrs) def func(n): print(n) t=Mythreading(func,1) t.start()#启动运行线程 结果: start running .... 1
threading模块提供方法:
- start 线程准备就绪,等待CPU调度
- setName 为线程设置名称
- getName 获取线程名称
- setDaemon 设置为守护线程(在start之前),默认为前台线程,设置为守护线程以后,如果主线程退出,守护线程无论执行完毕都会退出
- join 等待线程执行结果,逐个执行每个线程,执行完毕后继续往下执行,该方法使得多线程变得无意义
- run 线程被cpu调度后自动执行线程对象的run方法
- isAlive 判断线程是否活跃
- threading.active_count 返回当前活跃的线程数量
- threading.current_thread 获取当前线程对象
使用list主线程阻塞,子现在并行执行demo:
#!/usr/bin/env python3 #_*_ coding:utf-8 _*_ #Author:wd import threading import time def fun(n): print('start running',n) time.sleep(2) print('end runing ',n) thread_list=[] for i in range(10): t=threading.Thread(target=fun,args=(i,)) t.start() thread_list.append(t) for r in thread_list:#循环每个线程,等待其结果,好处是,这样做所有线程启动之后一起join r.join()
这样的好处在于,在启动线程后统一join,缩短了程序运行时间,并且提高运行效率。
关于python的GIL(Global Interpreter Lock)
首先需要明确的一点是GIL并不是Python的特性,它是在实现Python解析器(CPython)时所引入的一个概念。就好比C++是一套语言(语法)标准,但是可以用不同的编译器来编译成可执行代码。有名的编译器例如GCC,INTEL C++,Visual C++等。Python也一样,同样一段代码可以通过CPython,PyPy,Psyco等不同的Python执行环境来执行。像其中的JPython就没有GIL。然而因为CPython是大部分环境下默认的Python执行环境。所以在很多人的概念里CPython就是Python,也就想当然的把GIL归结为Python语言的缺陷。所以这里要先明确一点:GIL并不是Python的特性,Python完全可以不依赖于GIL。
Python GIL其实是功能和性能之间权衡后的产物,它尤其存在的合理性,也有较难改变的客观因素,无论你启多少个线程,你有多少个cpu, Python在执行的时候在同一时刻只允许一个线程运行。
线程锁(互斥锁Mutex)
一个进程下可以启动多个线程,多个线程共享父进程的内存空间,也就意味着每个线程可以访问同一份数据,此时,如果2个线程同时要修改同一份数据,会出现什么状况?
import threading import time NUM=5 def fun(): global NUM NUM-=1 time.sleep(2) print(NUM) for i in range(5): t=threading.Thread(target=fun) t.start() 结果: 0 0 0 0 0
上述结果并不是我们想要的,去掉了sleep结果才是我们想要的,若是不去掉sleep呢,该怎么办?,此时我们可以加锁实现。
import threading import time NUM=5#共享数据 def fun(): global NUM lock.acquire()#获取锁 NUM-=1 time.sleep(2) print(NUM) lock.release()#释放锁 lock=threading.Lock() for i in range(5): t=threading.Thread(target=fun) t.start()
RLock(递归锁)
递归锁,通俗来讲就是大锁里面再加小锁,有人可能会问,那我使用Lock不就完了吗,其实不然,想象一下,现在有两道门,一把锁对应一把钥匙,如果使用Lock,进去第一个门获取一把锁,在进去第二个人门又获取一把锁,然后要出来开锁时候(释放锁)程序还是用第一个门进来的钥匙,此时就会一直阻塞,那么RLock就解决了这样的问题场景。
demo
import threading import time l=threading.RLock()#实例化 def indoor(name): print('%s across second door'%name) l.acquire() print('%s do somethind',name) time.sleep(2) l.release() def outdoor(name): print('%s across first door'%name) l.acquire() indoor(name) print('%s do somethind'% name) time.sleep(1) l.release() outdoor('wd') #上述代码,若将l=threading.RLock()改为l=threading.Lock(),程序将一直阻塞。
Semaphore&BoundedSemaphore(信号量)
前面已经介绍过了互斥锁, 互斥锁同时只允许一个线程更改数据,而Semaphore是同时允许一定数量的线程更改数据 ,比如厕所有3个坑,那最多只允许3个人上厕所,后面的人只能等里面有人出来了才能再进去.
1.Semaphore和BoundedSemaphore使用方法一致
方法:
- acquire(blocking=True,timeout=None)
- release()
demo:
import threading import time def door(n): sp.acquire()#获取一把锁,可设置超时时间 print('%d in the door'% n) time.sleep(1) print('%d out the door'% n) sp.release()#释放锁 sp=threading.Semaphore(3)#最多允许3个线程同时运行(获取到信号量) for i in range(5): t=threading.Thread(target=door,args=(i,)) t.start()#启动线程 结果: 0 in the door 1 in the door 2 in the door 1 out the door 0 out the door 3 in the door 4 in the door 2 out the door 4 out the door 3 out the door
Events
Event是线程间通信最间的机制之一:一个线程发送一个event信号,其他的线程则等待这个信号。用于主线程控制其他线程的执行。 Events 维护着一个flag,这个flag可以使用set()设置成True或者使用clear()重置为False,flag默认为False,而当flag为false时候,wait(timeout=s)则阻塞。
常用方法:
- Event.set():将标志设置为True
- Event.clear():清空标志位,设置为False
- Event.wait(timeout=s):等待(阻塞),直到标志位变成True
- Event.is_set():判断标志位是否被设置
通过Event来实现两个或多个线程间的交互,例如红绿灯,即起动一个线程做交通指挥灯,生成几个线程做车辆,车辆行驶按红灯停,绿灯行的规则。
demo:
import threading,time import random def light(): if not event.isSet(): event.set() #wait就不阻塞 #绿灯状态 count = 0 while True: if count < 10: print('\033[42;1m--green light on---\033[0m') elif count <13: print('\033[43;1m--yellow light on---\033[0m') elif count <20: if event.isSet(): event.clear() print('\033[41;1m--red light on---\033[0m') else: count = 0 event.set() #打开绿灯 time.sleep(1) count +=1 def car(n): while 1: time.sleep(random.randrange(10)) if event.isSet(): #绿灯 print("car [%s] is running.." % n) else: print("car [%s] is waiting for the red light.." %n) #event.wait() if __name__ == '__main__': event = threading.Event() Light = threading.Thread(target=light) Light.start() for i in range(3): t = threading.Thread(target=car,args=(i,)) t.start()
Timer(定时器)
Timer用来定时执行某个线程,若取消运行,则使用cancel方法。
demo:
import threading def show_name(name): print("my name is ",name) t=threading.Timer(5,show_name,args=('wd',))#设置5秒后运行该线程 t.start()#启动线程 print('要开始运行线程了') t.cancel()#取消运行的线程 结果: 要开始运行线程了
线程池:
启动一个线程消耗的资源非常少,所以对线程的使用官方并没有给出标准的线程池模块,第三方模块(Threadpool),下面我们自己定义简单线程池。
简单demo:
import threading import queue import time class MyThread: def __init__(self,max_num=10): self.queue = queue.Queue() for n in range(max_num): self.queue.put(threading.Thread) def get_thread(self): return self.queue.get() def put_thread(self): self.queue.put(threading.Thread) pool = MyThread(5) def RunThread(arg,pool): print(arg) time.sleep(2) pool.put_thread() for n in range(10): Thread=pool.get_thread() t=Thread(target=RunThread, args=(n,pool,)) t.start()
二、进程介绍 |
一个进程至少要包含一个线程,每个进程在启动的时候就会自动的启动一个线程,进程里面的第一个线程就是主线程,每次在进程内创建的子线程都是由主线程进程创建和销毁,子线程也可以由主线程创建出来的线程创建和销毁线程。
进程是对各种资源管理的集合,比如要调用内存、CPU、网卡、声卡等,进程要操作上述的硬件之前都必须要创建一个线程,进程里面可以包含多个线程,QQ就是一个进程。
继续拿QQ来说,比如我现在打卡了QQ的聊天窗口、个人信息窗口、设置窗口等,那么每一个打开的窗口都是一个线程,他们都在执行不同的任务,比如聊天窗口这个线程可以和好友进行互动,聊天,视频等,个人信息窗口我可以查看、修改自己的资料。
为了进程安全起见,所以两个进程之间的数据是不能够互相访问的(默认情况下),比如自己写了一个应用程序,然后让别人运行起来,那么我的这个程序就可以访问用户启动的其他应用,我可以通过我自己的程序去访问QQ,然后拿到一些聊天记录等比较隐秘的信息,那么这个时候就不安全了,所以说进程与进程之间的数据是不可以互相访问的,而且每一个进程的内存是独立的。
多进程
多进程的资源是独立的,不可以互相访问,如果想多个进程之间实现数据交互就必须通过中间件实现。
启动一个进程方法与启动一个线程类似
demo:
#!/usr/bin/env python3 #_*_ coding:utf-8 _*_ #Author:wd from multiprocessing import Process def show(n): print('runing',n) if __name__ == '__main__': p=Process(target=show,args=(1,)) p.start() p.join()
在进程中启动线程:
#!/usr/bin/env python3 #_*_ coding:utf-8 _*_ #Author:wd from multiprocessing import Process import threading import os def fun(n): print("run threading ",n) print('当前进程id ',os.getpid()) def show(n): print("子进程id:{} 父进程id:{} ".format(os.getpid(),os.getppid()))#ppid指父进程pid,pid当前进程pid print('runing',n) t=threading.Thread(target=fun,args=(2,))#启动一个线程 t.start() t.join() if __name__ == '__main__': print("主进程id",os.getpid()) p=Process(target=show,args=(1,)) p.start() p.join() 结果: 主进程id 8092 子进程id:9100父进程id:8092 runing 1 run threading 2 当前进程id 9100
进程间通信方法(Queue、Pipes、Mangers)
前面已经提到,进程间通信是需要中间件来实现的,下面介绍几个实现进程间通信的中间件。
1.进程Queue:建立一个共享的队列(其实并不是共享的,实际是克隆的,内部维护着数据的共享),多个进程可以向队列里存/取数据。
demo:
#!/usr/bin/env python3 #_*_ coding:utf-8 _*_ #Author:wd from multiprocessing import Queue,Process def fun(q): q.put([1,2,3]) if __name__ == '__main__': Q=Queue(5)#设置进程队列长度 for i in range(2):#启动两个进程,想队列里put数据 process=Process(target=fun,args=(Q,))#创建一个进程,将Q传入,实际上是克隆了Q process.start() process.join() print(Q.get())#在主进程中获取元素 print(Q.get()) 结果: [1, 2, 3] [1, 2, 3]
2.Pipes(管道)
正如其名,进程间的管道内部机制通过启动socket连接来维护两个进程间的通讯。
demo:
from multiprocessing import Process,Pipe def son_process(con): con.send('hello wd')#向管道另一头发起 print("from father:",con.recv())#子进程收取数据,如果没收到会阻塞 if __name__ == '__main__': son,father=Pipe()#实例化管道,生成socket连接,一个客户端一个服务端 P=Process(target=son_process,args=(son,))#启动一个子进程,将生成的socket对象传递进去 P.start() #P.join() print(father.recv())#主进程收取子进程信息 father.send('ok,i know') 结果: hello wd from father: ok,i know
3.Manager(数据共享)
Manager实现了多个进程间的数据共享,支持的数据类型有 list
, dict
, Namespace
, Lock
, RLock
, Semaphore
, BoundedSemaphore
, Condition
, Event
, Barrier
, Queue
, Value
and Array。
demo:
from multiprocessing import Manager,Process def fun(l,d): l.append(1) l.append(2) d['name']='wd' if __name__ == '__main__': with Manager() as manager: L=manager.list()#定义共享列表 D=manager.dict()#定义共享字典 p1=Process(target=fun,args=(L,D))#启动一个进程,将定义的list和dict传入 p1.start()#启动进程 p1.join()#等带结果 print(L) print(D) 结果: [1, 2] {'name': 'wd'}
进程锁(Lock)
进程锁和线程锁使用语法上完全一致。
demo:
from multiprocessing import Process,Lock import time def fun(l,i): l.acquire()#获取锁 print("running process ",i) time.sleep(2) l.release()#释放 if __name__ == '__main__': lock=Lock()#生成锁的实例 for i in range(5): p=Process(target=fun,args=(lock,i))#创建进程 p.start()#启动,这里没有join,看到的效果还是窜行的 结果: running process 0 running process 1 running process 2 running process 3 running process 4
pool(进程池)
进程池内部维护一个进程序列,当使用时,则去进程池中获取一个进程,如果进程池序列中没有可供使用的进进程,那么程序就会等待,直到进程池中有可用进程为止。
主要方法:
- apply :该方法启动进程为串行执行
- apply_async:启动进程为并行执行
demo:
from multiprocessing import Pool import os import time def fun(i): print('runing process ',i) time.sleep(2) def end_fun(i=None): print('done') print("call back process:",os.getpid()) if __name__ == '__main__': print("主进程:",os.getpid()) pool=Pool(3)#最多运行3个进程同时运行 for i in range(5): pool.apply_async(func=fun,args=(i,),callback=end_fun)#并行执行,callback回调由主程序回调 #pool.apply(func=fun,args=(i,))串行执行 pool.close()#关闭进程池 pool.join()#进程池中进程执行完毕后再关闭,如果注释,那么程序直接关闭 结果: 主进程: 12396 runing process 0 runing process 1 runing process 2 runing process 3 runing process 4 done call back process: 12396 done call back process: 12396 done call back process: 12396 done call back process: 12396 done call back process: 12396
三、线程与进程的关系与区别 |
- 线程是执行的指令集,进程是资源的集合;
- 线程的启动速度要比进程的启动速度要快;
- 两个线程的执行速度是一样的;
- 进程与线程的运行速度是没有可比性的;
- 线程共享创建它的进程的内存空间,进程的内存是独立的。
- 两个线程共享的数据都是同一份数据,两个子进程的数据不是共享的,而且数据是独立的;
- 同一个进程的线程之间可以直接交流,同一个主进程的多个子进程之间是不可以进行交流,如果两个进程之间需要通信,就必须要通过一个中间代理来实现;
- 一个新的线程很容易被创建,一个新的进程创建需要对父进程进行一次克隆
- 一个线程可以控制和操作同一个进程里的其他线程,线程与线程之间没有隶属关系,但是进程只能操作子进程
- 改变主线程,有可能会影响到其他线程的行为,但是对于父进程的修改是不会影响子进程;