协程
有多少个任务就开多少个进程或者线程 # 什么是池 concurrent.futures模块 # 要在程序开始的时候,还没提交任务先创建几个线程或者进程 # 放在一个池子里,这就是池 # 为什么要用池? # 如果先开好进程/线程,那么有任务之后就可以直接使用这个池中的数据了 # 并且开好的线程或者进程会一直存在在池中,可以被多个任务反复利用 # 这样极大的减少了开启\关闭\调度线程/进程的时间开销 # 池中的线程/进程个数控制了操作系统需要调度的任务个数,控制池中的单位 # 有利于提高操作系统的效率,减轻操作系统的负担 # 发展过程 # threading模块 没有提供池 # multiprocessing模块 仿照threading写的 Pool # concurrent.futures模块 线程池,进程池都能够用相似的方式开启\使用 # 协程:***** # gevent 第三方模块 ***** # 会用。 # 能处理一些基础的网络操作 # asyncio 内置模块,底层的协程模块 # aiohttp模块:并发的爬虫 # flask :轻量级的web框架, # sanic :异步的轻量级的web框架 # async: ***** # await: ****** # concurrent.futures模块提供了高度封装的异步调用接口 # ThreadPoolExecutor:线程池,提供异步调用 # ProcessPoolExecutor: 进程池,提供异步调用 # Both implement the same interface, which is defined by the abstract Executor class. # # #2 基本方法 # #submit(fn, *args, **kwargs) # 异步提交任务 # # #map(func, *iterables, timeout=None, chunksize=1) # 取代for循环submit的操作 # # #shutdown(wait=True) # 相当于进程池的pool.close()+pool.join()操作 # wait=True,等待池内所有任务执行完毕回收完资源后才继续 # wait=False,立即返回,并不会等待池内的任务执行完毕 # 但不管wait参数为何值,整个程序都会等到所有任务执行完毕 # submit和map必须在shutdown之前 # # #result(timeout=None) # 取得结果 # # #add_done_callback(fn) # 回调函数 # # # done() # 判断某一个线程是否完成 # # # cancle() # 取消某个任务
# gil锁 # 全局解释器锁,Cpython解释器下有的 # 导致了python的多线程不能利用多核(不能并行) # 池 concurrent.futures # 进程池 p = ProcessPoolExecutor(n) # 线程池 p = ThreadPoolExecutor(n) # future = submit 提交任务 # future.result()获取结果 # map 循环提交任务 # add_done_callback 回调函数 # 协程 # 协程:本质是一个线程 # 能够在一个线程内的多个任务之间来回切换 # 节省io操作的时间也只能是和网络操作相关的 # 特点:数据安全,用户级别,开销小,不能利用多核,能够识别的io操作少 # gevent 第三方模块 完成并发的socket server # 协程对象.spawn(func,参数) # 能识别的io操作也是有限的 # 并且要想让gevent能够识别一些导入的模块中的io操作 # from gevent import monkey;monkey.patch_all() # asyncio 内置模块 # await 写好的asyncio中的阻塞方法 # async 标识一个函数时协程函数,await语法必须用在async函数中
线程池 *****
import time import random from threading import current_thread #查看线程的函数 from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor def func(a,b): print(current_thread().ident,'start',a,b) time.sleep(random.randint(1,4)) print(current_thread().ident,'end') if __name__ == '__main__': tp = ThreadPoolExecutor(4) for i in range(20): tp.submit(func,i,b=i+1) #异步提交任务
# 实例化 创建池
# 向池中提交任务,submit 传参数(按照位置传,按照关键字传)
# 进程池
import os import time,random from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor def func(a,b): print(os.getpid(),'start',a,b) time.sleep(random.randint(1,4)) print(os.getpid(),'end') if __name__ == '__main__': tp = ProcessPoolExecutor(4) for i in range(20): tp.submit(func,i,b=i+1)
获取任务结果
import os import time,random from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor def func(a,b): print(os.getpid(),'start',a,b) time.sleep(random.randint(1,4)) print(os.getpid(),'end') return a*b if __name__ == '__main__': tp = ProcessPoolExecutor(4) futrue_l = {} for i in range(20): # 异步非阻塞的 ret = tp.submit(func,i,b=i+1) futrue_l[i] = ret # print(ret.result()) # Future未来对象 for key in futrue_l: # 同步阻塞的 print(key,futrue_l[key].result())
# map 只适合传递简单的参数,并且必须是一个可迭代的类型作为参数
第一种 import os import time,random from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor def func(a): print(os.getpid(),'start',a[0],a[1]) time.sleep(random.randint(1,4)) print(os.getpid(),'end') return a[0]*a[1] if __name__ == '__main__': tp = ProcessPoolExecutor(4) ret = tp.map(func,((i,i+1) for i in range(20))) for key in ret: # 同步阻塞的 print(key)
# # map第二种。不需要多传参数 import os import time,random from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor def func(a): b = a+1 print(os.getpid(),'start',a,b) time.sleep(random.randint(1,4)) print(os.getpid(),'end') return a*b if __name__ == '__main__': tp = ProcessPoolExecutor(4) map= tp.map(func,range(20)) for key in map: print(key)
回调函数 : 效率最高的
import time,random from threading import current_thread from concurrent.futures import ThreadPoolExecutor def func(a,b): print(current_thread().ident,'start',a,b) #线程的函数 time.sleep(random.randint(1,4)) print(current_thread().ident,'end',a) return (a,a*b) def print_func(ret): # 异步阻塞 print(ret.result()) if __name__ == '__main__': tp = ThreadPoolExecutor(4) futrue_l = {} for i in range(20): # 异步非阻塞的 ret = tp.submit(func,i,b=i+1) ret.add_done_callback(print_func) # 回调过程是 异步阻塞 ret这个任务会在执行完毕的瞬间立即触发print_func函数,并且把任务的返回值对象传递到print_func做参数 # 异步阻塞 回调函数 给ret对象绑定一个回调函数,等待ret对应的任务有了结果之后立即调用print_func这个函数 # 就可以对结果立即进行处理,而不用按照顺序接收结果处理结果
不用回调函数: # 按照顺序获取网页 百度 python openstack git sina # 也只能按照顺序写 # 用上了回调函数 # 按照顺序获取网页 百度 python openstack git sina # 哪一个网页先返回结果,就先执行那个网页对应的parserpage(回调函数) # 会起池\会提交任务 # 会获取返回值\会用回调函数 # 1.所有的例题 会默 # 2.进程池(高计算的场景,没有io(没有文件操作\没有数据库操作\没有网络操作\没有input)) : >cpu_count*1 <cpu_count*2 # 线程池(一般根据io的比例定制) : cpu_count*5 # 5*20 = 100并发
回调函数例子
from concurrent.futures import ThreadPoolExecutor import requests import os def get_page(url): # 访问网页,获取网页源代码 线程池中的线程来操作 print('<进程%s> get %s' %(os.getpid(),url)) respone=requests.get(url) if respone.status_code == 200: return {'url':url,'text':respone.text} def parse_page(res): # 获取到字典结果之后,计算网页源码的长度,把https://www.baidu.com : 1929749729写到文件里 线程任务执行完毕之后绑定回调函数 res=res.result() print('<进程%s> parse %s' %(os.getpid(),res['url'])) parse_res='url:<%s> size:[%s]\n' %(res['url'],len(res['text'])) with open('db.txt','a') as f: f.write(parse_res) if __name__ == '__main__': urls=[ 'https://www.baidu.com', 'https://www.python.org', 'https://www.openstack.org', 'https://help.github.com/', 'http://www.sina.com.cn/' ] # 获得一个线程池对象 = 开启线程池 tp = ThreadPoolExecutor(4) # 循环urls列表 for url in urls: # 得到一个futrue对象 = 把每一个url提交一个get_page任务 ret = tp.submit(get_page,url) # 给futrue对象绑定一个parse_page回调函数 ret.add_done_callback(parse_page) # 谁先回来谁就先写结果进文件
Gevent模块
安装:pip3 install gevent
Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。
Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。
***** from gevent import monkey monkey.patch_all() import time import gevent def func(): # 带有io操作的内容写在函数里,然后提交func给gevent print('start func') time.sleep(1) print('end func') g1 = gevent.spawn(func) g2 = gevent.spawn(func) g3 = gevent.spawn(func) gevent.joinall([g1,g2,g3])
g1=gevent.spawn(func,1,,2,3,x=4,y=5)创建一个协程对象g1,spawn括号内第一个参数是函数名,如eat,后面可以有多个参数,可以是位置实参或关键字实参,都是传给函数eat的 g2=gevent.spawn(func2) g1.join() #等待g1结束 g2.join() #等待g2结束 #或者上述两步合作一步:gevent.joinall([g1,g2]) g1.value#拿到func1的返回值 用法介绍
例:遇到io主动切换 import gevent def eat(name): print('%s eat 1' %name) gevent.sleep(2) print('%s eat 2' %name) def play(name): print('%s play 1' %name) gevent.sleep(1) print('%s play 2' %name) g1=gevent.spawn(eat,'egon') g2=gevent.spawn(play,name='egon') g1.join() g2.join() #或者gevent.joinall([g1,g2]) print('主')
上例gevent.sleep(2)模拟的是gevent可以识别的io阻塞,而time.sleep(2)或其他的阻塞,gevent是不能直接识别的需要用下面一行代码,打补丁,就可以识别了
from gevent import monkey;monkey.patch_all() import gevent import time def eat(): print('eat food 1') time.sleep(2) print('eat food 2') def play(): print('play 1') time.sleep(1) print('play 2') g1=gevent.spawn(eat) g2=gevent.spawn(play) gevent.joinall([g1,g2]) print('主')
我们可以用threading.current_thread().getName()来查看每个g1和g2,查看的结果为DummyThread-n,即假线程
from gevent import monkey;monkey.patch_all() import threading import gevent import time def eat(): print(threading.current_thread().getName()) print('eat food 1') time.sleep(2) print('eat food 2') def play(): print(threading.current_thread().getName()) print('play 1') time.sleep(1) print('play 2') g1=gevent.spawn(eat) g2=gevent.spawn(play) gevent.joinall([g1,g2]) print('主')
Gevent之同步与异步
from gevent import spawn,joinall,monkey;monkey.patch_all() import time def task(pid): """ Some non-deterministic task """ time.sleep(0.5) print('Task %s done' % pid) def synchronous(): # 同步 for i in range(10): task(i) def asynchronous(): # 异步 g_l=[spawn(task,i) for i in range(10)] joinall(g_l) print('DONE') if __name__ == '__main__': print('Synchronous:') synchronous() print('Asynchronous:') asynchronous() # 上面程序的重要部分是将task函数封装到Greenlet内部线程的gevent.spawn。 # 初始化的greenlet列表存放在数组threads中,此数组被传给gevent.joinall 函数, # 后者阻塞当前流程,并执行所有给定的greenlet任务。执行流程只会在 所有greenlet执行完后才会继续向下走。
Gevent之应用举例一
通过gevent实现单线程下的socket并发
注意 :from gevent import monkey;monkey.patch_all()一定要放到导入socket模块之前,否则gevent无法识别socket的阻塞
server from gevent import monkey;monkey.patch_all() from socket import * import gevent #如果不想用money.patch_all()打补丁,可以用gevent自带的socket # from gevent import socket # s=socket.socket() def server(server_ip,port): s=socket(AF_INET,SOCK_STREAM) s.setsockopt(SOL_SOCKET,SO_REUSEADDR,1) s.bind((server_ip,port)) s.listen(5) while True: conn,addr=s.accept() gevent.spawn(talk,conn,addr) def talk(conn,addr): try: while True: res=conn.recv(1024) print('client %s:%s msg: %s' %(addr[0],addr[1],res)) conn.send(res.upper()) except Exception as e: print(e) finally: conn.close() if __name__ == '__main__': server('127.0.0.1',8080)
client from socket import * client=socket(AF_INET,SOCK_STREAM) client.connect(('127.0.0.1',8080)) while True: msg=input('>>: ').strip() if not msg:continue client.send(msg.encode('utf-8')) msg=client.recv(1024) print(msg.decode('utf-8'))
多线程并发多个客户端
from threading import Thread from socket import * import threading def client(server_ip,port): c=socket(AF_INET,SOCK_STREAM) #套接字对象一定要加到函数内,即局部名称空间内,放在函数外则被所有线程共享,则大家公用一个套接字对象,那么客户端端口永远一样了 c.connect((server_ip,port)) count=0 while True: c.send(('%s say hello %s' %(threading.current_thread().getName(),count)).encode('utf-8')) msg=c.recv(1024) print(msg.decode('utf-8')) count+=1 if __name__ == '__main__': for i in range(500): t=Thread(target=client,args=('127.0.0.1',8080)) t.start() 多线程并发多个客户端
asyncio模块
asyncio 内置模块 await 写好的asyncio中的阻塞方法 async 标识一个函数时协程函数,await语法必须用在async函数中 import asyncio async def func(): print('sjkhaf') await asyncio.sleep(1) print('sjkhaf') loop = asyncio.get_event_loop() loop.run_until_complete(func()) loop.run_until_complete(asyncio.wait([func(),func(),func()]))
例子 import asyncio async def func(name): #定义协程函数 print('start',name) # await 可能会发生阻塞的方法 # await 关键字必须写在一个async函数里 await asyncio.sleep(1) #await可能会阻塞 会切走,切出去后会有第三方的管理 print('end') loop = asyncio.get_event_loop() # loop.run_until_complete(func('alex')) #可不传参,也可传参 loop.run_until_complete(asyncio.wait([func('alex'),func('太白')])) #可同时用多个函数 asyncio.wait接收的是一个列表 异步就实现了
# 协程的原理
# 协程的原理 import time def sleep(n): print('start sleep') yield time.time() + n print('end sleep') def func(n): print(123) yield from sleep(n) # 睡1s print(456) def run_until_complete(g1,g2): ret1 = next(g1) ret2 = next(g2) time_dic = {ret1: g1, ret2: g2} while time_dic: min_time = min(time_dic) time.sleep(min_time - time.time()) try: next(time_dic[min_time]) except StopIteration: pass del time_dic[min_time] n = 1 g1 = func(1) g2 = func(1.1) run_until_complete(g1,g2)