asyncio异步编程
一、协程
-
定义
协程不是计算机中真实存在的 被称为‘微线程’,是一种用户态内的上下文切换技术 简而言之,就是在同一个线程内多个协程切换着去执行任务
-
实现协程的几种方式
- greenlet模块
- yield关键字
- asyncio模块(py3.4)
- async、await关键字(py3.5)
-
不同方式下协程的实现
-
greenlet模块
pip3 install greenlet def func1(): print(1) #第2步:输出1 gr2.switch() #第3步:切换到func2函数 print(2)#第6步:输出2 gr2.switch()第7步:切换到func def func2(): print(3)#第4步:输出3 gr1.switch()#第5步:切换到func1函数 print(4)#第8步:输出4 gr1=greenlet(func1) gr2=greenlet(func2) gr1.switch()#1.去执行func1函数
-
yield关键字
def func1(): yield 1 yield from func2() yield 2 def func2(): yield 3 yield 4 f1=func1() for item in f1: print(item)
-
asyncio模块(py3.4及以后使用)
import asyncio @asyncio.coroutine def func1(): print(1) yield from asyncio.sleep(2)#遇到io耗时操作,自动化切换到task中的其他任务 print(2) @asyncio.coroutine def func2(): print(3) yield from asyncio.sleep(2)#遇到io耗时操作,自动化切换到task中的其他任务 print(4) tasks=[ asyncio.ensure_future(func1()), asyncio.ensure_future(func2()) ] loop=asyncio.get_event_loop() loop.run_until_complete(asyncio.wait(tasks)) 注意:遇到IO自动切换
-
async&await关键字(py3.5及以后使用)
import asyncio async def func1(): print(1) await asyncio.sleep(2)#遇到io耗时操作,自动化切换到task中的其他任务 print(2) async def func2(): print(3) await asyncio.sleep(2)#遇到io耗时操作,自动化切换到task中的其他任务 print(4) tasks=[ asyncio.ensure_future(func1()), asyncio.ensure_future(func2()) ] loop=asyncio.get_event_loop() loop.run_until_complete(asyncio.wait(tasks))
-
-
协程的意义
通过上面的学习,我们已经了解到协程可以通过一个线程在多个上下文中进行来回切换执行
但是,协程来回切换执行的意义在哪呢?
1.计算型的操作,利用协程来回切换执行,没有任何意义,来回切换并保存状态 反倒会降低性能。 2.IO型的操作,利用协程在IO等待时间就去切换执行其他任务,当IO操作结束后再自动回调,那么就会大大节省资源并提供性能,从而实现异步编程(不等待任务结束就可以去执行其他代码)
-
案例:下载url_list中的图片
-
方式一:同步编程实现
""" 下载图片使用第三方模块requests,请提前安装:pip3 install requests """ import requests def download_image(url): print("开始下载:",url) # 发送网络请求,下载图片 response = requests.get(url) print("下载完成") # 图片保存到本地文件 file_name = url.rsplit('_')[-1] with open(file_name, mode='wb') as file_object: file_object.write(response.content) if __name__ == '__main__': url_list = [ 'https://www3.autoimg.cn/newsdfs/g26/M02/35/A9/120x90_0_autohomecar__ChsEe12AXQ6AOOH_AAFocMs8nzU621.jpg', 'https://www2.autoimg.cn/newsdfs/g30/M01/3C/E2/120x90_0_autohomecar__ChcCSV2BBICAUntfAADjJFd6800429.jpg', 'https://www3.autoimg.cn/newsdfs/g26/M0B/3C/65/120x90_0_autohomecar__ChcCP12BFCmAIO83AAGq7vK0sGY193.jpg' ] for item in url_list: download_image(item)
-
方式二:基于协程的异步编程实现
""" 下载图片使用第三方模块aiohttp,请提前安装:pip3 install aiohttp """ #!/usr/bin/env python # -*- coding:utf-8 -*- import aiohttp import asyncio async def fetch(session, url): print("发送请求:", url) async with session.get(url, verify_ssl=False) as response: content = await response.content.read() file_name = url.rsplit('_')[-1] with open(file_name, mode='wb') as file_object: file_object.write(content) async def main(): async with aiohttp.ClientSession() as session: url_list = [ 'https://www3.autoimg.cn/newsdfs/g26/M02/35/A9/120x90_0_autohomecar__ChsEe12AXQ6AOOH_AAFocMs8nzU621.jpg', 'https://www2.autoimg.cn/newsdfs/g30/M01/3C/E2/120x90_0_autohomecar__ChcCSV2BBICAUntfAADjJFd6800429.jpg', 'https://www3.autoimg.cn/newsdfs/g26/M0B/3C/65/120x90_0_autohomecar__ChcCP12BFCmAIO83AAGq7vK0sGY193.jpg' ] tasks = [asyncio.create_task(fetch(session, url)) for url in url_list] await asyncio.wait(tasks) if __name__ == '__main__': asyncio.run(main())
上述两种的执行对比之后会发现,
基于协程的异步编程
要比同步编程
的效率高了很多。因为:- 同步编程,按照顺序逐一排队执行,如果图片下载时间为2分钟,那么全部执行完则需要6分钟。
- 异步编程,几乎同时发出了3个下载任务的请求(遇到IO请求自动切换去发送其他任务请求),如果图片下载时间为2分钟,那么全部执行完毕也大概需要2分钟左右就可以了。
-
二、异步编程
基于async
& await
关键字的协程可以实现异步编程,这也是目前python异步相关的主流技术。
-
事件循环
-
作用
- 检测执行某些代码
-
实现原理
任务列表=[任务一,任务二,任务三] while True: 可执行的任务列表,已完成的任务列表=去任务列表中检查所有的任务,将'可执行'和'已完成'的任务返回 for 就绪任务 in 已准备就绪的任务列表 执行就绪的任务 for 已完成的任务 in 已完成的任务列表 在任务列表中移除已完成的任务 如果任务列表中的任务都已经完成,则终止循环
-
程序代码
import asyncio #去生成或获取一个事件循环 loop=asyncio.get_event_loop() #将任务添加到任务列表 loop.run_until_complete(任务)
-
-
协程与异步编程
-
协程函数(async)与协程对象
协程函数,定义形式为async def的函数
协程对象,调用协程函数所返回的对象
# 定义一个协程函数 async def func(): pass # 调用协程函数,返回一个协程对象 result = func()
注意:调用协程函数时,函数内部的代码不会执行,而是返回一个协程对象
程序中,如果想要执行协程函数内部的代码,需要事件循环和协程对象配合使用才可实现,如:
import asyncio async def func(): print("协程内部代码") # 调用协程函数,返回一个协程对象。 result = func() # 方式一 loop = asyncio.get_event_loop() # 创建一个事件循环 loop.run_until_complete(result) # 将协程当做任务提交到事件循环的任务列表中,协程执行完成之后终止。 # 方式二:本质上方式一是一样的,内部先 创建事件循环 然后执行 run_until_complete,一个简便的写法。 #asyncio.run 函数在 Python 3.7 中加入 asyncio 模块, asyncio.run(result)
这个过程可以简单理解为:将协程当做任务添加到事件循环的任务列表,然后事件循环检测列表中的协程是否 已准备就绪(默认可理解为就绪状态),如果准备就绪则执行其内部代码
-
await
await是一个只能在协程函数中使用的关键字,后面加可等待的对象(协程对象、Future对象、Task对象),用于遇到IO操作时挂起当前协程(任务),当前协程(任务)挂起过程中事件循环可以去执行其他的协程(任务),当前协程IO处理完成时,可以再次切换回来执行await之后的代码。如:
示例1:
import asyncio async def func(): print("执行协程函数内部代码") # 遇到IO操作挂起当前协程(任务),等IO操作完成之后再继续往下执行。 # 当前协程挂起时,事件循环可以去执行其他协程(任务)。 response = await asyncio.sleep(2) print("IO请求结束,结果为:", response) result = func() asyncio.run(result)
示例2:
import asyncio async def others(): print("start") await asyncio.sleep(2) print('end') return '返回值' async def func(): print("执行协程函数内部代码") # 遇到IO操作挂起当前协程(任务),等IO操作完成之后再继续往下执行。当前协程挂起时,事件循环可以去执行其他协程(任务)。 response = await others() print("IO请求结束,结果为:", response) asyncio.run( func() )
示例3:
import asyncio async def others(): print("start") await asyncio.sleep(2) print('end') return '返回值' async def func(): print("执行协程函数内部代码") # 遇到IO操作挂起当前协程(任务),等IO操作完成之后再继续往下执行。当前协程挂起时,事件循环可以去执行其他协程(任务)。 response1 = await others() print("IO请求结束,结果为:", response1) response2 = await others() print("IO请求结束,结果为:", response2) asyncio.run( func() )
上述的所有示例都只是创建了一个任务,即:事件循环的任务列表中只有一个任务,所以在IO等待时无法演示切换到其他任务效果。在程序想要创建多个任务对象,需要使用Task对象来实现
-
Task对象
*Tasks are used to schedule coroutines concurrently.
When a coroutine is wrapped into a Task with functions like
asyncio.create_task()
the coroutine is automatically scheduled to run soon。Tasks用于并发调度协程,通过
asyncio.create_task(协程对象)
的方式创建Task对象,这样可以让协程加入事件循环中等待被调度执行。除了使用asyncio.create_task()
函数以外,还可以用低层级的loop.create_task()
或ensure_future()
函数。不建议手动实例化 Task 对象。本质上是将协程对象封装成task对象,并将协程立即加入事件循环,同时追踪协程的状态。
注意:
asyncio.create_task()
函数在 Python 3.7 中被加入。在 Python 3.7 之前,可以改用低层级的asyncio.ensure_future()
函数。示例一:
import asyncio async def func(): print(1) await asyncio.sleep(2) print(2) return "返回值" async def main(): print("main开始") # 创建协程,将协程封装到一个Task对象中并立即添加到事件循环的任务列表中,等待事件循环去执行(默认是就绪状态)。 task1 = asyncio.create_task(func()) # 创建协程,将协程封装到一个Task对象中并立即添加到事件循环的任务列表中,等待事件循环去执行(默认是就绪状态)。 task2 = asyncio.create_task(func()) print("main结束") # 当执行某协程遇到IO操作时,会自动化切换执行其他任务。 # 此处的await是等待相对应的协程全都执行完毕并获取结果 ret1 = await task1 ret2 = await task2 print(ret1, ret2) asyncio.run(main())
示例二:
import asyncio async def func(): print(1) await asyncio.sleep(2) print(2) return "返回值" async def main(): print("main开始") # 创建协程,将协程封装到Task对象中并添加到事件循环的任务列表中,等待事件循环去执行(默认是就绪状态)。 # 在调用 task_list = [ asyncio.create_task(func(), name="n1"), asyncio.create_task(func(), name="n2") ] print("main结束") # 当执行某协程遇到IO操作时,会自动化切换执行其他任务。 # 此处的await是等待所有协程执行完毕,并将所有协程的返回值保存到done # 如果设置了timeout值,则意味着此处最多等待的秒数,完成的协程返回值写入到done中,未完成则写到pending中。 done, pending = await asyncio.wait(task_list, timeout=None) print(done, pending) asyncio.run(main())
注意:
asyncio.wait
源码内部会对列表中的每个协程执行ensure_future从而封装为Task对象,所以在和wait配合使用时task_list的值为[func(),func()]
也是可以的。示例三:
import asyncio async def func(): print("执行协程函数内部代码") # 遇到IO操作挂起当前协程(任务),等IO操作完成之后再继续往下执行。当前协程挂起时,事件循环可以去执行其他协程(任务)。 response = await asyncio.sleep(2) print("IO请求结束,结果为:", response) coroutine_list = [func(), func()] # 错误:coroutine_list = [ asyncio.create_task(func()), asyncio.create_task(func()) ] # 此处不能直接 asyncio.create_task,因为将Task立即加入到事件循环的任务列表, # 但此时事件循环还未创建,所以会报错。 # 使用asyncio.wait将列表封装为一个协程,并调用asyncio.run实现执行两个协程 # asyncio.wait内部会对列表中的每个协程执行ensure_future,封装为Task对象。 done,pending = asyncio.run( asyncio.wait(coroutine_list) )
-
asyncio.Future对象
Task继承Future,Task对象内部await结果的处理基于Future对象来的
A
Future
is a special low-level awaitable object that represents an eventual result of an asynchronous operation.asyncio中的Future对象是一个相对更偏向底层的对象,通常我们不会直接用到这个对象,而是直接使用Task对象来完成任务的并发和状态的追踪。( Task 是 Futrue的子类 )
Future为我们提供了异步编程中的 最终结果 的处理(Task类也具备状态处理的功能)。
示例一:
async def main(): # 获取当前事件循环 loop = asyncio.get_running_loop() # # 创建一个任务(Future对象),这个任务什么都不干。 fut = loop.create_future() # 等待任务最终结果(Future对象),没有结果则会一直等下去。 await fut asyncio.run(main())
示例二:
import asyncio async def set_after(fut): await asyncio.sleep(2) fut.set_result("666") async def main(): # 获取当前事件循环 loop = asyncio.get_running_loop() # 创建一个任务(Future对象),没绑定任何行为,则这个任务永远不知道什么时候结束。 fut = loop.create_future() # 创建一个任务(Task对象),绑定了set_after函数,函数内部在2s之后,会给fut赋值。 # 即手动设置future任务的最终结果,那么fut就可以结束了。 await loop.create_task(set_after(fut)) # 等待 Future对象获取 最终结果,否则一直等下去 data = await fut print(data) asyncio.run(main())
Future对象本身函数进行绑定,所以想要让事件循环获取Future的结果,则需要手动设置。而Task对象继承了Future对象,其实就对Future进行扩展,他可以实现在对应绑定的函数执行完成之后,自动执行
set_result
,从而实现自动结束。虽然,平时使用的是Task对象,但对于结果的处理本质是基于Future对象来实现的。
扩展:支持await对象语法的对象可称为可等待对象,所以协程对象、Task对象、Future对象 都可以被称为可等待对象。
-
futures.Future对象
在Python的
concurrent.futures
模块中也有一个Future对象,这个对象是基于线程池和进程池实现异步操作时使用的对象。import time from concurrent.futures import Future from concurrent.futures.thread import ThreadPoolExecutor from concurrent.futures.process import ProcessPoolExecutor def func(value): time.sleep(1) print(value) pool = ThreadPoolExecutor(max_workers=5) # 或 pool = ProcessPoolExecutor(max_workers=5) for i in range(10): fut = pool.submit(func, i) print(fut)
两个Future对象是不同的,他们是为不同的应用场景而设计,例如:
concurrent.futures.Future
不支持await语法 等。官方提示两对象之间不同:
- unlike asyncio Futures,
concurrent.futures.Future
instances cannot be awaited. asyncio.Future.result()
andasyncio.Future.exception()
do not accept the timeout argument.asyncio.Future.result()
andasyncio.Future.exception()
raise anInvalidStateError
exception when the Future is not done.- Callbacks registered with
asyncio.Future.add_done_callback()
are not called immediately. They are scheduled withloop.call_soon()
instead. - asyncio Future is not compatible with the
concurrent.futures.wait()
andconcurrent.futures.as_completed()
functions.
在Python提供了一个将
futures.Future
对象包装成asyncio.Future
对象的函数asynic.wrap_future
。接下里你肯定问:为什么python会提供这种功能?
其实,一般在程序开发中我们要么统一使用 asycio 的协程实现异步操作、要么都使用进程池和线程池实现异步操作。但如果
协程的异步
和进程池/线程池的异步
混搭时,那么就会用到此功能了。import time import asyncio import concurrent.futures def func1(): # 某个耗时操作 time.sleep(2) return "SB" async def main(): loop = asyncio.get_running_loop() # 1. Run in the default loop's executor ( 默认ThreadPoolExecutor ) # 第一步:内部会先调用 ThreadPoolExecutor 的 submit 方法去线程池中申请一个线程去执行func1函数,并返回一个concurrent.futures.Future对象 # 第二步:调用asyncio.wrap_future将concurrent.futures.Future对象包装为asycio.Future对象。 # 因为concurrent.futures.Future对象不支持await语法,所以需要包装为 asycio.Future对象 才能使用。 fut = loop.run_in_executor(None, func1) result = await fut print('default thread pool', result) # 2. Run in a custom thread pool: # with concurrent.futures.ThreadPoolExecutor() as pool: # result = await loop.run_in_executor( # pool, func1) # print('custom thread pool', result) # 3. Run in a custom process pool: # with concurrent.futures.ProcessPoolExecutor() as pool: # result = await loop.run_in_executor( # pool, func1) # print('custom process pool', result) asyncio.run(main())
应用场景:当项目以协程式的异步编程开发时,如果要使用一个第三方模块,而第三方模块不支持协程方式异步编程时,就需要用到这个功能,例如:
import asyncio import requests async def download_image(url): # 发送网络请求,下载图片(遇到网络下载图片的IO请求,自动化切换到其他任务) print("开始下载:", url) loop = asyncio.get_event_loop() # requests模块默认不支持异步操作,所以就使用线程池来配合实现了。 future = loop.run_in_executor(None, requests.get, url) response = await future print('下载完成') # 图片保存到本地文件 file_name = url.rsplit('_')[-1] with open(file_name, mode='wb') as file_object: file_object.write(response.content) if __name__ == '__main__': url_list = [ 'https://www3.autoimg.cn/newsdfs/g26/M02/35/A9/120x90_0_autohomecar__ChsEe12AXQ6AOOH_AAFocMs8nzU621.jpg', 'https://www2.autoimg.cn/newsdfs/g30/M01/3C/E2/120x90_0_autohomecar__ChcCSV2BBICAUntfAADjJFd6800429.jpg', 'https://www3.autoimg.cn/newsdfs/g26/M0B/3C/65/120x90_0_autohomecar__ChcCP12BFCmAIO83AAGq7vK0sGY193.jpg' ] tasks = [download_image(url) for url in url_list] loop = asyncio.get_event_loop() loop.run_until_complete( asyncio.wait(tasks) )
- unlike asyncio Futures,
-
异步迭代器
异步迭代器即实现了
__aiter__()
和__anext__()
方法的对象,__anext__
必须返回一个 awaitable对象。async for会处 理异步迭代器的__aiter__()
方法所返回的可等待的对象,直到其引发一个StopAsyncIteration异常。由PEP429引入异步可迭代对象
可在
async for
语句中被使用的对象。必须通过它的__aiter__()
方法返回一个asynchronous iterator。由 PEP 492引入。import asyncio class Reader(object): """ 自定义异步迭代器(同时也是异步可迭代对象) """ def __init__(self): self.count = 0 async def readline(self): # await asyncio.sleep(1) self.count += 1 if self.count == 100: return None return self.count def __aiter__(self): return self async def __anext__(self): val = await self.readline() if val == None: raise StopAsyncIteration return val async def func(): # 创建异步可迭代对象 async_iter = Reader() # async for 必须要放在async def函数内,否则语法错误。 async for item in async_iter: print(item) asyncio.run(func())
异步迭代器其实没什么太大的作用,只是支持了async for语法而已
-
异步上下文管理器
此种对象通过定义
__aenter__()
和__aexit__()
方法来对async with
语句中的环境进行控制。由PEP 492引入。import asyncio class AsyncContextManager: def __init__(self): self.conn = None async def do_something(self): # 异步操作数据库 return 666 async def __aenter__(self): # 异步链接数据库 self.conn = await asyncio.sleep(1) return self async def __aexit__(self, exc_type, exc, tb): # 异步关闭数据库链接 await asyncio.sleep(1) async def func(): async with AsyncContextManager() as f: result = await f.do_something() print(result) asyncio.run(func())
注:异步上下文管理器还是比较有用的,平时在开发过程中遇到需打开、处理、关闭操作时,就可以用这种方式来处理
-
总结
在程序中只要看到
async
和await
关键字,其内部就是基于协程实现的异步编程,这种异步编程是通过一个线程在IO等待时间去执行其他任务,从而实现并发。以上就是异步编程的常见操作,内容参考官方文档。
-
三、uvloop
Python标准库中提供了asyncio
模块,用于支持基于协程的异步编程。
uvloop是 asyncio 中的事件循环的替代方案,替换后可以使得asyncio性能提高。事实上,uvloop要比nodejs、gevent等其他python异步框架至少要快2倍,性能可以比肩Go语言。
安装uvloop
pip3 install uvloop
在项目中想要使用uvloop替换asyncio的事件循环也非常简单,只要在代码中这么做就行。
import asyncioi
mport uvloop
asyncio.set_event_loop_policy(uvloop.EventLoopPolicy())
# 编写asyncio的代码,与之前写的代码一致。
# 内部的事件循环自动化会变为uvloop
asyncio.run(...)
注意:知名的asgi uvicorn内部就是使用的uvloop的事件循环。
四、实战案例
-
异步redis
当通过python去操作redis时,连接、设置值、获取值这些都涉及网络IO请求,使用asyncio异步的方式可以在IO等待时去做一些其他任务,从而提升性能。
安装python异步操作redis模块
pip3 install aioredis
示例代码一:异步操作redis
import asyncio import aioredis async def execute(address, password): print("开始执行", address) # 网络IO操作:创建redis连接 redis = await aioredis.create_redis(address, password=password) # 网络IO操作:在redis中设置哈希值car,内部在设三个键值对,即: redis = { car:{key1:1,key2:2,key3:3}} await redis.hmset_dict('car', key1=1, key2=2, key3=3) # 网络IO操作:去redis中获取值 result = await redis.hgetall('car', encoding='utf-8') print(result) redis.close() # 网络IO操作:关闭redis连接 await redis.wait_closed() print("结束", address) asyncio.run(execute('redis://47.93.4.198:6379', "root!2345"))
示例代码二:连接多个redis做操作(遇到IO会切换其他任务,提供了性能)
import asyncio import aioredis async def execute(address, password): print("开始执行", address) # 网络IO操作:先去连接 47.93.4.197:6379,遇到IO则自动切换任务,去连接47.93.4.198:6379 redis = await aioredis.create_redis_pool(address, password=password) # 网络IO操作:遇到IO会自动切换任务 await redis.hmset_dict('car', key1=1, key2=2, key3=3) # 网络IO操作:遇到IO会自动切换任务 result = await redis.hgetall('car', encoding='utf-8') print(result) redis.close() # 网络IO操作:遇到IO会自动切换任务 await redis.wait_closed() print("结束", address) task_list = [ execute('redis://47.93.4.197:6379', "root!2345"), execute('redis://47.93.4.198:6379', "root!2345") ] asyncio.run(asyncio.wait(task_list))
更多redis操作参考aioredis官网:https://aioredis.readthedocs.io/en/v1.3.0/start.html
-
异步MySQl
当通过python去操作MySQl时,连接、执行SQL、关闭都涉及网络IO请求,使用asyncio异步的方式可以在IO等待时去做一些其他任务,从而提升性能。
安装python异步操作redis模块
pip3 install aiomysql
示例代码一:
import asyncio import aiomysql async def execute(): # 网络IO操作:连接MySQL conn = await aiomysql.connect(host='127.0.0.1', port=3306, user='root', password='123', db='mysql', ) # 网络IO操作:创建CURSOR cur = await conn.cursor() # 网络IO操作:执行SQL await cur.execute("SELECT Host,User FROM user") # 网络IO操作:获取SQL结果 result = await cur.fetchall() print(result) # 网络IO操作:关闭链接 await cur.close() conn.close() asyncio.run(execute())
示例代码二:
import asyncio import aiomysql async def execute(host, password): print("开始", host) # 网络IO操作:先去连接 47.93.40.197,遇到IO则自动切换任务,去连接47.93.40.198:6379 conn = await aiomysql.connect(host=host, port=3306, user='root', password=password, db='mysql') # 网络IO操作:遇到IO会自动切换任务 cur = await conn.cursor() # 网络IO操作:遇到IO会自动切换任务 await cur.execute("SELECT Host,User FROM user") # 网络IO操作:遇到IO会自动切换任务 result = await cur.fetchall() print(result) # 网络IO操作:遇到IO会自动切换任务 await cur.close() conn.close() print("结束", host) task_list = [ execute('47.93.40.197', "root!2345"), execute('47.93.40.197', "root!2345") ] asyncio.run(asyncio.wait(task_list))
-
FastAPI框架
FastAPI是一款用于构建API的高性能web框架,框架基于Python3.6+的
type hints
搭建。接下里的异步示例以
FastAPI
和uvicorn
来讲解(uvicorn是一个支持异步的asgi)安装
pip3 install fastapi
安装uvicorn,本质上为web提供socket server的支持的asgi(一般支持异步的称asgi、不支持异步的称wsgi)
pip3 install uvicorn
示例代码:
import asyncio import uvicorn import aioredis from aioredis import Redis from fastapi import FastAPI app = FastAPI() REDIS_POOL = aioredis.ConnectionsPool('redis://47.193.14.198:6379', password="root123", minsize=1, maxsize=10) @app.get("/") def index(): """ 普通操作接口 """ return {"message": "Hello World"} @app.get("/red") async def red(): """ 异步操作接口 """ print("请求来了") await asyncio.sleep(3) # 连接池获取一个连接 conn = await REDIS_POOL.acquire() redis = Redis(conn) # 设置值 await redis.hmset_dict('car', key1=1, key2=2, key3=3) # 读取值 result = await redis.hgetall('car', encoding='utf-8') print(result) # 连接归还连接池 REDIS_POOL.release(conn) return result if __name__ == '__main__': #fast为py文件的名,fast.py;app为上面创建的app对象 uvicorn.run("fast:app", host="127.0.0.1", port=5000, log_level="info")
在有多个用户并发请求的情况下,异步方式来编写的接口可以在IO等待过程中去处理其他的请求,提供性能。
例如:同时有两个用户并发来向接口
http://127.0.0.1:5000/red
发送请求,服务端只有一个线程,同一时刻只有一个请求被处理。 异步处理可以提供并发是因为:当视图函数在处理第一个请求时,第二个请求此时是等待被处理的状态,当第一个请求遇到IO等待时,会自动切换去接收并处理第二个请求,当遇到IO时自动化切换至其他请求,一旦有请求IO执行完毕,则会再次回到指定请求向下继续执行其功能代码。基于上下文管理,来实现自动化管理的案例:
示例1:redisimport asyncio import uvicorn import aioredis from aioredis import Redis from fastapi import FastAPI app = FastAPI() REDIS_POOL = aioredis.ConnectionsPool('redis://47.193.14.198:6379', password="root123", minsize=1, maxsize=10) @app.get("/") def index(): """ 普通操作接口 """ return {"message": "Hello World"} @app.get("/red") async def red(): """ 异步操作接口 """ print("请求来了") async with REDIS_POOL.get() as conn: redis = Redis(conn) # 设置值 await redis.hmset_dict('car', key1=1, key2=2, key3=3) # 读取值 result = await redis.hgetall('car', encoding='utf-8') print(result) return result if __name__ == '__main__': uvicorn.run("fast3:app", host="127.0.0.1", port=5000, log_level="info")
示例2:mysql
import asyncio import uvicorn from fastapi import FastAPI import aiomysql app = FastAPI() # 创建数据库连接池 pool = aiomysql.Pool(host='127.0.0.1', port=3306, user='root', password='123', db='mysql', minsize=1, maxsize=10, echo=False, pool_recycle=-1, loop=asyncio.get_event_loop()) @app.get("/red") async def red(): """ 异步操作接口 """ # 去数据库连接池申请链接 async with pool.acquire() as conn: async with conn.cursor() as cur: # 网络IO操作:执行SQL await cur.execute("SELECT Host,User FROM user") # 网络IO操作:获取SQL结果 result = await cur.fetchall() print(result) # 网络IO操作:关闭链接 return {"result": "ok"} if __name__ == '__main__': uvicorn.run("fast2:app", host="127.0.0.1", port=5000, log_level="info")
-
爬虫
在编写爬虫应用时,需要通过网络IO去请求目标数据,这种情况适合使用异步编程来提升性能,接下来我们使用支持异步编程的aiohttp模块来实现。
安装aiohttp模块
pip3 install aiohttp
示例:
import aiohttp import asyncio async def fetch(session, url): print("发送请求:", url) async with session.get(url, verify_ssl=False) as response: text = await response.text() print("得到结果:", url, len(text)) async def main(): async with aiohttp.ClientSession() as session: url_list = [ 'https://python.org', 'https://www.baidu.com', 'https://www.pythonav.com' ] tasks = [asyncio.create_task(fetch(session, url)) for url in url_list] await asyncio.wait(tasks) if __name__ == '__main__': asyncio.run(main())
五、总结
为了提升性能越来越多的框架都在向异步编程靠拢,例如:sanic、tornado、django3.0、django channels组件等,用更少资源可以做处理更多的事。