Celery多任务结构
视图结构
pro_cel ├── celery_task# celery相关文件夹 │ ├── celery.py # celery连接和配置相关文件,必须叫这个名字 │ └── tasks1.py # 所有任务函数,如用户相关 │ └── tasks2.py # 所有任务函数,如订单相关 ├── check_result.py # 检查结果 └── send_task.py # 触发任务
celery.py 配置信息
# 必须叫celery,生成celery对象 from celery import Celery # 下面是配置信息,这里使用redis为列 # 处理结果 backend = 'redis://:lmdxxxx@139.xxx.xxx.42:6380/7' # 中间人 broker = 'redis://:lmdxxxx@139.xxx.xxx.42:6380/8' APP = Celery('test', broker=broker, backend=backend, # 包含一下俩个任务文件,去相应的py文件中找任务,对多个任务做分类 include=[ 'celery_task.order_task', 'celery_task.user_task', ])
celery配置中 include是多任务的时候celery会自己去里面找任务去执行
order_task.py 订单相关的任务
# 订单相关 from celery_task.celery import APP @APP.task def order_add(x, y): import time time.sleep(1) return '订单相关的:%s' % (x + y)
user_task.py 用户相关的任务
# 用户相关 from celery_task.celery import APP @APP.task def user_add(x, y): import time time.sleep(2) return '用户相关的:%s' % (x + y)
add_task.py 提交任务
from celery_task.order_task import order_add from celery_task.user_task import user_add order = order_add.delay(5, 6) user = user_add.delay(10, 0) print(order) print(user)
启动worker
linux命令:celery worker -A celery_task -l info
win命令:celery worker -A celery_task -l info -P eventlet
多任务直接启动 celery_task 这个包就行了,因为里面必须固定写celery
注:celery_task是自己创建包的那个名字
获取结果同上一篇文章
宁可清贫自乐,不可浊富多忧