celery_异步任务队列

celery 官方文档:https://docs.celeryq.dev/en/latest/getting-started/first-steps-with-celery.html

一、简介

Celery是基于Python开发的分布式任务队列。

它可以让任务的执行完全脱离主程序,甚至可以被分配到其他主机上运行。我们通常使用它来实现异步任务(async task)和定时任务(crontab)。它的架构组成如下图 :

组件

  • task:定义的task函数。由生产者发送给broker。
  • broker:broker是一个消息传输的中间件,它是用来存储生产者发出的各种任务。存储媒介可供选择:RabbitMQ,Redis,MongoDB等等。
  • worker:worker是执行任务的单元,并发的运行在分布式的系统节点中。它实时监控消息队列,如果有任务就获取任务并执行它。
  • backend:用于存储任务的执行结果。

二、安装使用

安装celery+redis模块

pip install celery
pip install redis
pip install eventlet    # celery 4.x以上版本不安装该模块,添加任务时会报错

异步任务

使用celery包含三个方面

  1. 定义任务函数
  2. 运行worker服务
  3. 将任务添加到broker

定义文件目录结构如下:

1. 定义任务函数

创建celery_task.py文件输入下列代码

import time

from celery import Celery


broker = "redis://:123456@192.168.3.66:6379/0"      # 123456为redis密码
backend = "redis://:123456@192.168.3.66:6379/1"     # 存储执行结果

app = Celery("celery_tasks.celery_task", broker=broker, backend=backend)     # 第1个参数为异步执行任务时的根路径id,建议与当前文件一致


@app.task
def task1(x, y):
    time.sleep(5)
    return x + y

2.运行worker服务

进入celery_task.py文件所在目录,执行下面命令

celery -A celery_tasks.celery_task worker --loglevel=info -P eventlet

celery_tasks.celery_task 为实例化对象app的的文件路径id

启动成功截图如下

3.将任务添加到broker

创建add_task.py文件输入下列代码

import time

from celery_task import task1

# 任务函数调用delay方法将任务添加到broker中,如果任务函数有参数,在delay方法中传入。
result = task1.delay(1, 2)

# 查看任务是否执行完成。True表示任务已执行,False表示任务还在执行中
print('任务执行完成状态: %s' % result.ready())  #
time.sleep(6)
print('任务执行完成状态: %s' % result.ready())

run_result = result.get(timeout=1)
print('任务执行结果: %s' % run_result)

执行结果如下:

流程说明:执行dd_task.py文件会将task1任务添加到broker中,worker服务监控获取到broker中新增的task1任务,就执行该任务,任务执行完后将执行结果存储在backend中。

定时任务

在上面文件目录结构下增加config.py

代码如下

from datetime import timedelta
from .celery_task import app

# 时区
app.conf.timezone = 'Asia/Shanghai'
# 是否使用UTC
app.conf.enable_utc = False

app.conf.beat_schedule = {
      'task1': {       # 任务名称随便起
            # 调度的任务。
            'task': 'celery_tasks.celery_task.task1',
            # 调度任务的传参
            'args': (1, 2),
            # 'kwargs' 字典格式的参数
            # 定时任务的调度周期。下面为5秒调用一次
            'schedule': timedelta(seconds=5),
      }
}

启动定时服务

celery -A celery_tasks.config beat

celery_tasks.config为 config.py文件的路径id

然后再启用worker服务。就可以看到任务被定时调用

 

posted @ 2022-04-28 23:49  码上测  阅读(142)  评论(0编辑  收藏  举报