Celery的使用

1|0一、celery介绍

1|11. 什么是celery

  • Celery是一个简单、灵活且可靠的,处理大量消息的分布式系统
    • 专注于实时处理的异步任务队列
    • 同时也支持任务调度
    • celery单独使用一个socket,不会额外占用其他程序的资源。
  • 项目中使用celery的优势
    • 减少服务器的压力
    • 提供了3种任务的执行方式

1|22. celery架构

  • Celery的架构由三部分组成,消息中间件(message broker)、任务执行单元(worker)和 任务执行结果存储(task result store)组成。

  • celery的架构图

1|0(1)消息中间件(broker配置)

  • Celery本身不包含消息服务,使用第三方消息服务,也就是Broker,来传递任务
  • 所以一般和第三方提供的消息中间件集成使用,支持的有Kafka、RabbitMQ、Redis等等

1|0(2)任务执行单元

  • worker是celery提供的任务执行单元,worker并发的运行在分布式系统节点中

1|0(3)任务结果存储

  • Task result store用来存储worker执行的任务结果,celery支持以不同方式存储任务的结果,包括AMQP,Redis等

1|33. celery的使用场景

  • celery中共提供了3种任务执行的方式,分别应用于3个场景
    • 异步执行
    • 延迟执行
    • 定时执行

1|0(1)异步执行

  • 异步的执行分配的任务

1|0(2)延迟执行

  • 就是在之后的某一个时间点,执行该指定的任务

1|0(3)定时执行

  • 解决周期任务(就是周期的执行某一个任务)

1|44. celery的安装

''' pip install celery 消息中间件使用:RabbitMQ/Redis '''

2|0二、celery的使用

2|11. celery基本使用介绍

1|0(1)项目中celery的文件结构

project ├── celery_task # celery包 │ ├── __init__.py # 包文件 │ ├── celery.py # celery连接和配置相关文件,且名字必须叫celery.py │ └── tasks.py # 所有任务函数 ├── add_task.py # 添加任务 └── get_result.py # 获取结果

1|0(2)celery的基本使用方法

步骤: 1. 在celery.py中配置broker,backend和Celery对象(进行Celery对象实例化时,将任务文件传入) 2. 在任务文件task.py中,定义任务函数,任务函数要装饰上上面生成的 Celery对象.task 这个装饰器 3. 在add_task.py文件中,为task.py文件中定义的任务函数,添加执行方式(异步/延迟,定时任务是在celery.py文件中添加) 4. 在get.result.py文件中,可以定义结果,查看任务执行的结果,但是一般这些任务的执行结果不必要查看,所以这一步可做可不做 5. 要把终端切换到环境变量能找到的位置执行下面的命令(是两个独立socket) 启动celery服务: # 非windows # 命令:celery worker -A celery_task -l info # windows: # pip3 install eventlet # celery worker -A celery_task -l info -P eventletelery worker -A celery_task -l info 有自动添加任务时,还要启动自动提交任务的服务:celery beat -A celery_task -l info 6. 获取结果

2|22. celery的基本使用实例

1|0(1)celery.py文件中

# 1)创建Celery对象 + 任务 # 2)启动celery(app)服务: # 非windows # 命令:celery worker -A celery_task -l info # windows: # pip3 install eventlet # celery worker -A celery_task -l info -P eventlet # 3)添加任务:手动添加,要自定义添加任务的脚本,右键执行脚本 # 4)获取结果:手动获取,要自定义获取任务的脚本,右键执行脚本 from celery import Celery broker = 'redis://127.0.0.1:6379/1' backend = 'redis://127.0.0.1:6379/2' app = Celery(broker=broker, backend=backend, include=['celery_task.tasks'])

1|0(2)tasks.py文件中

from .celery import app import time @app.task def add(n, m): print(n) print(m) time.sleep(10) print('n+m的结果:%s' % (n + m)) return n + m @app.task def low(n, m): print(n) print(m) print('n-m的结果:%s' % (n - m)) return n - m

1|0(3)add_task.py文件中

from celery_task import tasks # 添加立即执行任务 t1 = tasks.add.delay(10, 20) # 执行函数的效果是发送一条消息到broker中去,这个消息包括要执行的函数已经执行函数的参数,还有一些其他信息。之前已经启动的worker会等待broker中的消息,一旦收到消息就会立刻执行消息 t2 = tasks.low.delay(100, 50) print(t1.id) # 添加延迟任务 from datetime import datetime, timedelta eta=datetime.utcnow() + timedelta(seconds=10) tasks.low.apply_async(args=(200, 50), eta=eta) # 添加异步任务 tasks.low.apply_async(args=(200, 50))

1|0(4)get_result.py文件中

from celery_task.celery import app from celery.result import AsyncResult id = '21325a40-9d32-44b5-a701-9a31cc3c74b5' if __name__ == '__main__': async = AsyncResult(id=id, app=app) if async.successful(): result = async.get() print(result) elif async.failed(): print('任务失败') elif async.status == 'PENDING': print('任务等待中被执行') elif async.status == 'RETRY': print('任务异常后正在重试') elif async.status == 'STARTED': print('任务已经开始被执行')

2|33. Celery的高级使用

1|0(1)celery.py文件中

步骤: # 1)创建Celery对象 + 任务 # 2)启动celery(app)服务: # 非windows # 命令:celery worker -A celery_task -l info # windows: # pip3 install eventlet # celery worker -A celery_task -l info -P eventlet # 3)添加任务:自动添加任务,所以要启动一个添加任务的服务 # 命令:celery beat -A celery_task -l info # 4)获取结果 from celery import Celery broker = 'redis://127.0.0.1:6379/1' backend = 'redis://127.0.0.1:6379/2' app = Celery(broker=broker, backend=backend, include=['celery_task.tasks']) # 下面这两个时间的配置,只要写一个就可以了 # 时区 app.conf.timezone = 'Asia/Shanghai' # 是否使用UTC app.conf.enable_utc = False # 这个为False,则走django项目的settings文件的国际化配置 # 任务的定时配置 from datetime import timedelta from celery.schedules import crontab app.conf.beat_schedule = { 'low-task': { 'task': 'celery_task.tasks.low', 'schedule': timedelta(seconds=3), # 'schedule': crontab(hour=8, day_of_week=1), # 每周一早八点 'args': (300, 150), } }

1|0(2)tasks.py文件中

from .celery import app import time @app.task def add(n, m): print(n) print(m) time.sleep(10) print('n+m的结果:%s' % (n + m)) return n + m @app.task def low(n, m): print(n) print(m) print('n-m的结果:%s' % (n - m)) return n - m

1|0(3)get_result.py文件中

from celery_task.celery import app from celery.result import AsyncResult id = '21325a40-9d32-44b5-a701-9a31cc3c74b5' if __name__ == '__main__': async = AsyncResult(id=id, app=app) if async.successful(): result = async.get() print(result) elif async.failed(): print('任务失败') elif async.status == 'PENDING': print('任务等待中被执行') elif async.status == 'RETRY': print('任务异常后正在重试') elif async.status == 'STARTED': print('任务已经开始被执行')

2|44. django项目中celery的使用

  • 使用celery做轮播图的硬盘数据库同步到缓存

1|0(1)步骤

""" 前提:将celery文件夹创建在项目根目录下 celery框架django项目工作流程 1)加载django配置环境 2)创建Celery框架对象app,配置broker和backend,得到的app就是worker 3)给worker对应的app添加可处理的任务函数,用include配置给worker的app 4)完成提供的任务的定时配置app.conf.beat_schedule 5)启动celery服务,运行worker,执行任务 6)启动beat服务,运行beat,添加任务 重点:由于采用了django的反射机制,使用celery.py所在的celery_task包必须放置项目的根目录下 """

1|0(2)celery.py文件中

# 一、加载django配置环境 import os os.environ.setdefault("DJANGO_SETTINGS_MODULE", "luffyapi.settings.dev") # 二、加载celery配置环境 from celery import Celery # broker broker = 'redis://127.0.0.1:6379/0' # backend backend = 'redis://127.0.0.1:6379/1' # worker app = Celery(broker=broker, backend=backend, include=['celery_task.tasks']) # 时区 app.conf.timezone = 'Asia/Shanghai' # 是否使用UTC app.conf.enable_utc = False # 定时任务配置 from datetime import timedelta from celery.schedules import crontab app.conf.beat_schedule = { # 'add-task': { # 'task': 'celery_task.tasks.add', # 'schedule': timedelta(seconds=3), # # 'schedule': crontab(hour=8, day_of_week=1), # 每周一早八点 # 'args': (20, 10), # }, # 'low-task': { # 'task': 'celery_task.tasks.low', # 'schedule': timedelta(seconds=6), # 'args': (20, 10), # }, # 'get-users-task': { # 'task': 'celery_task.tasks.get_users', # 'schedule': timedelta(seconds=3), # 'args': (), # }, # 案例:django异步更新缓存 'update-banner-cache': { 'task': 'celery_task.tasks.update_banner_cache', 'schedule': timedelta(seconds=10), 'args': (), }, }

1|0(3)tasks.py文件中

from .celery import app from user.models import User # 测试django环境下的任务 @app.task def get_users(): user_list = User.objects.all() print(user_list) return True # 伪代码:立即和延迟任务使用 @app.task def send_email(user, content): result = print('对user发送content邮件内容') if not result: print('短信推送用户,邮件发送失败') return False return True # 案例:django异步更新缓存 from home.models import Banner from django.conf import settings from django.core.cache import cache from home.serializers import BannerModelSerializer @app.task def update_banner_cache(): banner_query = Banner.objects.filter(is_delete=False, is_show=True).order_by('-orders').all()[:settings.BANNER_COUNT] banner_data = BannerModelSerializer(banner_query, many=True).data for banner in banner_data: banner['image'] = "%s%s" % (settings.BASE_URL, banner.get('image')) cache.set('banner_cache', banner_data) return True

1|0(4)启动服务

在项目根目录下,在终端中执行下面的命令 启动celery服务 启动自动提交任务服务

3|0三、celery的分布式集群

  • Celery是一个分布式的任务调度模块,不仅能实现集群分散的执行全部任务,还可以实现某服务器只执行指定的task的功能
  • 详情请参考这里

__EOF__

本文作者BigSun丶
本文链接https://www.cnblogs.com/Mcoming/p/12178255.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。您的鼓励是博主的最大动力!
posted @   BigSun丶  阅读(451)  评论(2编辑  收藏  举报
编辑推荐:
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
点击右上角即可分享
微信分享提示