celery-介绍和安装
1.celery介绍
Celery 官网:http://www.celeryproject.org/
Celery 官方文档英文版:http://docs.celeryproject.org/en/latest/index.html
Celery 官方文档中文版:http://docs.jinkan.org/docs/celery/
celery是python一个框架,与django无关,可以用在django中,也能用在flask中,运行起来就是一个服务。
它的功能:
1.异步任务
2.定时任务
3.延迟任务
celery的运行原理:
1.可以不依赖任何服务器,通过自身命令启动服务
2.celery服务为其他项目提供异步解决任务需求,比如有两个服务同时运行,一个是服务项目,一个是celery服务,项目服务有需求,celery就会在需要的时候异步完成项目的需求
"""
一个很形象的例子:
人是一个独立运行的服务,医院也是一个独立运行的服务。正常情况下,人可以完成所有健康情况的动作,不需要医院的参与;但当人生病时,就会被医院接收,解决人生病问题。
人生病的处理方案交给医院来解决,所有人不生病时,医院独立运行,人生病时,医院就来解决人生病的需求
"""
celery由以下几部分构成(broker和backend都使用redis):
1.任务中间件(broker),其他服务提交的异步任务,放在里面排队。Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成。包括,RabbitMQ, Redis等。
2.执行任务单元(worker)
3.结果存储(backend),对应到函数中就是函数的返回结果存储到backend中。Worker是Celery提供的任务执行的单元,worker并发的运行在分布式的系统节点中。
django就相当于生产者,worker就相当于消费者
使用场景:
1.异步执行:解决耗时任务
2.延迟执行:解决延迟任务
3.定时执行:解决周期任务
2.celery快速使用、异步任务
安装:
pip install celery
安装完成会有一个可执行文件:celery.exe
我们首先演示一个同步调用的效果,同步调用因为有time.sleep,所以需要等三秒之后才能拿到结果:
main.py:
from celery import Celery
'''提交的异步任务放在redis中的第1个库'''
broker = 'redis://127.0.0.1:6379/1'
'''执行结果放在redis中的第2个库'''
backend = 'redis://127.0.0.1:6379/2'
app = Celery('test', broker=broker, backend=backend)
@app.task
def add(a, b):
import time
time.sleep(3)
return a + b
s1.py:
from main import add
res = add(2,3)
print(res) # 5
接下来我们演示异步操作:
1.main.py和之前代码没有变过:
from celery import Celery
'''提交的异步任务放在redis中的第1个库'''
broker = 'redis://127.0.0.1:6379/1'
'''执行结果放在redis中的第2个库'''
backend = 'redis://127.0.0.1:6379/2'
app = Celery('test', broker=broker, backend=backend)
@app.task
def add(a, b):
import time
time.sleep(3)
return a + b
2.在s1.py中需要将代码修改为异步执行,然后执行该代码,就是将该任务提交到broker:
s1.py:
from main import add
res = add.delay(5,6)
print(res)
执行完毕之后命令行会弹出一个随机字符串:
3.启动work之前win系统需要安装一个模块(linux和mac不需要):
pip install eventlet
4.启动worker:将路径切到main.py所在的目录下(D:\上海python金牌班\20230306 路飞\day08\luffy\luffy_api\scripts\celery_t),执行操作(启动worker操作只需要做一次就好,之后可以不用做):
win:
celery4.x之前版本
celery worker -A main -l info -P eventlet
celery4.x之后
celery -A main worker -l info -P eventlet
mac:
celery -A main worker -l info
然后查看backend指定的数据库查看,可以看到执行结果在result中:
但是我们查看不应该在redis中查看,而是在pycharm中查看,这是我们再建一个py文件s2.py:
s2.py
from main import app
from celery.result import AsyncResult
id = 'aa6dc05c-1108-48de-8a8d-0870eff9c25b'
if __name__ == '__main__':
a = AsyncResult(id=id, app=app)
if a.successful(): # 执行完了
result = a.get() #
print(result)
elif a.failed():
print('任务失败')
elif a.status == 'PENDING':
print('任务等待中被执行')
elif a.status == 'RETRY':
print('任务异常后正在重试')
elif a.status == 'STARTED':
print('任务已经开始被执行')
执行这个文件就可以在终端看到执行结果:
3.celery包结构
以上代码可以执行任务,但是我们象吧celery做成一个包结构,在需要的时候直接导入这个包就可以。我们首先需要建立这样的目录结构:
project
├── celery_task # celery包
│ ├── init.py # 包文件
│ ├── celery.py # celery连接和配置相关文件,且名字必须交celery.py
│ └── tasks.py # 所有任务函数(之前写在main中的任务)
├── add_task.py # 添加任务
└── get_result.py # 获取结果
我们需要按照步骤执行一下操作:
1.首先需要新建一个包:celery_task,在该包下新建celery.py,该文件下生成了一个Celery对象app,app内需要指定broker和backend。
celery_task/celery.py:
from celery import Celery
broker = 'redis://127.0.0.1:6379/1'
backend = 'redis://127.0.0.1:6379/2'
app = Celery('test',broker=broker,backend=backend,include=['celery_task.order_task','celery_task.user_task'])
'''导入需要从包这一层开始导(scripts下)'''
2.之前在main.py中我们生成了Celery对象并且写了方法。但是由于实际业务中方法较多,我们需要分类写在不同的py文件中(也就是目录结构中的task.py):
celery_task/user_task.py:
from .celery import app
import time
@app.task
def send_msg(phone,code):
'''模拟发送短信'''
print('给%s发送短信成功,验证码为:%s'%(phone,code))
time.sleep(3)
return True
celery_task/order_task.py:
from .celery import app
import time
@app.task
def add(price, count):
print('总价格为%s' % price * count)
time.sleep(2)
return price * count
3.在celery_task同级别新建一个py文件:add_task.py:
add.task.py:
from celery_task.user_task import send_msg
res = send_msg.delay('18888',5678)
print(res) # 735ba869-41fa-4af6-aa6e-d3f8c1d34787
这时任务已经提交上去:
4.启动worker:
celery -A celery_task worker -l info -P eventlet
'''执行该命令需要到celery_task这一级目录'''
5.在scripts中新建一个文件:get_result.py
get_result.py(和之前s2代码一致)
from main import app
from celery.result import AsyncResult
id = 'aa6dc05c-1108-48de-8a8d-0870eff9c25b'
if __name__ == '__main__':
a = AsyncResult(id=id, app=app)
if a.successful(): # 执行完了
result = a.get() #
print(result)
elif a.failed():
print('任务失败')
elif a.status == 'PENDING':
print('任务等待中被执行')
elif a.status == 'RETRY':
print('任务异常后正在重试')
elif a.status == 'STARTED':
print('任务已经开始被执行')
4.延迟任务
关于时间的两个重要补充:
timedelta(days=10)是一个可以加减的时间类型:
print(type(timedelta(days=10))) # <class 'datetime.timedelta'>
print(datetime.now()+timedelta(days=10)) # 2023-03-19 15:23:16.295510
立即异步执行:方法名.delay(方法参数)
res = send_msg.delay('18888',5678)
延迟任务:方法名.apply_async(args=[方法参数],eta=时间)
延迟任务执行步骤:
1.还是用user_task中的方法send_msg,首先在add_task中写延迟任务:
eta = datetime.utcnow() + timedelta(seconds=10)
res = send_msg.apply_async(args=['188888', '4567'], eta=eta)
print(res) # 42e6d19a-1760-41fb-92b3-dc37f42fd078
2.开启worker(也可以在执行add_task之后执行):
celery -A celery_task worker -l info -P eventlet
3.执行add_task方法:
5.定时任务
在指定的时间执行指定的方法
1.写延迟任务我们是在add_task中写,但是写定时任务我们需要在celery.py中写:
celery_task/celery.py:
from celery import Celery
from celery.schedules import crontab
from datetime import timedelta
broker = 'redis://127.0.0.1:6379/1'
backend = 'redis://127.0.0.1:6379/2'
app = Celery('test', broker=broker, backend=backend, include=['celery_task.order_task', 'celery_task.user_task'])
# 这两步如果没有配置需要使用utc时间,配置才能使用配置时区的时间
app.conf.timezone = 'Asia/Shanghai'
# 是否使用utc时间
app.conf.enable_utc = False
# 任务的定时配置
app.conf.beat_schedule = { # 可以配多个任务
'send_sms': { # 名字可以随便起
'task': 'celery_task.user_task.send_msg', # 将需要定时执行的方法写在这里
'schedule': timedelta(seconds=3), # 每个3秒执行一次
# 'schedule': crontab(hour=8, day_of_week=1), # 每周一早八点
# 'schedule': crontab(hour=16, minute=16), # 每天9点43
'args': ('13260676190', '6666'), # 如果方法没有参数这一项就不写
},
}
celery_task/user_task.py:
from .celery import app
import time
@app.task
def send_msg(phone, code):
'''模拟发送短信'''
print('给%s发送短信成功,验证码为:%s' % (phone, code))
time.sleep(3)
return True
2.定时任务我们需要每个多少秒或者是未来某个时间将任务提交到broker,这个需要启动beat来帮我们完成。
beat:定时提交任务进程(配置在app.conf.beat_schedule中的任务)
worker:执行任务
启动beat和worker
celery -A celery_task beat -l info
celery -A celery_task worker -l info -P eventlet
'''导入需要从包(celery_task)这一层开始导(scripts)'''
补充:如果我们在公司中只做定时任务,那么我们可以采用APSchedule框架,参考博客:https://blog.csdn.net/qq_41341757/article/details/118759836
6.django中使用celery
6.1 使用步骤
注意:celery中使用djagno,有时候任务中会使用django的orm,在celery中一定要加以下代码:
import os
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'luffy_api.settings.dev')
1.将我们写的包复制到项目目录下:
2.在使用异步提交任务的位置,导入使用即可
在视图中导入任务
from celery_task.celery import app
3.启动worker,如果有定时任务就启动beat
4.等待人物被worker执行
5.在视图函数中查询任务执行结果
6.2 模拟秒杀任务
秒杀逻辑分析:
1 前端秒杀按钮,用户点击---》发送ajax请求到后端
2 视图函数---》提交秒杀任务---》借助于celery,提交到中间件中了
3 当次秒杀的请求,就回去了,携带者任务id号在前端
4 前端开启定时任务,每隔3s钟,带着任务,向后端发送请求,查看是否秒杀成功
5 后端的情况
1 任务还在等待被执行----》返回给前端,前端继续每隔3s发送一次请求
2 任务执行完了,秒杀成功了---》返回给前端,恭喜您秒杀成功--》关闭前端定时器
3 任务执行完了,秒杀失败了---》返回给前端,秒杀失败--》关闭前端定时器
user/views.py
from rest_framework.viewsets import ViewSet
from celery_task.order_task import sckill_task
from celery_task.celery import app
from celery.result import AsyncResult
class SckillView(ViewSet):
@action(methods=['GET'], detail=False)
def sckill(self, request):
a = request.query_params.get('id')
# 使用异步,提交一个秒杀任务
res = sckill_task.delay(a)
return APIResponse(task_id=res.id)
@action(methods=['GET'], detail=False)
def get_result(self, request):
task_id = request.query_params.get('task_id')
a = AsyncResult(id=task_id, app=app)
if a.successful():
result = a.get()
if result:
return APIResponse(msg='秒杀成功')
else:
return APIResponse(code=101, msg='秒杀失败')
elif a.status == 'PENDING':
print('任务等待中被执行')
return APIResponse(code=666, msg='还在秒杀中')
order_task.py:
# 秒杀任务
import random
import time
@app.task
def sckill_task(good_id):
# 生成订单,减库存,都要在一个事务中
print("商品%s:秒杀开始" % good_id)
# 这个过程,可能是1,2,3s中的任意一个
time.sleep(random.choice([6, 7, 9]))
print('商品%s秒杀结束' % good_id)
return random.choice([True, False])
前端:
<template>
<div>
<button @click="handleSckill">秒杀</button>
</div>
</template>
<script>
import Header from '@/components/Header';
import Banner from '@/components/Banner';
import Footer from '@/components/Footer';
export default {
name: 'Sckill',
data() {
return {
task_id: '',
t: null
}
},
methods: {
handleSckill() {
this.$axios.get(this.$settings.BASE_URL + '/user/sckill/sckill/?id=999').then(res => {
this.task_id = res.data.task_id
this.t = setInterval(() => {
this.$axios.get(this.$settings.BASE_URL + '/user/sckill/get_result/?task_id=' + this.task_id).then(res => {
if (res.data.code == 666) {
//如果秒杀任务还没执行,定时任务继续执行
console.log(res.data.msg)
} else {
// 秒杀结束,无论成功失败,这个定时任务都结束
clearInterval(this.t)
this.t = null
this.$message(res.data.msg)
}
})
}, 2000)
}).catch(res => {
})
}
}
}
</script>
7.轮播图接口加入缓存
网站首页被访问的概率很高,瞬间的并发量会导致mysql不堪重负。并且首页的轮播图接口基本都是固定的几张图,修改的频率较小。
而redis正好弥补了这个缺点,可以承受较大的并发量。
缓存主要适用于对页面实时性要求不高的页面。存放在缓存的数据,通常是频繁访问的,而不会经常修改的数据。举几个应用例子:博客文章。假设用户一天更新一篇文章,那么可以为博客设置1天的缓存,一天后会刷新。购物网站。商品的描述信息几乎不会变化,而商品的购买数量需要根据用户情况实时更新。我们可以只选择缓存商品描述信息。缓存网页片段。比如缓存网页导航菜单和脚部(Footer)
现在的轮播图接口变成了:
1.轮播图请求来的时候先去缓存中查看,如果有,直接返回
2.如果没有,查数据库,然后将轮播图数据放到redis中,缓存起来
home/views.py:
from rest_framework.mixins import ListModelMixin
from django.core.cache import cache
from .serializer import BannerSerializer
class BannerView(GenericViewSet, ListModelMixin):
queryset = Banner.objects.filter(is_delete=False, is_show=True).order_by('orders')
serializer_class = BannerSerializer
def list(self, request, *args, **kwargs):
banner_list = cache.get('banner_list')
if banner_list:
print('走了缓存')
return APIResponse(data=banner_list)
else:
print('走了数据库')
res = super().list(request, *args, **kwargs)
cache.set('banner_list',res.data)
return APIResponse(data=res.data)
settings/dev.py
# 首先需要安装django_redis模块
CACHES = {
"default": {
"BACKEND": "django_redis.cache.RedisCache",
"LOCATION": "redis://127.0.0.1:6379",
"OPTIONS": {
"CLIENT_CLASS": "django_redis.client.DefaultClient",
"CONNECTION_POOL_KWARGS": {"max_connections": 100}
# "PASSWORD": "123",
}
}
}
可以看到第一次访问的是数据库,之后访问的都是缓存:
8.双写一致性
按照程序执行得流程我们第一次取值都回去数据库取,从第二次开始我们就需要在缓存中取。当我们新增几张轮播图(或者其他数据)时,我们并不一定会刷新页面,这样就造成了缓存没有办法及时将数据库中的内容同步到缓存。也就是mysql和redis(缓存数据库)的内容不一致,存在问题,这种现象叫双写不一致。
解决双写不一致的方法:
1.修改数据,删除缓存(rom操作之后用代码删除和更新)
2.修改数据库,更新缓存
3.定时更新缓存(实时性差,仅适用于数据重要性低的数据)。可以采用celery制作定时任务。
我们是用定时任务来将数据库同步到缓存中:
celery_task/user_task.py:
from home.models import Banner
from home.serializer import BannerSerializer
from django.core.cache import cache
@app.task
def update_banner():
banner_queryset = Banner.objects.filter(is_delete=False, is_show=True).order_by('orders')
ser = BannerSerializer(instance=banner_queryset, many=True)
cache.set('banner_list', ser.data)
print(ser.data)
return True
celery_task/celery.py:
from celery import Celery
from celery.schedules import crontab
from datetime import timedelta
import os
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'luffy_api.settings.dev')
broker = 'redis://127.0.0.1:6379/1'
backend = 'redis://127.0.0.1:6379/2'
app = Celery('test', broker=broker, backend=backend, include=['celery_task.order_task', 'celery_task.user_task',])
# 修改时区
app.conf.timezone = 'Asia/Shanghai'
# 是否使用utc时间
app.conf.enable_utc = False
# 任务的定时配置
app.conf.beat_schedule = {
'update_banner':{
'task': 'celery_task.user_task.update_banner',
'schedule': timedelta(seconds=3),
}
}
但是我们执行以上代码发现前端轮播图并不会显示,这是因为image字段中存储的路径在celery中不能补全:
修改后:
celery_task/celery.py:
from celery import Celery
from celery.schedules import crontab
from datetime import timedelta
import os
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'luffy_api.settings.dev')
broker = 'redis://127.0.0.1:6379/1'
backend = 'redis://127.0.0.1:6379/2'
app = Celery('test', broker=broker, backend=backend, include=['celery_task.order_task', 'celery_task.user_task',])
# 修改时区
app.conf.timezone = 'Asia/Shanghai'
# 是否使用utc时间
app.conf.enable_utc = False
# 任务的定时配置
app.conf.beat_schedule = {
'update_banner':{
'task': 'celery_task.user_task.update_banner',
'schedule': timedelta(seconds=3),
}
}
celery_task/user_task.py:
from home.models import Banner
from home.serializer import BannerSerializer
from django.core.cache import cache
from django.conf import settings
@app.task
def update_banner():
banner_queryset = Banner.objects.filter(is_delete=False, is_show=True).order_by('orders')
ser = BannerSerializer(instance=banner_queryset, many=True)
for item in ser.data:
item['image'] = settings.BACKEND_URL+item['image']
print(item.get('image'))
cache.set('banner_list', ser.data)
return True