celery源码解读

 

Celery启动的入口:

文件:Celery/bin/celery.py

 

看下main函数做了什么事

可以看到主要做了几个事根据-P参数判断是否需要打patch,如果是gevent或者eventlet则要打对应的补丁。

然后执行命令行逻辑

 

 

可以看到,这边取出系统参数

然后执行基类Command的execute_from_commandline

文件:celery/bin/base.py

 

setup_app_from_commandline是核心函数,作用是获得我们的app对象和获得我们的配置参数

文件:Celery/bin/celery.py

 

这边主要获取启动类别及启动参数,我们的类别是worker所以:

 

这边是开始准备启动对应类别的对象,worker、beat等。

self.commands是支持的命令:

 

上面我们知道,我们的类型是worker,即celery.bin.worker.worker,初始化该类,然后执行run_from_argv函数

文件:celery/bin/worker.py

 

最后一行会执行到父类的__call__函数,

文件:celery/bin/base.py

 

这边主要执行的是run函数

 

这个函数主要是启动worker

 

终于进入worker了,现在这里涉及一些比较关键的东西了,

文件:celery/worker/__init__.py  

WorkController类里,是worker的基类

 

 

这是worker的蓝图,这边会形成一个依赖图,是启动的必要组件,分别负责worker的一部分任务,比较重要的几个:

Timer用于执行定时任务的 Timer,和 Consumer 那里的 timer 不同

HubEvent loop 的封装对象

Pool构造各种执行池(线程/进程/协程)的

Beat创建Beat进程,不过是以子进程的形式运行(不同于命令行中以beat参数运行)

 

文件:celery/apps/worker.py

 

文件:celery/apps/trace.py

 

文件:celery/app/base.py

 

init_before开始,这边是最主要的,即绑定所有的task到我们的app,注册task在下面

 

 

 

 

每个task都有delayapply_async函数,这个可以用来帮我们启动任务。

 

文件:celery/worker/__init__.py

 

这边是设置关注及不关注的队列,可以看到,celery支持ampq协议。

 

调用setup_includes安装一些通过CELERY_INCLUDE配置的模块,保证所有的任务模块都导入了

最后初始化蓝图,并进行apply完成蓝图各个step的依赖关系图的构建,并进行各个组件的初始化,依赖在component中已经标出

 

这个requires就是依赖,说明hub依赖timer,上面蓝图声明的组件都有互相依赖关系。

回到文件:celery/worker/__init__.py执行start

 

执行的是蓝图的start

 

分别执行各个步骤的start,在apply时,会判断step是否需要start,不start但是仍要create

 

通过启动日志看,worker启动的stepPool,和Consumer

如果换成prefork方式起,worker会多起hubautoscaler两个step

 

Hub依赖Timer,我们用gevent,所以include_iffalse,这个不需要start

Hub创建时候引用的kombuHub组件,Connection会注册到HubConnection是各种类型连接的封装,对外提供统一接口

Queue依赖Hub,这边是基于Hub创建任务队列

下面是我们的worker启动的step其中的一个,重点进行说明

初始化线程/协程池,是否弹缩,最大和最小并发数

 

Celery支持的几种TaskPool

 

我们是gevent,所以这边直接找gevent的代码。

 

这边直接引用geventPool

 

下面看worker启动的第二个step

可以看到,这边启动的是celery.worker.consumer.Consumer,这边就会涉及另一个重要的蓝图了。

文件:celery/worker/consumerConsumer

 

这是Consumer的蓝图,

 

Consumer启动的stepConnectioneventsmingleGossipTasksContorlHeartevent loop

 

__init__初始化一些必要的组件,很多都是之前worker创建的。

然后执行blueprintapply,做的事我worker之前是一样的。

 

执行Consumerstart,也就是执行blueprintstart

启动的step的基本功能:

Connection:管理和brokerConnection连接

Mingle:不同worker之间同步状态用的

Tasks:启动消息Consumer

Gossip:消费来自其他worker的事件

Heart:发送心跳事件(consumer的心跳)

Control:远程命令管理服务

其中ConnectionTasksHeartevent loop是最重要的几个。

先看Connection

 

使用了consumerconnect()

 

Conn引用了ampqconnectionampqConnection是直接使用的kombuConnection,上面说过,这个Connection是各种支持的类型(如redisrabbitMQ等)的抽象,对外提供统一接口。

如果hub存在,会将连接注册到event loop

再看Tasks

 

这边引用的ampqTaskConsumerampqTaskConsumer继承了kombuConsumer

可以看到,在关键的几个地方,celery都引用了kombuKombu对所有的MQ进行抽象,然后通过接口对外暴露出一致的APIRedis/RabbitMQ/MongoDB),KombuMQ的抽象如下:

Message:生产消费的基本单位,就是一条条消息

Connection:对 MQ 连接的抽象,一个 Connection 就对应一个 MQ 的连接

Transport:真实的 MQ 连接,也是真正连接到 MQ(redis/rabbitmq) 的实例

Producers: 发送消息的抽象类

Consumers:接受消息的抽象类

ExchangeMQ 路由,这个和 RabbitMQ 差不多,支持 5种 类型

Queue:对应的 queue 抽象,其实就是一个字符串的封装

Hub是一个eventloopConnection注册到Hub,一个Connection对应一个HubConsumer绑定了消息的处理函数,每一个Consumer初始化的时候都是和Channel绑定的,也就是说我们Consumer包含了Queue也就和Connection关联起来了,Consumer消费消息是通过Queue来消费,然后Queue又转嫁给Channel再转给connectionChannelAMQPMQ的操作的封装,ConnectionAMQP对连接的封装那么两者的关系就是对MQ的操作必然离不开连接,但是,Kombu并不直接让Channel使用Connection来发送/接受请求,而是引入了一个新的抽象TransportTransport负责具体的MQ的操作,也就是说Channel的操作都会落到Transport上执行

再看下event loop

 

上面我们有了connection以及绑定connectionconsumer,下面看看消费者怎么消费消息,如果是带hub的情况:

 

先对consumer进行一些设置,

 

然后开始进行循环。loopkombu创建的event loop,启用事件循环机制,然后next这边就开始不停的循环获取消息并执行。

 

这个是kombu里的部分实现,是对从池里取到的消息进行处理。

 

看下同步代码,register_callback将回调注册consumer,然后执行consume

 

再看消息循环那几行,

获取到消息后,调用回调函数进行处理。

 

回调函数使用的是create_task_handler()strategies是在上面的update_strategies里进行的更新,该函数是在Task里调用的

 

打印一下strategies里的信息,只截部分图:

 

下面看下我们怎么启动任务的,

 

调用到appsend_task

 

再调用到ampqpublish_task

 

最终又交给kombupublish

关于pool的选择:

 

使用的是apppool,即

 

通过connection又走到了ampq再转到kombu里。

 

 

Workerconsumer基本大框架就是上面的流程,下面看下beat是怎么实现的。

Beat起动的时候是celery beat,根据我们上面的分析,首先进入的应该是celey/bin/beat.py,然后调用该文件中的Beatrun函数:

 

然后在指向appsBeat

 

在apps里的Beat调用run

 

主要执行了三个函数,init_loader主要初始化并绑定task,第二步设置一些头信息之类的,关键是第三步,主干代码

 

主要是初始化servicestart

 

Start最关键的部分是那个while循环体,只要不被shutdown,就会一直调用schedulertick

 

这边这个self.schedule就是我们准备调度的任务:

 

下面看对这些任务的处理:

 

这是判断是否要执行任务的逻辑,如果要执行,则执行apply_async

 

如果发现任务该执行了,则去tasks里获取任务,并执行,这边的apply_asyncworker那边的没区别,如果没找到task,则将task注册到broker

 

 

 

怎样将consumerconcurrency联系起来

这边调用了_process_task,调用的是worker里的

这边调用各种池的启动函数:

但是queue里只是引用,后面还有别的处理

在初始化consumer时候将调用池的操作传了进去,成为了Consumer里的on_task_request

在Tasks调用start的时候会更新strategies

然后在这边调用start_strategy

然后就进入

然后走入strategy的default

这里取了consumeron_task_request,就是我们传入的池执行的逻辑,_limit_task是这样的:

做了一些判断,符合条件再执行。

这个文件是strategydefault的下半个文件,做了一些流量控制,然后执行limit_task或者直接执行handler

这边因为使用的gevent,所以就走到geventapply_async

这边是起一个协程处理,这样就将任务交给了gevent

具体上面是执行流程,具体在哪里执行的呢?

这边注册了callbackcreate_task_handlerstrategy这边取值取值执行

 

Qosack的处理部分:

Kombutransportredis.py里的额basic_consume,调用channelbasic_consume

 

在Kombu.transport.virtual.__init__.py文件中

 

这里维护了一个dictself._delivered,一个setself._dirty和一个intprefetch_count

如果no_ackFalse在执行consume后会向self._delivered中添加一条数据,

ack后会向self._dirty中添加一条数据,然后,后面会将self._dirty逐条删除,并同时删除self._delivered中的数据,如果没有ack,则不会删除:

 

 

每次拉任务的时候会调用can_consume

 

比较prefetch_countself._deliveredself._dirty的值,如果小于预取限制,则允许,否则不允许。

 

posted @ 2019-03-14 19:17  Small_office  阅读(2720)  评论(1编辑  收藏  举报