libevent

http://blog.csdn.net/wind19/article/details/42678875

 

libevent的基本使用  

http://www.cnblogs.com/cnspace/archive/2011/07/19/2110891.html

http://yifangyou.blog.51cto.com/900206/611414


======================================================================================================================
libevent的多线程模型  
转自http://blog.csdn.net/bokee/article/details/6670550
最近在阅读memcached的源代码,打算将自己学习所得成文留念,更因为是第一次正式接触memcached,水平有限,希望大家多多交流。此系列文章按自己的理解将memcached分成几个模块分别分析。这里以memcached-1.4.6为例。


一,libevent简介
        memcached中的网络数据传输与处理完全依赖libevent。我会在另一篇文章介绍libevent。这里简单介绍libevent的用法。首先介绍相关定义。
        1)文件描述符(file descriptor)状态为可读或可写(readable/writable),是指用户线程在对此状态的文件描述符进行IO操作时,read/write系统调用会马上从内核buff读取或向内核buff写入数据并返回,而不会因为无可读数据,或无可写入空间而阻塞,直到描述符满足IO条件(IO conditions are ready),即变为可读或可写。
        2)IO事件(event)是指文件描述符状态从不可读到可读,或从不可写到可写的一次状态变化。由此可知,一个IO事件一定与一个文件描述符关联,而且分为可读事件或可写事件等不同事件类型。
        用户线程使用libevent则通常按以下步骤:
        1)用户线程通过event_init()函数创建一个event_base对象。event_base对象管理所有注册到自己内部的IO事件。多线程环境下,event_base对象不能被多个线程共享,即一个event_base对象只能对应一个线程。
        2)然后该线程通过event_add函数,将与自己感兴趣的文件描述符相关的IO事件,注册到event_base对象,同时指定事件发生时所要调用的事件处理函数(event handler)。服务器程序通常监听套接字(socket)的可读事件。比如,服务器线程注册套接字sock1的EV_READ事件,并指定event_handler1()为该事件的回调函数。libevent将IO事件封装成struct event类型对象,事件类型用EV_READ/EV_WRITE等常量标志。
        3) 注册完事件之后,线程调用event_base_loop进入循环监听(monitor)状态。该循环内部会调用epoll等IO复用函数进入阻塞状态,直到描述符上发生自己感兴趣的事件。此时,线程会调用事先指定的回调函数处理该事件。例如,当套接字sock1发生可读事件,即sock1的内核buff中已有可读数据时,被阻塞的线程立即返回(wake up)并调用event_handler1()函数来处理该次事件。
        4)处理完这次监听获得的事件后,线程再次进入阻塞状态并监听,直到下次事件发生。


二,memcached线程模型
        1,多线程的初始化与启动。
        memcached是一个典型的单进程多线程服务器。memcached启动后,main thread线程会初始化各个模块,如调用slabs_init()函数初始化内存管理模块,当然也包括创建多个worker thread线程以及初始化相关数据,最后调用event_base_loop()进入监听循环。
        本节介绍各个线程以及相关数据的创建以及初始化工作。描述具体代码前,先介绍主要数据结构。memcached将原始线程id(pthread_t)封装成LIBEVENT_THREAD对象,该对象与线程一一对应,此对象定义如下:
[cpp] view plaincopy
/*  
 * File: memcached.h  
 */  
typedef struct {  
    pthread_t thread_id; /* 线程id */  
    struct event_base *base; /* 该event_base对象管理该线程所有的IO事件 */  
    struct event notify_event; /* 此事件对象与下面的notify_receive_fd描述符关联 */  
    int notify_receive_fd; /* 与main thread通信的管道(pipe)的接收端描述符 */  
    int notify_send_fd; /* 与main thread通信的管道的发送端描述符 */  
    struct thread_stats stats; /* Stats generated by this thread */  
    struct conn_queue *new_conn_queue; /* 此队列是被锁保护的同步对象,主要用来在main thread线程与该worker thread线程之间传递初始化conn对象所需数据 */  
    cache_t *suffix_cache; /* suffix cache */} LIBEVENT_THREAD;  
  
/* 
 * File: thread.c  
 * 与所有worker thread线程对应的线程对象数组  
 */  
static LIBEVENT_THREAD *threads;  
        我们重点关注LIBEVENT_THREAD定义中,添加了中文注释的字段。具体功能见对应注释。
        main thread线程创建以及初始化worker thread的操作主要通过thread_init()和setup_thread()函数来完成。thread_init()主要代码如下:
[cpp] view plaincopy
/* 
 * File: thread.c 
 * thread_init() 
 */  
// 1) 此for循环初始化worker thread线程对象数组。  
for (i = 0; i < nthreads; i++) {  
// 1.1) 创建与main thread线程通信的管道,并初始化notify_*_fd描述符。  
    int fds[2];  
    if (pipe(fds)) {  
        perror("Can't create notify pipe");  
        exit(1);  
    }  
    threads[i].notify_receive_fd = fds[0];  
    threads[i].notify_send_fd = fds[1];  
  
// 1.2) 主要用来注册与threads[i]线程的notify_event_fd描述符相关的IO事件。  
    setup_thread(&threads[i]);  
}  
  
// 2) 此for循环启动worker thread线程。worker_libevent()函数内部主要调用event_base_loop()函数,即循环监听该线程注册的IO事件。  
/* Create threads after we've done all the libevent setup. */  
for (i = 0; i < nthreads; i++) {  
    create_worker(worker_libevent, &threads[i]);  
}  
  
// 3) 等待所有子线程,即worker thread线程启动后,此函数才返回。  
/* Wait for all the threads to set themselves up before returning. */  
pthread_mutex_lock(&init_lock);  
while (init_count < nthreads) {  
    pthread_cond_wait(&init_cond, &init_lock);  
}  
pthread_mutex_unlock(&init_lock);  
       thread_init()函数的重点是通过setup_thread()函数为每个worker thread线程注册与notify_event_fd描述符有关的IO事件,这里的notify_event_fd描述符是该worker thread线程与main thread线程通信的管道的接收端描述符。通过注册与该描述符有关的IO事件,worker thread线程就能监听main thread线程发给自己的数据(事件)。setup_thread()函数主要代码如下:
[cpp] view plaincopy
/* 
 * File: thread.c 
 * setup_thread() 
 */  
// 1.2.1) 初始化线程对象中notify_event事件对象,并将其注册到event_base对象。  
/* Listen for notifications from other threads */  
event_set(&me->notify_event, me->notify_receive_fd,  
          EV_READ | EV_PERSIST, thread_libevent_process, me);  
event_base_set(me->base, &me->notify_event);  
  
if (event_add(&me->notify_event, 0) == -1) {  
    fprintf(stderr, "Can't monitor libevent notify pipe\n");  
    exit(1);  
}  
  
// 1.2.2) 创建与初始化new_conn_queue队列。  
me->new_conn_queue = malloc(sizeof(struct conn_queue));  
if (me->new_conn_queue == NULL) {  
    perror("Failed to allocate memory for connection queue");  
    exit(EXIT_FAILURE);  
}  
cq_init(me->new_conn_queue);  
        由1.2.1)处代码段知,该worker thread线程将监听notify_event_fd描述符上的可读事件,即监听与main thread线程t通信的管道上的可读事件,并指定用thread_libevent_process()函数处理该事件。
        在3)处的代码段执行完毕后,各个worker thread线程就已经完成初始化并启动,而且各个worker thread线程开始监听并等待处理与notify_receive_fd描述符有关的IO事件。


        在worker thread线程启动后,main thread线程就要创建监听套接字(listening socket)来等待客户端连接请求。这里的监听(listen)客户端连接请求与libevent中的监听(monitor)IO事件有一定区别。在memcached中,套接字跟线程id一样,都被进一步封装。套接字被封装成conn对象,表示与客户端的连接(connection),该结构体定义很大,现选择与主题相关的几个字段,定义如下:
[cpp] view plaincopy
/*  
 * File: memcache.h  
 */    
typedef struct conn conn;    
struct conn {    
    int    sfd;    // 原始套接字    
    sasl_conn_t *sasl_conn;    
    enum conn_states  state;    // 此连接的态变变量,用于标记此连接在运行过程中的各个状态。此字段很重要。取值范围由conn_states枚举定义。        
    enum bin_substates substate;  // 与state字段类似  
    struct event event;    // 此事件对象与该套接字,即sfd字段关联。    
    short  ev_flags; // 与上一字段有关,指定监听的事件类型,如EV_READ。    
    short  which;   /** which events were just triggered */    
// 以下字段略    
}  
        下面是main thread线程创建listening socket的地方:
[cpp] view plaincopy
/* 
 * File: memcached.c 
 * server_socket() 
 */  
// 4) main thread线程在这里创建并初始化listening socket,包括注册与该conn对象相关的IO事件。注意conn_listening参数,它指定了该conn对象的初始化状态。  
if (!(listen_conn_add = conn_new(sfd, conn_listening,  
                                             EV_READ | EV_PERSIST, 1,  
                                             transport, main_base))) {  
    fprintf(stderr, "failed to create listening connection\n");  
    exit(EXIT_FAILURE);  
}  
listen_conn_add->next = listen_conn;  
listen_conn = listen_conn_add;  
        conn_new()是memcached中一个重要的函数,此函数负责将原始套接字封装成为一个conn对象,同时会注册与该conn对象相关的IO事件,并指定该连接(conn)的初始状态。这里要注意的是listening socket的conn对象被初始化为conn_listening状态,这个细节会在后面用到。conn_new()函数的部分代码如下:
[cpp] view plaincopy
/* 
 * File: memcached.c 
 * conn_new() 
 */  
// 4.1) 初始化conn对象的相关字段。注意state字段。  
c->sfd = sfd;  
c->state = init_state;  
  
// 中间初始化步骤略  
  
// 4.2) 注册与该连接有关的IO事件  
event_set(&c->event, sfd, event_flags, event_handler, (void *)c);  
event_base_set(base, &c->event);  
c->ev_flags = event_flags;  
  
if (event_add(&c->event, 0) == -1) {  
    if (conn_add_to_freelist(c)) {  
       conn_free(c);  
    }  
    perror("event_add");  
    return NULL;  
}  
        再次提醒,连接对象的state字段是一个很重要的变量,它标志了该conn对象在运行过程中的各个状态,该字段的取值范围由conn_states枚举定义。由4处代码段,传递给conn_new()函数的conn_listening常量知,main thread线程创建了一个初始状态为conn_listening的连接。这里可以提前透露下,worker thread线程在接受main thread线程的分派后(下一节会介绍),会创建初始状态为conn_new_cmd的conn对象。        大家应该熟悉了如何注册IO事件,就不赘述了。这里要提醒的是,你会发现memcached中所有conn对象相关的处理函数都是event_handler()函数,它在内部将主要的事件处理部分交给drive_machine()函数。这个函数就全权负责处理与客户连接相关的事件。        主线程在完成初始化后,会通过event_base_loop()进入监听循环,此时主线程开始等待listening socket上的连接请求。
         2,客户端连接的建立与分派        
        上一节介绍的启动步骤完成之后,memcached的主线程开始监听listening socket上的可读事件,即等待客户端连接请求,而worker thread监听各自notify_receive_fd描述符上的可读事件,即等待来自main thread线程的数据。现在,我们来看当客户端向memcached服务器发来连接请求,memcached会如何处理。        参考上一节关于创建listening socket的部分内容,我们知道,当客户端发来连接请求,main thread线程会因listening socket发生可读事件而返回(wake up),并调用event_handler()函数来处理该请求,此函数会调用drive_machie()函数,其中处理客户端连接请求的部分如下:
[cpp] view plaincopy
/* 
 * File: memcached.c 
 * drive_machine() 
 */  
switch(c->state) {  
        case conn_listening:  
// 5) 以下数行建立与客户端的连接,得到sfd套接字。  
            addrlen = sizeof(addr);  
            if ((sfd = accept(c->sfd, (struct sockaddr *)&addr, &addrlen)) == -1) {  
                if (errno == EAGAIN || errno == EWOULDBLOCK) {  
                    /* these are transient, so don't log anything */  
                    stop = true;  
                } else if (errno == EMFILE) {  
                    if (settings.verbose > 0)  
                        fprintf(stderr, "Too many open connections\n");  
                    accept_new_conns(false);  
                    stop = true;  
                } else {  
                    perror("accept()");  
                    stop = true;  
                }  
                break;  
            }  
            if ((flags = fcntl(sfd, F_GETFL, 0)) < 0 ||  
                fcntl(sfd, F_SETFL, flags | O_NONBLOCK) < 0) {  
                perror("setting O_NONBLOCK");  
                close(sfd);  
                break;  
            }  
// 6) 此函数将main thread线程创建的原始套接字以及一些初始化数据,传递给某个指定的worker thread线程。  
            dispatch_conn_new(sfd, conn_new_cmd, EV_READ | EV_PERSIST,  
                                     DATA_BUFFER_SIZE, tcp_transport);  
            stop = true;  
            break;  
        这里就是conn对象的state字段发挥作用的地方了:),drive_machine()函数是一个巨大的switch语句,它根据conn对象的当前状态,即state字段的值选择执行不同的分支,因为listening socket的conn对象被初始化为conn_listening状态,所以drive_machine()函数会执行switch语句中case conn_listenning的分支,即创建并分派客户端连接部分。见5)处代码段。
        在这里,main thread线程利用dispatch_conn_new()函数,来将客户端连接套接字(这里还只是原始套接字)以及其它相关初始化数据,传递给某个worker thread线程。这里就要用到上一节提到的,main thread线程与worker thread线程之间的管道(pipe),还有线程对象中的new_conn_queue队列。代码如下:
[cpp] view plaincopy
void dispatch_conn_new(int sfd, enum conn_states init_state, int event_flags,  
                       int read_buffer_size, enum network_transport transport) {  
// 6.1) 新建一个CQ_ITEM对象,并通过一个简单的取余机制选择将该CQ_ITEM对象传递给哪个worker thread。  
    CQ_ITEM *item = cqi_new();  
    int tid = (last_thread + 1) % settings.num_threads;  
    LIBEVENT_THREAD *thread = threads + tid;  
    last_thread = tid;  
  
// 6.2) 初始化新建的CQ_ITEM对象  
    item->sfd = sfd;  
    item->init_state = init_state;  
    item->event_flags = event_flags;  
    item->read_buffer_size = read_buffer_size;  
    item->transport = transport;  
  
// 6.3) 将CQ_ITEM对象推入new_conn_queue队列。  
    cq_push(thread->new_conn_queue, item);  
  
// 6.4) 向与worker thread线程连接的管道写入一字节的数据。  
    MEMCACHED_CONN_DISPATCH(sfd, thread->thread_id);  
    if (write(thread->notify_send_fd, "", 1) != 1) {  
        perror("Writing to thread notify pipe");  
    }  
}  
        此函数主要新建并初始化了一个CQ_ITEM对象,该对象包含许多创建conn对象所需用的初始化数据,如原始套接字(sfd),初始化状态(init_state)等,然后该函数将该CQ_ITEM对象传递给某个被选定的worker thread线程。在上一节介绍LIBEVENT_THREAD线程对象时说过,new_conn_queue队列用来在两个线程之间传递数据,这里就被用来向worker thread线程传递一个CQ_ITEM对象。除此之外,还要注意main thread线程向与worker thread线程连接的管道写入了一个字节的数据。此举意在触发管道另一端,即notify_receive_fd描述符的可读事件。现在我们看管道另一端的worker thread线程会发生什么。
        我们知道memcached启动后,worker thread线程会监听notify_receive_fd描述符上的可读事件。因为main thread线程向管道写入了一个字节的数据,worker thread线程会因notify_receive_fd描述符上发生可读事件而返回,并调用事先注册时指定的thread_libevent_process()函数来处理该事件,该函数主要代码如下:
[cpp] view plaincopy
/* 
 * File: thread.c 
 * thread_libevent_process() 
 */  
// 7) 从管道中读出一个字节数据,此字节即main thread线程先前向notify_send_fd描述符写入的字节。  
if (read(fd, buf, 1) != 1)  
        if (settings.verbose > 0)  
            fprintf(stderr, "Can't read from libevent pipe\n");  
  
// 8) 从new_conn_queue队列中弹出一个CQ_ITEM对象,此对象即先前main thread线程推入new_conn_queue队列的对象。  
    item = cq_pop(me->new_conn_queue);  
  
// 9) 根据这个CQ_ITEM对象,创建并初始化conn对象,该对象负责客户端与该worker thread线程之间的通信。  
    if (NULL != item) {  
        conn *c = conn_new(item->sfd, item->init_state, item->event_flags,  
                           item->read_buffer_size, item->transport, me->base);  
  
// 以下略  
        注意,在7)处代码段,从管道读出的一个字节数据就是main thread线程在2.4处写入的数据。显然,该数据本身没有意义,它的目的只是触发worker thread线程这边notify_receive_fd描述符的可读事件。然后根据取得的CQ_ITEM对象创建并初始化conn对象。这里要注意的是,在6)处代码段,main thread线程将该CQ_ITEM对象的init_state字段初始化为conn_new_cmd,那么worker thread线程创建的conn对象的state字段将被初始化为conn_new_cmd。
        到这里,就完成了从客户端发送连接请求,到main thread线程创建原始套接字,再到将原始套接字等初始化数据分派到各个worker thread线程,到最后worker thread线程创建conn对象,开始负责与客户端之间通信的整个流程。worker thread就从这里开始监听该客户端连接的可读事件,并准备用event_handler()函数处理从客户端发来的数据。


参考:1)http://bachmozart.iteye.com/blog/344172

posted @ 2016-02-22 10:32  贺大卫  阅读(543)  评论(0编辑  收藏  举报