最近项目组中有个同事使用epoll+多线程实现了一个简单的服务器,但是经过压测后,发现如果使用边缘触发模式的话,就会出现丢包现象,水平触发设置等待时间确实解决了丢包问题,但却影响了服务器的性能。所以我就写了一个epoll+多进程的模型,代码如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 | #include <sys/socket.h> #include <sys/epoll.h> #include <netinet/in.h> #include <arpa/inet.h> #include <fcntl.h> #include <unistd.h> #include <stdio.h> #include <errno.h> #include <sys/types.h> #include <sys/mman.h> #include <iostream> using namespace std; #define MAX_EVENTS 10000 void Process( int listenFd); struct shmstruct { int count; }; int main( int argc, char **argv) { short port = 6666; // default port if (argc == 2){ port = atoi (argv[1]); } shm_unlink( "test" ); int fd1 = shm_open( "test" ,O_RDWR|O_CREAT|O_EXCL,666); struct shmstruct* ptr; ftruncate(fd1, sizeof ( struct shmstruct)); ptr = ( struct shmstruct*)mmap(NULL, sizeof ( struct shmstruct),PROT_READ|PROT_WRITE,MAP_SHARED,fd1,0); close(fd1); int listenFd = socket(AF_INET, SOCK_STREAM, 0); fcntl(listenFd, F_SETFL, O_NONBLOCK); // 设置非阻塞方式 sockaddr_in sin ; bzero(& sin , sizeof ( sin )); sin .sin_family = AF_INET; sin .sin_addr.s_addr = INADDR_ANY; sin .sin_port = htons(port); bind(listenFd, ( const sockaddr*)& sin , sizeof ( sin )); listen(listenFd, 5); for ( int i=0; i<5 ;i++) { pid_t pid = fork(); if (pid == 0) // 子进程 { Process(listenFd); // 工作进程 return 0; } } while ( true ) { sleep(10); } return 0; } void Process( int listenFd) { int fd1 = shm_open( "test" ,O_RDWR,666); struct shmstruct* ptr; ptr = ( struct shmstruct*)mmap(NULL, sizeof ( struct shmstruct),PROT_READ|PROT_WRITE,MAP_SHARED,fd1,0); close(fd1); struct epoll_event ev, events[MAX_EVENTS]; //生成用于处理accept的 epoll专用的文件描述符 int epfd = epoll_create( MAX_EVENTS ); //设置与要处理的事件相关的文件描述符 ev.data.fd = listenFd; //设置要处理的事件类型 ev.events = EPOLLIN | EPOLLET; //注册epoll事件 if ( epoll_ctl( epfd, EPOLL_CTL_ADD, listenFd, &ev ) < 0 ) { printf ( "worker epoll_ctl error = %s." , strerror ( errno ) ); exit (1); } while ( true ) { // 等待epoll事件的发生 int nfds = epoll_wait( epfd, events, MAX_EVENTS, -1 ); // 处理所发生的所有事件 for ( int i=0; i<nfds; ++i ) // for循环中可以修改为线程池处理epoll事件 { if ( events[i].data.fd == listenFd ) { socklen_t clilen; struct sockaddr_in clientaddr; int sockfd = accept( listenFd, (sockaddr *)&clientaddr, &clilen ); if ( sockfd < 0 ) { continue ; } // 设置非阻塞 if (fcntl( sockfd, F_SETFL, fcntl( sockfd, F_GETFD, 0)|O_NONBLOCK) == -1) { continue ; } //设置用于读操作的文件描述符 ev.data.fd = sockfd; //设置用于注测的读操作事件 ev.events = EPOLLIN | EPOLLET; //注册ev epoll_ctl( epfd, EPOLL_CTL_ADD, sockfd, &ev); } else if (events[i].events & EPOLLIN) { int sockfd = events[i].data.fd; if ( sockfd < 0 ) { continue ; } char buf[1024] = {0}; // 开始处理每个新连接上的数据收发 bzero( buf, sizeof (buf) ); int len = read( sockfd, buf, 1023 ); if ( len < 0) { if ( errno == ECONNRESET) { close(sockfd); events[i].data.fd = -1; } else { printf ( "worker read data error = %s." , strerror ( errno ) ); } } else if ( len == 0 ) { events[i].data.fd = -1; } else { if ( send(sockfd, "asdf" , 4, 0) < 0) { printf ( "send msg error: %s(errno: %d)\n" , strerror ( errno ), errno ); exit (0); } printf ( "count:%d\n" ,++ptr->count); } } } } } |
注:代码在redhat下能正常编译,如果其他平台,可能需要修改共享内存部分的代码,因为有些linux平台共享内存的创建路径需要写绝对路径。
通过测试,压测的结果与子进程数成线性关系,也与服务器的配置有一定关系,我用的机器在5个子进程下,能达到5000的并发不丢包。其实如果在for循环内使用线程池进行业务处理的话,可能启用的子进程数不需要很多就能达到很大数量的并发,这个epoll+多进程+线程池也是目前多数服务器使用的epoll模型。等有时间了,再写个加入线程池的模型也测试测试。
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步