Linux企业级开发技术(1)——epoll企业级开发之简介
Epoll是当前在 Linux 下开发大规模并发网络程序的热门人选, Epoll 在 Linux2.6 内核中正式引入。和 select 相似,是高效 I/O 多路复用技术。
其实在 Linux 下设计并发网络程序,有多种模型:如典型的 Apache 模型( Process Per Connection ,简称 PPC ), TPC ( Thread PerConnection )模型,以及 select 模型和 poll 模型
为了对比Epoll 的优点,下面列举常用模型的特点:
1、 PPC/TPC 模型
这两种模型思想类似,就是让每一个到来的连接作为一个单独的任务,不影响主进程。只是 PPC 是为它开了一个进程,而 TPC 开了一个线程。但是其代价是,连接数增多了之后,进程 / 线程切换开销就会增加。因此这类模型能接受的最大连接数都不会高,一般在几百个左右。
2 、select 模型
最大并发数限制,因为一个进程所打开的 FD (文件描述符)是有限制的,由 FD_SETSIZE 设置,默认值是 1024/2048 ,因此 Select 模型的最大并发数就被相应限制了。尽管我们可以修改 FD_SETSIZE但是会产生效率问题。
select 每次调用都会线性扫描全部的 FD 集合,这样效率就会呈现线性下降,所以把FD_SETSIZE 改大的后果就是,会造成超市
内核 / 用户空间内存拷贝问题,如何让内核把 FD 消息通知给用户空间呢?在这个问题上 select 采取了内存拷贝方法。
3 、poll 模型
基本上效率和 select 是相同的,同样具有select 存在的缺点缺点。
Epoll 没有最大并发连接的限制,上限是最大可以打开文件的数目,这个数字一般远大于 2048, 一般来说这个数目和系统内存关系很大,具体数目可以 cat /proc/sys/fs/file-max 察看。
Epoll 最大的优点就在于它只管你“活跃”的连接 ,而跟连接总数无关,因此在实际的网络环境中, Epoll 的效率就会远远高于 select 和 poll 。
Epoll 在内存管理上使用了“共享内存 ”,提高了效率。
Epoll 的高效和其数据结构的设计是密不可分的。
首先回忆一下 select 模型,当有 I/O 事件到来时, select 通知应用程序有事件到了快去处理,而应用程序必须轮询所有的 FD 集合,测试每个 FD 是否有事件发生,并处理事件;代码像下面这样:
int res = select(maxfd+1, &readfds,NULL, NULL, 120); if (res > 0) { for (int i = 0; i < MAX_CONNECTION; i++) { if (FD_ISSET(allConnection[i], &readfds)) { handleEvent(allConnection[i]); } } } // if(res == 0) handle timeout, res < 0handle error
Epoll 不仅会告诉应用程序有I/0 事件到来,还会告诉应用程序相关的信息,这些信息是应用程序填充的,因此根据这些信息应用程序就能直接定位到事件,而不必遍历整个FD 集合。
int res = epoll_wait(epfd, events, 20,120); for (int i = 0; i < res;i++) { handleEvent(events[n]); }
Epoll 速度快和其数据结构密不可分,其关键数据结构就是:
struct epoll_event { __uint32_t events; // Epollevents epoll_data_t data; // Userdata variable }; typedef union epoll_data { void *ptr; int fd; __uint32_t u32; __uint64_t u64; } epoll_data_t;
可见 epoll_data 是一个 union 结构体 , 借助于它应用程序可以保存很多类型的信息 :fd 、指针等等。有了它,应用程序就可以直接定位目标了。