Epoll在LT和ET模式下的读写方式
转载请注明来源:https://www.cnblogs.com/hookjc/
在一个非阻塞的socket上调用read/write函数, 返回EAGAIN或者EWOULDBLOCK(注: EAGAIN就是EWOULDBLOCK)
从字面上看, 意思是:EAGAIN: 再试一次,EWOULDBLOCK: 如果这是一个阻塞socket, 操作将被block,perror输出: Resource temporarily unavailable
总结:
这个错误表示资源暂时不够,能read时,读缓冲区没有数据,或者write时,写缓冲区满了。遇到这种情况,如果是阻塞socket,read/write就要阻塞掉。而如果是非阻塞socket,read/write立即返回-1, 同时errno设置为EAGAIN。
所以,对于阻塞socket,read/write返回-1代表网络出错了。但对于非阻塞socket,read/write返回-1不一定网络真的出错了。可能是Resource temporarily unavailable。这时你应该再试,直到Resource available。
综上,对于non-blocking的socket,正确的读写操作为:
读:忽略掉errno = EAGAIN的错误,下次继续读
写:忽略掉errno = EAGAIN的错误,下次继续写
对于select和epoll的LT模式,这种读写方式是没有问题的。但对于epoll的ET模式,这种方式还有漏洞。
epoll的两种模式LT和ET
二者的差异在于level-trigger模式下只要某个socket处于readable/writable状态,无论什么时候进行epoll_wait都会返回该socket;而edge-trigger模式下只有某个socket从unreadable变为readable或从unwritable变为writable时,epoll_wait才会返回该socket。
所以,在epoll的ET模式下,正确的读写方式为:
读:只要可读,就一直读,直到返回0,或者 errno = EAGAIN
写:只要可写,就一直写,直到数据发送完,或者 errno = EAGAIN
正确的读
n = 0; |
while ((nread = read(fd, buf + n, BUFSIZ-1)) > 0) { |
n += nread; |
} |
if (nread == -1 && errno != EAGAIN) { |
perror("read error"); |
} |
正确的写
int nwrite, data_size = strlen(buf); |
n = data_size; |
while (n > 0) { |
nwrite = write(fd, buf + data_size - n, n); |
if (nwrite < n) { |
if (nwrite == -1 && errno != EAGAIN) { |
perror("write error"); |
} |
break; |
} |
n -= nwrite; |
} |
正确的accept,accept 要考虑 2 个问题
(1) 阻塞模式 accept 存在的问题
考虑这种情况:TCP连接被客户端夭折,即在服务器调用accept之前,客户端主动发送RST终止连接,导致刚刚建立的连接从就绪队列中移出,如果套接口被设置成阻塞模式,服务器就会一直阻塞在accept调用上,直到其他某个客户建立一个新的连接为止。但是在此期间,服务器单纯地阻塞在accept调用上,就绪队列中的其他描述符都得不到处理。
解决办法是把监听套接口设置为非阻塞,当客户在服务器调用accept之前中止某个连接时,accept调用可以立即返回-1,这时源自Berkeley的实现会在内核中处理该事件,并不会将该事件通知给epool,而其他实现把errno设置为ECONNABORTED或者EPROTO错误,我们应该忽略这两个错误。
(2)ET模式下accept存在的问题
考虑这种情况:多个连接同时到达,服务器的TCP就绪队列瞬间积累多个就绪连接,由于是边缘触发模式,epoll只会通知一次,accept只处理一个连接,导致TCP就绪队列中剩下的连接都得不到处理。
解决办法是用while循环抱住accept调用,处理完TCP就绪队列中的所有连接后再退出循环。如何知道是否处理完就绪队列中的所有连接呢?accept返回-1并且errno设置为EAGAIN就表示所有连接都处理完。
综合以上两种情况,服务器应该使用非阻塞地accept,accept在ET模式下的正确使用方式为:
while ((conn_sock = accept(listenfd,(struct sockaddr *) &remote, (size_t *)&addrlen)) > 0) { |
handle_client(conn_sock); |
} |
if (conn_sock == -1) { |
if (errno != EAGAIN && errno != ECONNABORTED && errno != EPROTO && errno != EINTR) |
perror("accept"); |
} |
使用Linuxepoll模型,水平触发模式;当socket可写时,会不停的触发socket可写的事件,如何处理?
第一种最普遍的方式:
需要向socket写数据的时候才把socket加入epoll,等待可写事件。
接受到可写事件后,调用write或者send发送数据。
当所有数据都写完后,把socket移出epoll。
这种方式的缺点是,即使发送很少的数据,也要把socket加入epoll,写完后在移出epoll,有一定操作代价。
一种改进的方式:
开始不把socket加入epoll,需要向socket写数据的时候,直接调用write或者send发送数据。如果返回EAGAIN,把socket加入epoll,在epoll的驱动下写数据,全部数据发送完毕后,再移出epoll。
这种方式的优点是:数据不多的时候可以避免epoll的事件处理,提高效率。
最后贴一个使用epoll,ET模式的简单HTTP服务器代码:
#include <sys/socket.h> |
#include <sys/wait.h> |
#include <netinet/in.h> |
#include <netinet/tcp.h> |
#include <sys/epoll.h> |
#include <sys/sendfile.h> |
#include <sys/stat.h> |
#include <unistd.h> |
#include <stdio.h> |
#include <stdlib.h> |
#include <string.h> |
#include <strings.h> |
#include <fcntl.h> |
#include <errno.h> |
#define MAX_EVENTS 10 |
#define PORT 8080 |
//设置socket连接为非阻塞模式 |
void setnonblocking(int sockfd) { |
int opts; |
opts = fcntl(sockfd, F_GETFL); |
if(opts < 0) { |
perror("fcntl(F_GETFL)\n"); |
exit(1); |
} |
opts = (opts | O_NONBLOCK); |
if(fcntl(sockfd, F_SETFL, opts) < 0) { |
perror("fcntl(F_SETFL)\n"); |
exit(1); |
} |
} |
int main(){ |
struct epoll_event ev, events[MAX_EVENTS]; |
int addrlen, listenfd, conn_sock, nfds, epfd, fd, i, nread, n; |
struct sockaddr_in local, remote; |
char buf[BUFSIZ]; |
//创建listen socket |
if( (listenfd = socket(AF_INET, SOCK_STREAM, 0)) < 0) { |
perror("sockfd\n"); |
exit(1); |
} |
setnonblocking(listenfd); |
bzero(&local, sizeof(local)); |
local.sin_family = AF_INET; |
local.sin_addr.s_addr = htonl(INADDR_ANY);; |
local.sin_port = htons(PORT); |
if( bind(listenfd, (struct sockaddr *) &local, sizeof(local)) < 0) { |
perror("bind\n"); |
exit(1); |
} |
listen(listenfd, 20); |
epfd = epoll_create(MAX_EVENTS); |
if (epfd == -1) { |
perror("epoll_create"); |
exit(EXIT_FAILURE); |
} |
ev.events = EPOLLIN; |
ev.data.fd = listenfd; |
if (epoll_ctl(epfd, EPOLL_CTL_ADD, listenfd, &ev) == -1) { |
perror("epoll_ctl: listen_sock"); |
exit(EXIT_FAILURE); |
} |
for (;;) { |
nfds = epoll_wait(epfd, events, MAX_EVENTS, -1); |
if (nfds == -1) { |
perror("epoll_pwait"); |
exit(EXIT_FAILURE); |
} |
for (i = 0; i < nfds; ++i) { |
fd = events[i].data.fd; |
if (fd == listenfd) { |
while ((conn_sock = accept(listenfd,(struct sockaddr *) &remote, |
(size_t *)&addrlen)) > 0) { |
setnonblocking(conn_sock); |
ev.events = EPOLLIN | EPOLLET; |
ev.data.fd = conn_sock; |
if (epoll_ctl(epfd, EPOLL_CTL_ADD, conn_sock, |
&ev) == -1) { |
perror("epoll_ctl: add"); |
exit(EXIT_FAILURE); |
} |
} |
if (conn_sock == -1) { |
if (errno != EAGAIN && errno != ECONNABORTED |
&& errno != EPROTO && errno != EINTR) |
perror("accept"); |
} |
continue; |
} |
if (events[i].events & EPOLLIN) { |
n = 0; |
while ((nread = read(fd, buf + n, BUFSIZ-1)) > 0) { |
n += nread; |
} |
if (nread == -1 && errno != EAGAIN) { |
perror("read error"); |
} |
ev.data.fd = fd; |
ev.events = events[i].events | EPOLLOUT; |
if (epoll_ctl(epfd, EPOLL_CTL_MOD, fd, &ev) == -1) { |
perror("epoll_ctl: mod"); |
} |
} |
if (events[i].events & EPOLLOUT) { |
sprintf(buf, "HTTP/1.1 200 OK\r\nContent-Length: %d\r\n\r\nHello World", 11); |
int nwrite, data_size = strlen(buf); |
n = data_size; |
while (n > 0) { |
nwrite = write(fd, buf + data_size - n, n); |
if (nwrite < n) { |
if (nwrite == -1 && errno != EAGAIN) { |
perror("write error"); |
} |
break; |
} |
n -= nwrite; |
} |
close(fd); |
} |
} |
} |
return 0; |
} |