11-06 网络IO模型

一. IO模型介绍

强调!!!: 以下研究的所有IO模型都是争对网络的IO.

1. Stevens在文章中一共比较了五种IO Model

* blocking IO           阻塞IO
* nonblocking IO        非阻塞IO
* IO multiplexing       IO多路复用
* signal driven IO      信号驱动IO
* asynchronous IO       异步IO
由signal driven IO(信号驱动IO)在实际中并不常用,所以主要介绍其余四种IO Model

2. IO发生时涉及的对象和步骤

# 涉及的对象: 进程,线程,内核
    1) 调用这个IO的进程或者线程
    2) 系统内核(kernel)
    
# 步骤: read操作发生时,该操作会经历两个阶段. 等待数据, 接收数据
    1) 等待数据准备 (Waiting for the data to be ready)
    2) 将数据从内核拷贝到进程中(Copying the data from the kernel to the process)
    
# 注意!!!: 记住这两点很重要,因为这些IO模型的区别就是在两个阶段上各有不同的情况。

3. 基于Socket网络IO的操作有哪些?

# 分4种情况: 输入操作, 输出操作, 接收连接, 发起连接
1) 输入操作:read、readv、recv、recvfrom、recvmsg共5个函数. 如果会阻塞状态,则会经历wait data和copy data两个阶段. 如果设置为非阻塞则在wait 不到data时抛出异常BlockingIOError
    补全: socket设置非阻塞, 默认阻塞
        import socket
        server = socket.socket()
        server.setblocking(False)
        
2) 输出操作:write、writev、send、sendto、sendmsg共5个函数. 在发送缓冲区满了会阻塞在原地,如果设置为非阻塞,则会抛出异常.

3) 接收外来链接:accept. 与输入操作类似, 外来连接没来之前处于wait data阶段, 外来连接之后处于copy data阶段.

4) 发起外出链接:connect. 与输出操作类似

二. 阻塞IO(blocking IO)

1. 图解

1) 当应用进程向操作系统发送recvfrom系统调用,内核就开始了IO的第一个阶段:准备数据。对于网络IO来说,很多时候数据在一开始还没有到达(比如: 还没有收到一个完整的UDP包),这个时候内核就会一直处于wait for data阶段等待足够的数据到来。

2) 而在应用进程这边,整个进程处于阻塞状态。当内核等到了网络数据的到来,内核就会处于copy data阶段将数据从内核中拷贝到用户内存,拷贝完毕内核返回结果return Ok,用户进程才解除block的状态,重新运行起来。 

# 特点 : blocking IO模型阻塞的两个阶段: 等待数据wait for data和拷贝数据copy data from kernel to user两个阶段

2. 大部分的socket都是阻塞型接口

所谓阻塞型接口(一般是IO接口)是指进行系统调用以后, 内核不返回调用结果. 让当前进程一直处于阻塞态,只有当内核获得结果或者超时出错时才返回结果, 进程才会继续运行或者抛出异常.

3. 如何解决网络编程带来的阻塞?

# 解决方法一: 在服务器端使用多线程或多进程。
    - 目的: 让每个连接都拥有独立的线程或进程处理,这样任何一个连接的阻塞都不会影响其他的连接。 
    - 缺点: 开启多进程或多线程的方式,在遇到要同时响应成百上千路的连接请求时, 将会申请巨大量的系统资源, 这种情况对硬件是一种灾难性的问题.
    
# 解决方法二: 使用线程池或进程池。
    - 目的: 使用线程池与进程池保证了硬件的安全, 并且避免了重复开启进程或者线程所需要消耗的系统资源.
    - 缺点: 线程池或进程池技术也只是在一定程度上缓解了频繁调用IO接口带来的资源占用。而且,所谓“池”始终有其上限,当请求大大超过上限时,“池”构成的系统对外界的响应并不比没有池的时候效果好多少。所以使用“池”必须考虑其面临的响应规模,并根据响应规模调整“池”的大小。
    
# 解决方法三: 非阻塞接口    

4. 阻塞IO模型实例

import socket

server = socket.socket()
server.bind(('127.0.0.1', 8080))
server.listen(5)  # 输入操作的IO: listen

while True:
    conn, addr = server.accept()  # 输入操作的IO: accept
    while True:
        try:
            data = conn.recv(1024)  # 输入操作的IO: recv
            if len(data) == 0: break
            print(data)
            conn.send(data.upper())  # 输出操作的IO: send
        except ConnectionResetError as e:
            break
    conn.close()

# 小节:
'''
输入操作的IO会处于wait data 和 copy date2个IO阶段.(IO明显)
输出操作的IO会处于copy data阶段.(IO在数据量大的时候明显)
'''

三. 非阻塞IO(non-blocking IO)

1. 图解

# 注意!!!: copy data阶段仍然是属于阻塞的状态.

1) 当用户进程发出recvfrom操作向操作系统发起系统调用,如果内核中的数据还没有准备好,那么它并不会阻塞用户进程,而是立刻返回一个error错误的结果。

2) 从用户进程角度看 ,当它发起一个recvfrom操作后,并不需要等待,而是马上就得到了一个结果。用户进程判断结果是一个error时,它就知道数据还没有准备好,于是用户就可以在本次或者下次再发起recvfrom询问的时间间隔内做其他事情,或者直接再次发送recvfrom操作。

3) 一旦内核中的数据准备好了,并且又再次收到了用户进程的recvfrom操作的系统调用请求,那么它马上就将数据拷贝到了用户内存(这一阶段仍然是阻塞的),然后返回。

# 补充: 循环往复的进行recvform系统调用, 这个过程通常被称之为轮询.

# 特点: 在非阻塞式IO中,用户进程会不断的主动recvfrom发送系统调用询问内核数据是否准备好.

2. 非阻塞IO的2个缺点

# 无意义占用CPU资: 非阻塞IO模型会长时间无意义占用CPU资源, 会大幅度提高CPU占用率. 

# 响应延迟: 任务完成的响应延迟增. 因为每过一段时间才去轮询一次read操作,而任务可能在两次轮询之间的任意时间完成。这会导致整体数据吞吐量的降低。

3. 引入IO多路复用

# IO multiplexing提供基于操作系统层次的检测:
此外,在这个方案中recv()更多的是起到检测“操作是否完成”的作用,实际操作系统提供了更为高效的检测“操作是否完成“作用的接口,例如select()多路复用模式,可以一次检测多个连接是否活跃.

4. 非阻塞IO模型实例

# 服务端
import time
from socket import *

server = socket()
server.setsockopt(SOL_SOCKET, SO_REUSEADDR, 1)  # 解决服务端重启, 操作系统没来的及回收端口占用的系统资源导致端口无法重用
server.bind(('127.0.0.10', 8080))
server.listen(5)

server.setblocking(False)  # 将所有的网络阻塞变为非阻塞: 指定False开启非阻塞. 默认True情况下socket处于阻塞
r_list = []
w_dic = {}
del_list = []


while True:
    try:
        conn, client_addr = server.accept()  # 输入IO操作accept在非阻塞情况下内核会反馈2种结果. 一种数据, 另一种错误BlockingIOError
        r_list.append(conn)
    except BlockingIOError:
        time.sleep(0.5)  # 注意: 防止无意义占用CPU造成损耗

        # 通信收: 遍历读列表,依次取出套接字读取内容
        for conn in r_list:
            try:
                data_bytes = conn.recv(1024)  # 输入IO操作recv
                if not data_bytes:
                    conn.close()
                    del_list.append(conn)
                    continue
                w_dic[conn] = data_bytes
            except BlockingIOError:
                pass
                # continue
            except ConnectionResetError as e:
                print(e)
                conn.close()
                del_list.append(conn)
                # continue

        # 通信发: 遍历写字典,依次取出套接字发送内容
        for conn, data_bytes in w_dic.items():
            try:
                conn.send(data_bytes.upper())  # 输出IO操作send
            except BlockingIOError:
                pass
                # continue

        # 删除通信结束的conn链接对象
        for conn in del_list:
            r_list.remove(conn)
        del_list.clear()

server.close()



# 客户端
import socket
import os

client = socket.socket()
client.connect(('127.0.0.10', 8080))

while 1:
    res = ('%s hello' % os.getpid()).encode('utf-8')
    client.send(res)
    data = client.recv(1024)

    print(data.decode('utf-8'))
client.close()

四. IO多路复用(IO multiplexing)

1. 图解

1) 当用户进程调用了select,那么整个进程会被阻塞,而同时,内核会“监视”所有select负责的socket,当任何一个socket中的数据准备好了,select就会返回相应的结果。

2) 这个时候用户进程再调用read操作,将数据从内核拷贝到用户进程。 

特点: select的特点在于可以处理多个连接,不适用于单个连接

2. 三种IO监管机制介绍

# 监管机制其实有很多
1. select机制: windows linux都有

2. poll机制: 只在linux有   poll和select都可以监管多个对象 但是poll监管的数量更多

上述select和poll机制其实都不是很完美 当监管的对象特别多的时候
可能会出现 极其大的延时响应

3. epoll机制: 只在linux有. 它给每一个监管对象都绑定一个回调机制, 一旦有响应 回调机制立刻发起提醒

# 如何解决IO监管机制挂平台性差的问题?
    使用selectors模块实现

3. select模型的优缺点

# 优点: 
    1) 提供同时能够为多客户端提供服务 
    2) 资源占用优势: select() 的事件驱动模型只用单线程执行,占用资源少, 不消耗太多 CPU
    3) 参考价值: 如果试图建立一个简单的事件驱动的服务器程序,这个模型有一定的参考价值。
    
# 缺点: 
    1) 消耗大量轮询时间: select()接口并不是实现“事件驱动”的最好选择。因为当需要探测的句柄值较大时,select()接口本身需要消耗大量时间去轮询各个句柄。
    2) 事件夹杂: 该模型将事件探测和事件响应夹杂在一起,一旦事件响应的执行体庞大,则对整个模型是灾难性的。

4. blocking IO与IO multiplexing比较

# 系统调用次数: IO多路复用二次, 阻塞IO一次
IO multiplexing需要使用两个系统调用(select和recvfrom),而blocking IO只调用了一个系统调用(recvfrom)。

# IO multiplexing优势: 用select的优势在于它可以同时处理多个connection。

# 强调!!!:  
1. IO多路复用争对多连接, 阻塞IO争对单连接: 如果处理的连接数不是很高的话,使用select/epoll的web server不一定比使用multi-threading + blocking IO的web server性能更好,可能延迟还更大。select/epoll的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。

2. IO多路复用被select阻塞, 阻塞IO被socket阻塞: 的在多路复用模型中,对于每一个socket,一般都设置成为non-blocking,但是,如上图所示,整个用户的process其实是一直被block的。只不过process是被select这个函数block,而不是被socket IO给block。

5. IO多路复用模型实例

服务端:

# 强调!!!: 当只有一个connection的时候selectIO监管机制并不适用, 效率还不及non-blocking IO. selectIO监管机制一般多用户多个connection. 因为IO multiplexing内部比non-blacking IO使用了2个系统调用, 而前者使用了一个.
import select
from socket import *

server = socket()
server.setsockopt(SOL_SOCKET, SO_REUSEADDR, 1)
server.bind(('127.0.0.1', 8080))
server.listen(5)

server.setblocking(False)
read_list = [server, ]
write_list = []
write_dic = {}

while True:
    '''
    # select.select()
    等待,直到一个或多个文件描述符为某种I/O做好准备。
    
    前三个参数是要等待的文件描述符序列:
        rlist——等待,直到可以阅读为止
        wlist——等待,直到写好为止
        xlist——等待“异常条件”
    如果只需要一种条件,则将[]传递给其他列表。文件描述符可以是套接字或文件对象,也可以是小整数从其中一个的fileno()方法调用获取。
    
    可选的第4个参数指定超时时间(以秒为单位);它可能是指定秒的分数的浮点数。如果它不存在或者没有,这个电话永远不会超时。
    
    返回值是与前三个列表对应的三个列表的元组参数;每个文件都包含相应文件描述符的子集都准备好了。
    
    ***重要通知***
    在Windows上,只支持套接字;在Unix上,所有文件可以使用描述符。
    '''
    # 注意!!!:
    '''
    1. r_list, x_list, w_list都是准备好参数. 没有准备好select这个函数级别的functionIO监管机制收到内核反馈的readable会一直处于阻塞的状态, 直到内核把数据中有数据时会发送return OK以后才会接着向下运行.
    2. read_list, write_list这些是没有准备好的参数.
    '''
    r_list, w_list, x_list = select.select(read_list, write_list, [], 0.5)
    for s in r_list:
        if s is server:
            conn, client_addr = server.accept()
            read_list.append(conn)
        else:
            try:
                data_bytes = s.recv(1024)
                if not data_bytes:
                    s.close()
                    read_list.remove(s)
                    continue
                write_list.append(s)
                write_dic[s] = data_bytes.upper()
            except ConnectionResetError as e:
                print(e)
                s.close()
                read_list.remove(s)

    for conn in w_list:
        conn.send(write_dic[conn])
        write_list.remove(conn)
        write_dic.pop(conn)

客户端:

from socket import *

client = socket(AF_INET, SOCK_STREAM)
client.connect(('127.0.0.1', 8080))

while True:
    msg = input('>>: ').strip()
    if not msg:
        continue
    client.send(msg.encode('utf-8'))
    data = client.recv(1024)
    print(data.decode('utf-8'))

client.close()

6. selectors模块

select,poll,epoll

IO复用:为了解释这个名词,首先来理解下复用这个概念,复用也就是共用的意思,这样理解还是有些抽象,为此,咱们来理解下复用在通信领域的使用,在通信领域中为了充分利用网络连接的物理介质,往往在同一条网络链路上采用时分复用或频分复用的技术使其在同一链路上传输多路信号,到这里我们就基本上理解了复用的含义,即公用某个“介质”来尽可能多的做同一类(性质)的事,那IO复用的“介质”是什么呢?为此我们首先来看看服务器编程的模型,客户端发来的请求服务端会产生一个进程来对其进行服务,每当来一个客户请求就产生一个进程来服务,然而进程不可能无限制的产生,因此为了解决大量客户端访问的问题,引入了IO复用技术,即:一个进程可以同时对多个客户请求进行服务。也就是说IO复用的“介质”是进程(准确的说复用的是select和poll,因为进程也是靠调用select和poll来实现的),复用一个进程(select和poll)来对多个IO进行服务,虽然客户端发来的IO是并发的但是IO所需的读写数据多数情况下是没有准备好的,因此就可以利用一个函数(select和poll)来监听IO所需的这些数据的状态,一旦IO有数据可以进行读写了,进程就来对这样的IO进行服务。



理解完IO复用后,我们在来看下实现IO复用中的三个API(select、poll和epoll)的区别和联系

select,poll,epoll都是IO多路复用的机制,I/O多路复用就是通过一种机制,可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知应用程序进行相应的读写操作。但select,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。三者的原型如下所示:

int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);

int poll(struct pollfd *fds, nfds_t nfds, int timeout);

int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);



 1.select的第一个参数nfds为fdset集合中最大描述符值加1,fdset是一个位数组,其大小限制为__FD_SETSIZE(1024),位数组的每一位代表其对应的描述符是否需要被检查。第二三四参数表示需要关注读、写、错误事件的文件描述符位数组,这些参数既是输入参数也是输出参数,可能会被内核修改用于标示哪些描述符上发生了关注的事件,所以每次调用select前都需要重新初始化fdset。timeout参数为超时时间,该结构会被内核修改,其值为超时剩余的时间。

 select的调用步骤如下:

(1)使用copy_from_user从用户空间拷贝fdset到内核空间

(2)注册回调函数__pollwait

(3)遍历所有fd,调用其对应的poll方法(对于socket,这个poll方法是sock_poll,sock_poll根据情况会调用到tcp_poll,udp_poll或者datagram_poll)

(4)以tcp_poll为例,其核心实现就是__pollwait,也就是上面注册的回调函数。

(5)__pollwait的主要工作就是把current(当前进程)挂到设备的等待队列中,不同的设备有不同的等待队列,对于tcp_poll 来说,其等待队列是sk->sk_sleep(注意把进程挂到等待队列中并不代表进程已经睡眠了)。在设备收到一条消息(网络设备)或填写完文件数 据(磁盘设备)后,会唤醒设备等待队列上睡眠的进程,这时current便被唤醒了。

(6)poll方法返回时会返回一个描述读写操作是否就绪的mask掩码,根据这个mask掩码给fd_set赋值。

(7)如果遍历完所有的fd,还没有返回一个可读写的mask掩码,则会调用schedule_timeout是调用select的进程(也就是 current)进入睡眠。当设备驱动发生自身资源可读写后,会唤醒其等待队列上睡眠的进程。如果超过一定的超时时间(schedule_timeout 指定),还是没人唤醒,则调用select的进程会重新被唤醒获得CPU,进而重新遍历fd,判断有没有就绪的fd。

(8)把fd_set从内核空间拷贝到用户空间。

总结下select的几大缺点:

(1)每次调用select,都需要把fd集合从用户态拷贝到内核态,这个开销在fd很多时会很大

(2)同时每次调用select都需要在内核遍历传递进来的所有fd,这个开销在fd很多时也很大

(3)select支持的文件描述符数量太小了,默认是1024



2.  poll与select不同,通过一个pollfd数组向内核传递需要关注的事件,故没有描述符个数的限制,pollfd中的events字段和revents分别用于标示关注的事件和发生的事件,故pollfd数组只需要被初始化一次。

 poll的实现机制与select类似,其对应内核中的sys_poll,只不过poll向内核传递pollfd数组,然后对pollfd中的每个描述符进行poll,相比处理fdset来说,poll效率更高。poll返回后,需要对pollfd中的每个元素检查其revents值,来得指事件是否发生。



3.直到Linux2.6才出现了由内核直接支持的实现方法,那就是epoll,被公认为Linux2.6下性能最好的多路I/O就绪通知方法。epoll可以同时支持水平触发和边缘触发(Edge Triggered,只告诉进程哪些文件描述符刚刚变为就绪状态,它只说一遍,如果我们没有采取行动,那么它将不会再次告知,这种方式称为边缘触发),理论上边缘触发的性能要更高一些,但是代码实现相当复杂。epoll同样只告知那些就绪的文件描述符,而且当我们调用epoll_wait()获得就绪文件描述符时,返回的不是实际的描述符,而是一个代表就绪描述符数量的值,你只需要去epoll指定的一个数组中依次取得相应数量的文件描述符即可,这里也使用了内存映射(mmap)技术,这样便彻底省掉了这些文件描述符在系统调用时复制的开销。另一个本质的改进在于epoll采用基于事件的就绪通知方式。在select/poll中,进程只有在调用一定的方法后,内核才对所有监视的文件描述符进行扫描,而epoll事先通过epoll_ctl()来注册一个文件描述符,一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,当进程调用epoll_wait()时便得到通知。



epoll既然是对select和poll的改进,就应该能避免上述的三个缺点。那epoll都是怎么解决的呢?在此之前,我们先看一下epoll 和select和poll的调用接口上的不同,select和poll都只提供了一个函数——select或者poll函数。而epoll提供了三个函 数,epoll_create,epoll_ctl和epoll_wait,epoll_create是创建一个epoll句柄;epoll_ctl是注 册要监听的事件类型;epoll_wait则是等待事件的产生。

  对于第一个缺点,epoll的解决方案在epoll_ctl函数中。每次注册新的事件到epoll句柄中时(在epoll_ctl中指定 EPOLL_CTL_ADD),会把所有的fd拷贝进内核,而不是在epoll_wait的时候重复拷贝。epoll保证了每个fd在整个过程中只会拷贝 一次。

  对于第二个缺点,epoll的解决方案不像select或poll一样每次都把current轮流加入fd对应的设备等待队列中,而只在 epoll_ctl时把current挂一遍(这一遍必不可少)并为每个fd指定一个回调函数,当设备就绪,唤醒等待队列上的等待者时,就会调用这个回调 函数,而这个回调函数会把就绪的fd加入一个就绪链表)。epoll_wait的工作实际上就是在这个就绪链表中查看有没有就绪的fd(利用 schedule_timeout()实现睡一会,判断一会的效果,和select实现中的第7步是类似的)。

  对于第三个缺点,epoll没有这个限制,它所支持的FD上限是最大可以打开文件的数目,这个数字一般远大于2048,举个例子, 在1GB内存的机器上大约是10万左右,具体数目可以cat /proc/sys/fs/file-max察看,一般来说这个数目和系统内存关系很大。

总结:

(1)select,poll实现需要自己不断轮询所有fd集合,直到设备就绪,期间可能要睡眠和唤醒多次交替。而epoll其实也需要调用 epoll_wait不断轮询就绪链表,期间也可能多次睡眠和唤醒交替,但是它是设备就绪时,调用回调函数,把就绪fd放入就绪链表中,并唤醒在 epoll_wait中进入睡眠的进程。虽然都要睡眠和交替,但是select和poll在“醒着”的时候要遍历整个fd集合,而epoll在“醒着”的 时候只要判断一下就绪链表是否为空就行了,这节省了大量的CPU时间,这就是回调机制带来的性能提升。

五. 异步IO(asynchronous IO)

1. 图解

1) 用户进程发起read操作之后,立刻就可以开始去做其它的事.
2) 而另一方面,从内核的角度,当它受到一个asynchronous read之后,首先它会立刻返回,所以不会对用户进程产生任何阻塞.
3) 然后,内核会等待数据准备完成,然后将数据拷贝到用户内存,当这一切都完成之后,内核会给用户进程发送一个信号signal,告诉它read操作完成了。

2. 异步IO模型实例

"""
异步IO模型是所有模型中效率最高的 也是使用最广泛的
相关的模块和框架
	模块:asyncio模块  #  async /əˈsɪŋk/  异步 异步串口 非同步
	异步框架:sanic tronado twisted
		速度快!!!
"""
import threading
import asyncio

# asyncio
'''
# coroutine  /,kəuru:'ti:n/  协程 协同程序 协同例程
单线程下实现并发的效果
'''

@asyncio.coroutine
def hello():
    print('hello world %s' % threading.current_thread())
    yield from asyncio.sleep(1)  # asyncio自己模拟IO操作(这里因该换成正真的IO操作)
    print('hello world %s' % threading.current_thread())


loop = asyncio.get_event_loop()  # 1. 拿到上面yield from asyncio.sleep(1)时间开始监管IO
tasks = [hello(), hello()]  # 2. 指定监测的任务数
loop.run_until_complete(asyncio.wait(tasks))  # 3. 运行事件循环,直到完成未来。返回未来的结果,或引发它的异常(大白话: 启动任务直到任务tasks全部完成)
loop.close()


# 线程号都是12204, 可以确定实现的是单线程下并发效果
'''
hello world <_MainThread(MainThread, started 12204)>
hello world <_MainThread(MainThread, started 12204)>
hello world <_MainThread(MainThread, started 12204)>
hello world <_MainThread(MainThread, started 12204)>
'''

六. IO模型比较分析

1. blocking IO与non-blocking IO对比

# 阻塞IO: 会一直阻塞, 等待对应的IO操作拿到内核反馈的结果. 这种结果是真实地数据.

# 非阻塞IO: 不会阻塞, 对应的IO操作一执行内核就会反馈结果. 这种结果可能是没有数据所反馈的Error, 也可能是有数据的情况下返回的数据内容.

2.IO multipleing与asynchronous IO

# IO多路复用: 操作导致请求进程被阻塞,直到I/O操作完成;

# 异步IO: 不会导致请求进程被阻塞;

3. IO分类: 同步IO & 异步IO

# 同步IO(synchronous IO): blocking IO, non-blocking IO, IO multiplexing.  

# 异步IO: asynchronous IO

# 注意!!!: 两者的区别就在于synchronous IO做”IO operation”的时候会将process阻塞

4. 同步IO中的非阻塞IO到底没有被阻塞?

# 详解: 
这里有个非常“狡猾”的地方,定义中所指的”IO operation”是指真实的IO操作,就是例子中的recvfrom这个system call。
non-blocking IO在执行recvfrom这个system call的时候,如果kernel的数据没有准备好,这时候不会block进程。
但是,当kernel中数据准备好的时候,recvfrom会将数据从kernel拷贝到用户内存中,这个时候进程是被block了,在这段时间内,进程是被block的。
而asynchronous IO则不一样,当进程发起IO 操作之后,就直接返回再也不理睬了,直到kernel发送一个信号,告诉进程说IO完成。在这整个过程中,进程完全没有被block。

# 结论: 同步IO中的非阻塞IO的阻塞阶段就是处于等待copy data阶段. 而异步IO在copy data阶段准备完成了以后拿结果.

5. 五种IO图示并列对比

# 强调!!!: 非阻塞IO与异步IO的copy data阶段的明显区别!!!
经过上面的介绍,会发现non-blocking IO和asynchronous IO的区别还是很明显的。在non-blocking IO中,虽然进程大部分时间都不会被block,但是它仍然要求进程去主动的check,并且当数据准备完成以后,也需要进程主动的再次调用recvfrom来将数据拷贝到用户内存。而asynchronous IO则完全不同。它就像是用户进程将整个IO操作交给了他人(kernel)完成,然后他人做完后发信号通知。在此期间,用户进程不需要去检查IO操作的状态,也不需要主动的去拷贝数据。
posted @ 2020-04-28 23:09  给你加马桶唱疏通  阅读(204)  评论(0编辑  收藏  举报