• 深入讲解Netty那些事儿之从内核角度看IO模型(下)


    接上文深入讲解Netty那些事儿之从内核角度看IO模型(上)

    epoll

    通过上边对select,poll核心原理的介绍,我们看到select,poll的性能瓶颈主要体现在下面三个地方:

    • 因为内核不会保存我们要监听的socket集合,所以在每次调用select,poll的时候都需要传入,传出全量的socket文件描述符集合。这导致了大量的文件描述符在用户空间和内核空间频繁的来回复制。
    • 由于内核不会通知具体IO就绪的socket,只是在这些IO就绪的socket上打好标记,所以当select系统调用返回时,在用户空间还是需要完整遍历一遍socket文件描述符集合来获取具体IO就绪的socket。
    • 在内核空间中也是通过遍历的方式来得到IO就绪的socket。

    下面我们来看下epoll是如何解决这些问题的。在介绍epoll的核心原理之前,我们需要介绍下理解epoll工作过程所需要的一些核心基础知识。

    Socket的创建

    服务端线程调用accept系统调用后开始阻塞,当有客户端连接上来并完成TCP三次握手后,内核会创建一个对应的Socket作为服务端与客户端通信的内核接口。

    在Linux内核的角度看来,一切皆是文件,Socket也不例外,当内核创建出Socket之后,会将这个Socket放到当前进程所打开的文件列表中管理起来。

    下面我们来看下进程管理这些打开的文件列表相关的内核数据结构是什么样的?在了解完这些数据结构后,我们会更加清晰的理解Socket在内核中所发挥的作用。并且对后面我们理解epoll的创建过程有很大的帮助。

    进程中管理文件列表结构

    进程中管理文件列表结构

    struct tast_struct是内核中用来表示进程的一个数据结构,它包含了进程的所有信息。本小节我们只列出和文件管理相关的属性。

    其中进程内打开的所有文件是通过一个数组fd_array来进行组织管理,数组的下标即为我们常提到的文件描述符,数组中存放的是对应的文件数据结构struct file。每打开一个文件,内核都会创建一个struct file与之对应,并在fd_array中找到一个空闲位置分配给它,数组中对应的下标,就是我们在用户空间用到的文件描述符。

    对于任何一个进程,默认情况下,文件描述符 0表示 stdin 标准输入,文件描述符 1表示stdout 标准输出,文件描述符2表示stderr 标准错误输出。

    进程中打开的文件列表fd_array定义在内核数据结构struct files_struct中,在struct fdtable结构中有一个指针struct fd **fd指向fd_array。

    由于本小节讨论的是内核网络系统部分的数据结构,所以这里拿Socket文件类型来举例说明:

    用于封装文件元信息的内核数据结构struct file中的private_data指针指向具体的Socket结构。

    struct file中的file_operations属性定义了文件的操作函数,不同的文件类型,对应的file_operations是不同的,针对Socket文件类型,这里的file_operations指向socket_file_ops。

    我们在用户空间对Socket发起的读写等系统调用,进入内核首先会调用的是Socket对应的struct file中指向的socket_file_ops。比如:对Socket发起write写操作,在内核中首先被调用的就是socket_file_ops中定义的sock_write_iter。Socket发起read读操作内核中对应的则是sock_read_iter。

    1. static const struct file_operations socket_file_ops = {
    2. .owner = THIS_MODULE,
    3. .llseek = no_llseek,
    4. .read_iter = sock_read_iter,
    5. .write_iter = sock_write_iter,
    6. .poll = sock_poll,
    7. .unlocked_ioctl = sock_ioctl,
    8. .mmap = sock_mmap,
    9. .release = sock_close,
    10. .fasync = sock_fasync,
    11. .sendpage = sock_sendpage,
    12. .splice_write = generic_splice_sendpage,
    13. .splice_read = sock_splice_read,
    14. };

       资料直通车:Linux内核源码技术学习路线+视频教程内核源码

    学习直通车:Linux内核源码内存调优文件系统进程管理设备驱动/网络协议栈

    Socket内核结构

    ​Socket内核结构

    在我们进行网络程序的编写时会首先创建一个Socket,然后基于这个Socket进行bind,listen,我们先将这个Socket称作为监听Socket。

    1. 当我们调用accept后,内核会基于监听Socket创建出来一个新的Socket专门用于与客户端之间的网络通信。并将监听Socket中的Socket操作函数集合(inet_stream_ops)ops赋值到新的Socket的ops属性中。
    1. const struct proto_ops inet_stream_ops = {
    2. .bind = inet_bind,
    3. .connect = inet_stream_connect,
    4. .accept = inet_accept,
    5. .poll = tcp_poll,
    6. .listen = inet_listen,
    7. .sendmsg = inet_sendmsg,
    8. .recvmsg = inet_recvmsg,
    9. ......
    10. }

    这里需要注意的是,监听的 socket和真正用来网络通信的 Socket,是两个 Socket,一个叫作监听 Socket,一个叫作已连接的Socket。

    1. 接着内核会为已连接的Socket创建struct file并初始化,并把Socket文件操作函数集合(socket_file_ops)赋值给struct file中的f_ops指针。然后将struct socket中的file指针指向这个新分配申请的struct file结构体。

    内核会维护两个队列:

    • 一个是已经完成TCP三次握手,连接状态处于established的连接队列。内核中为icsk_accept_queue。
    • 一个是还没有完成TCP三次握手,连接状态处于syn_rcvd的半连接队列。

    1. 然后调用socket->ops->accept,从Socket内核结构图中我们可以看到其实调用的是inet_accept,该函数会在icsk_accept_queue中查找是否有已经建立好的连接,如果有的话,直接从icsk_accept_queue中获取已经创建好的struct sock。并将这个struct sock对象赋值给struct socket中的sock指针。

    struct sock在struct socket中是一个非常核心的内核对象,正是在这里定义了我们在介绍网络包的接收发送流程中提到的接收队列,发送队列,等待队列,数据就绪回调函数指针,内核协议栈操作函数集合

    • 根据创建Socket时发起的系统调用sock_create中的protocol参数(对于TCP协议这里的参数值为SOCK_STREAM)查找到对于 tcp 定义的操作方法实现集合 inet_stream_ops 和tcp_prot。并把它们分别设置到socket->ops和sock->sk_prot上。

    这里可以回看下本小节开头的《Socket内核结构图》捋一下他们之间的关系。

    socket相关的操作接口定义在inet_stream_ops函数集合中,负责对上给用户提供接口。而socket与内核协议栈之间的操作接口定义在struct sock中的sk_prot指针上,这里指向tcp_prot协议操作函数集合。

    1. struct proto tcp_prot = {
    2. .name = "TCP",
    3. .owner = THIS_MODULE,
    4. .close = tcp_close,
    5. .connect = tcp_v4_connect,
    6. .disconnect = tcp_disconnect,
    7. .accept = inet_csk_accept,
    8. .keepalive = tcp_set_keepalive,
    9. .recvmsg = tcp_recvmsg,
    10. .sendmsg = tcp_sendmsg,
    11. .backlog_rcv = tcp_v4_do_rcv,
    12. ......
    13. }

    之前提到的对Socket发起的系统IO调用,在内核中首先会调用Socket的文件结构struct file中的file_operations文件操作集合,然后调用struct socket中的ops指向的inet_stream_opssocket操作函数,最终调用到struct sock中sk_prot指针指向的tcp_prot内核协议栈操作函数接口集合。

    ​系统IO调用结构

    • 将struct sock 对象中的sk_data_ready 函数指针设置为 sock_def_readable,在Socket数据就绪的时候内核会回调该函数。
    • struct sock中的等待队列中存放的是系统IO调用发生阻塞的进程fd,以及相应的回调函数。记住这个地方,后边介绍epoll的时候我们还会提到!
    1. 当struct file,struct socket,struct sock这些核心的内核对象创建好之后,最后就是把socket对象对应的struct file放到进程打开的文件列表fd_array中。随后系统调用accept返回socket的文件描述符fd给用户程序。

    阻塞IO中用户进程阻塞以及唤醒原理

    在前边小节我们介绍阻塞IO的时候提到,当用户进程发起系统IO调用时,这里我们拿read举例,用户进程会在内核态查看对应Socket接收缓冲区是否有数据到来。

    • Socket接收缓冲区有数据,则拷贝数据到用户空间,系统调用返回。
    • Socket接收缓冲区没有数据,则用户进程让出CPU进入阻塞状态,当数据到达接收缓冲区时,用户进程会被唤醒,从阻塞状态进入就绪状态,等待CPU调度。

    本小节我们就来看下用户进程是如何阻塞在Socket上,又是如何在Socket上被唤醒的。理解这个过程很重要,对我们理解epoll的事件通知过程很有帮助

    • 首先我们在用户进程中对Socket进行read系统调用时,用户进程会从用户态转为内核态。
    • 在进程的struct task_struct结构找到fd_array,并根据Socket的文件描述符fd找到对应的struct file,调用struct file中的文件操作函数结合file_operations,read系统调用对应的是sock_read_iter。
    • 在sock_read_iter函数中找到struct file指向的struct socket,并调用socket->ops->recvmsg,这里我们知道调用的是inet_stream_ops集合中定义的inet_recvmsg。
    • 在inet_recvmsg中会找到struct sock,并调用sock->skprot->recvmsg,这里调用的是tcp_prot集合中定义的tcp_recvmsg函数。

    整个调用过程可以参考上边的《系统IO调用结构图》

    熟悉了内核函数调用栈后,我们来看下系统IO调用在tcp_recvmsg内核函数中是如何将用户进程给阻塞掉的

    ​系统IO调用阻塞原理

    1. int tcp_recvmsg(struct kiocb *iocb, struct sock *sk, struct msghdr *msg,
    2. size_t len, int nonblock, int flags, int *addr_len)
    3. {
    4. .................省略非核心代码...............
    5. //访问sock对象中定义的接收队列
    6. skb_queue_walk(&sk->sk_receive_queue, skb) {
    7. .................省略非核心代码...............
    8. //没有收到足够数据,调用sk_wait_data 阻塞当前进程
    9. sk_wait_data(sk, &timeo);
    10. }
    11. int sk_wait_data(struct sock *sk, long *timeo)
    12. {
    13. //创建struct sock中等待队列上的元素wait_queue_t
    14. //将进程描述符和回调函数autoremove_wake_function关联到wait_queue_t中
    15. DEFINE_WAIT(wait);
    16. // 调用 sk_sleep 获取 sock 对象下的等待队列的头指针wait_queue_head_t
    17. // 调用prepare_to_wait将新创建的等待项wait_queue_t插入到等待队列中,并将进程状态设置为可打断 INTERRUPTIBLE
    18. prepare_to_wait(sk_sleep(sk), &wait, TASK_INTERRUPTIBLE);
    19. set_bit(SOCK_ASYNC_WAITDATA, &sk->sk_socket->flags);
    20. // 通过调用schedule_timeout让出CPU,然后进行睡眠,导致一次上下文切换
    21. rc = sk_wait_event(sk, timeo, !skb_queue_empty(&sk->sk_receive_queue));
    22. ...
    • 首先会在DEFINE_WAIT中创建struct sock中等待队列上的等待类型wait_queue_t。
    1. #define DEFINE_WAIT(name) DEFINE_WAIT_FUNC(name, autoremove_wake_function)
    2. #define DEFINE_WAIT_FUNC(name, function) \
    3. wait_queue_t name = { \
    4. .private = current, \
    5. .func = function, \
    6. .task_list = LIST_HEAD_INIT((name).task_list), \
    7. }

    等待类型wait_queue_t中的private用来关联阻塞在当前socket上的用户进程fd。func用来关联等待项上注册的回调函数。这里注册的是autoremove_wake_function。

    • 调用sk_sleep(sk)获取struct sock对象中的等待队列头指针wait_queue_head_t。
    • 调用prepare_to_wait将新创建的等待项wait_queue_t插入到等待队列中,并将进程设置为可打断 INTERRUPTIBL。
    • 调用sk_wait_event让出CPU,进程进入睡眠状态。

    用户进程的阻塞过程我们就介绍完了,关键是要理解记住struct sock中定义的等待队列上的等待类型wait_queue_t的结构。后面epoll的介绍中我们还会用到它。

    下面我们接着介绍当数据就绪后,用户进程是如何被唤醒的

    在本文开始介绍《网络包接收过程》这一小节中我们提到:

    • 当网络数据包到达网卡时,网卡通过DMA的方式将数据放到RingBuffer中。
    • 然后向CPU发起硬中断,在硬中断响应程序中创建sk_buffer,并将网络数据拷贝至sk_buffer中。
    • 随后发起软中断,内核线程ksoftirqd响应软中断,调用poll函数将sk_buffer送往内核协议栈做层层协议处理。
    • 在传输层tcp_rcv 函数中,去掉TCP头,根据四元组(源IP,源端口,目的IP,目的端口)查找对应的Socket。
    • 最后将sk_buffer放到Socket中的接收队列里。

    上边这些过程是内核接收网络数据的完整过程,下边我们来看下,当数据包接收完毕后,用户进程是如何被唤醒的。

    系统IO调用唤醒原理

    • 当软中断将sk_buffer放到Socket的接收队列上时,接着就会调用数据就绪函数回调指针sk_data_ready,前边我们提到,这个函数指针在初始化的时候指向了sock_def_readable函数。
    • 在sock_def_readable函数中会去获取socket->sock->sk_wq等待队列。在wake_up_common函数中从等待队列sk_wq中找出一个等待项wait_queue_t,回调注册在该等待项上的func回调函数(wait_queue_t->func),创建等待项wait_queue_t是我们提到,这里注册的回调函数是autoremove_wake_function。

    即使是有多个进程都阻塞在同一个 socket 上,也只唤醒 1 个进程。其作用是为了避免惊群。

    • 在autoremove_wake_function函数中,根据等待项wait_queue_t上的private关联的阻塞进程fd调用try_to_wake_up唤醒阻塞在该Socket上的进程。

    记住wait_queue_t中的func函数指针,在epoll中这里会注册epoll的回调函数。

    现在理解epoll所需要的基础知识我们就介绍完了,唠叨了这么多,下面终于正式进入本小节的主题epoll了。

    epoll_create创建epoll对象

    epoll_create是内核提供给我们创建epoll对象的一个系统调用,当我们在用户进程中调用epoll_create时,内核会为我们创建一个struct eventpoll对象,并且也有相应的struct file与之关联,同样需要把这个struct eventpoll对象所关联的struct file放入进程打开的文件列表fd_array中管理。

    熟悉了Socket的创建逻辑,epoll的创建逻辑也就不难理解了。

    struct eventpoll对象关联的struct file中的file_operations 指针指向的是eventpoll_fops操作函数集合。

    1. static const struct file_operations eventpoll_fops = {
    2. .release = ep_eventpoll_release;
    3. .poll = ep_eventpoll_poll,
    4. }

    ​eopll在进程中的整体结构

    1. struct eventpoll {
    2. //等待队列,阻塞在epoll上的进程会放在这里
    3. wait_queue_head_t wq;
    4. //就绪队列,IO就绪的socket连接会放在这里
    5. struct list_head rdllist;
    6. //红黑树用来管理所有监听的socket连接
    7. struct rb_root rbr;
    8. ......
    9. }
    • wait_queue_head_t wq:epoll中的等待队列,队列里存放的是阻塞在epoll上的用户进程。在IO就绪的时候epoll可以通过这个队列找到这些阻塞的进程并唤醒它们,从而执行IO调用读写Socket上的数据。

    这里注意与Socket中的等待队列区分!!!

    • struct list_head rdllist:epoll中的就绪队列,队列里存放的是都是IO就绪的Socket,被唤醒的用户进程可以直接读取这个队列获取IO活跃的Socket。无需再次遍历整个Socket集合。

    这里正是epoll比select ,poll高效之处,select ,poll返回的是全部的socket连接,我们需要在用户空间再次遍历找出真正IO活跃的Socket连接。而epoll只是返回IO活跃的Socket连接。用户进程可以直接进行IO操作。

    • struct rb_root rbr : 由于红黑树在查找,插入,删除等综合性能方面是最优的,所以epoll内部使用一颗红黑树来管理海量的Socket连接。

    select用数组管理连接,poll用链表管理连接。

    epoll_ctl向epoll对象中添加监听的Socket

    当我们调用epoll_create在内核中创建出epoll对象struct eventpoll后,我们就可以利用epoll_ctl向epoll中添加我们需要管理的Socket连接了。

    1. 首先要在epoll内核中创建一个表示Socket连接的数据结构struct epitem,而在epoll中为了综合性能的考虑,采用一颗红黑树来管理这些海量socket连接。所以struct epitem是一个红黑树节点。

    ​struct epitem

    1. struct epitem
    2. {
    3. //指向所属epoll对象
    4. struct eventpoll *ep;
    5. //注册的感兴趣的事件,也就是用户空间的epoll_event
    6. struct epoll_event event;
    7. //指向epoll对象中的就绪队列
    8. struct list_head rdllink;
    9. //指向epoll中对应的红黑树节点
    10. struct rb_node rbn;
    11. //指向epitem所表示的socket->file结构以及对应的fd
    12. struct epoll_filefd ffd;
    13. }

    这里重点记住struct epitem结构中的rdllink以及epoll_filefd成员,后面我们会用到。

    1. 在内核中创建完表示Socket连接的数据结构struct epitem后,我们就需要在Socket中的等待队列上创建等待项wait_queue_t并且注册epoll的回调函数ep_poll_callback。

    通过《阻塞IO中用户进程阻塞以及唤醒原理》小节的铺垫,我想大家已经猜到这一步的意义所在了吧!当时在等待项wait_queue_t中注册的是autoremove_wake_function回调函数。还记得吗?

    epoll的回调函数ep_poll_callback正是epoll同步IO事件通知机制的核心所在,也是区别于select,poll采用内核轮询方式的根本性能差异所在。

    ​epitem创建等待项

    这里又出现了一个新的数据结构struct eppoll_entry,那它的作用是干什么的呢?大家可以结合上图先猜测下它的作用!

    我们知道socket->sock->sk_wq等待队列中的类型是wait_queue_t,我们需要在struct epitem所表示的socket的等待队列上注册epoll回调函数ep_poll_callback。

    这样当数据到达socket中的接收队列时,内核会回调sk_data_ready,在阻塞IO中用户进程阻塞以及唤醒原理这一小节中,我们知道这个sk_data_ready函数指针会指向sk_def_readable函数,在sk_def_readable中会回调注册在等待队列里的等待项wait_queue_t -> func回调函数ep_poll_callback。在ep_poll_callback中需要找到epitem,将IO就绪的epitem放入epoll中的就绪队列中。

    而socket等待队列中类型是wait_queue_t无法关联到epitem。所以就出现了struct eppoll_entry结构体,它的作用就是关联Socket等待队列中的等待项wait_queue_t和epitem。

    1. struct eppoll_entry {
    2. //指向关联的epitem
    3. struct epitem *base;
    4. // 关联监听socket中等待队列中的等待项 (private = null func = ep_poll_callback)
    5. wait_queue_t wait;
    6. // 监听socket中等待队列头指针
    7. wait_queue_head_t *whead;
    8. .........
    9. };

    这样在ep_poll_callback回调函数中就可以根据Socket等待队列中的等待项wait,通过container_of宏找到eppoll_entry,继而找到epitem了。

    container_of在Linux内核中是一个常用的宏,用于从包含在某个结构中的指针获得结构本身的指针,通俗地讲就是通过结构体变量中某个成员的首地址进而获得整个结构体变量的首地址。

    这里需要注意下这次等待项wait_queue_t中的private设置的是null,因为这里Socket是交给epoll来管理的,阻塞在Socket上的进程是也由epoll来唤醒。在等待项wait_queue_t注册的func是ep_poll_callback而不是autoremove_wake_function,阻塞进程并不需要autoremove_wake_function来唤醒,所以这里设置private为null

    1. 当在Socket的等待队列中创建好等待项wait_queue_t并且注册了epoll的回调函数ep_poll_callback,然后又通过eppoll_entry关联了epitem后。剩下要做的就是将epitem插入到epoll中的红黑树struct rb_root rbr中。

    这里可以看到epoll另一个优化的地方,epoll将所有的socket连接通过内核中的红黑树来集中管理。每次添加或者删除socket连接都是增量添加删除,而不是像select,poll那样每次调用都是全量socket连接集合传入内核。避免了频繁大量的内存拷贝。

    epoll_wait同步阻塞获取IO就绪的Socket

    1. 用户程序调用epoll_wait后,内核首先会查找epoll中的就绪队列eventpoll->rdllist是否有IO就绪的epitem。epitem里封装了socket的信息。如果就绪队列中有就绪的epitem,就将就绪的socket信息封装到epoll_event返回。
    2. 如果eventpoll->rdllist就绪队列中没有IO就绪的epitem,则会创建等待项wait_queue_t,将用户进程的fd关联到wait_queue_t->private上,并在等待项wait_queue_t->func上注册回调函数default_wake_function。最后将等待项添加到epoll中的等待队列中。用户进程让出CPU,进入阻塞状态。

    ​epoll_wait同步获取数据

    这里和阻塞IO模型中的阻塞原理是一样的,只不过在阻塞IO模型中注册到等待项wait_queue_t->func上的是autoremove_wake_function,并将等待项添加到socket中的等待队列中。这里注册的是default_wake_function,将等待项添加到epoll中的等待队列上。

    ​数据到来epoll_wait流程

    1. 前边做了那么多的知识铺垫,下面终于到了epoll的整个工作流程了:

    ​epoll_wait处理过程

    • 当网络数据包在软中断中经过内核协议栈的处理到达socket的接收缓冲区时,紧接着会调用socket的数据就绪回调指针sk_data_ready,回调函数为sock_def_readable。在socket的等待队列中找出等待项,其中等待项中注册的回调函数为ep_poll_callback。
    • 在回调函数ep_poll_callback中,根据struct eppoll_entry中的struct wait_queue_t wait通过container_of宏找到eppoll_entry对象并通过它的base指针找到封装socket的数据结构struct epitem,并将它加入到epoll中的就绪队列rdllist中。
    • 随后查看epoll中的等待队列中是否有等待项,也就是说查看是否有进程阻塞在epoll_wait上等待IO就绪的socket。如果没有等待项,则软中断处理完成。
    • 如果有等待项,则回到注册在等待项中的回调函数default_wake_function,在回调函数中唤醒阻塞进程,并将就绪队列rdllist中的epitem的IO就绪socket信息封装到struct epoll_event中返回。
    • 用户进程拿到epoll_event获取IO就绪的socket,发起系统IO调用读取数据。

    再谈水平触发和边缘触发

    网上有大量的关于这两种模式的讲解,大部分讲的比较模糊,感觉只是强行从概念上进行描述,看完让人难以理解。所以在这里,笔者想结合上边epoll的工作过程,再次对这两种模式做下自己的解读,力求清晰的解释出这两种工作模式的异同。

    经过上边对epoll工作过程的详细解读,我们知道,当我们监听的socket上有数据到来时,软中断会执行epoll的回调函数ep_poll_callback,在回调函数中会将epoll中描述socket信息的数据结构epitem插入到epoll中的就绪队列rdllist中。随后用户进程从epoll的等待队列中被唤醒,epoll_wait将IO就绪的socket返回给用户进程,随即epoll_wait会清空rdllist。

    水平触发边缘触发最关键的区别就在于当socket中的接收缓冲区还有数据可读时。epoll_wait是否会清空rdllist。

    • 水平触发:在这种模式下,用户线程调用epoll_wait获取到IO就绪的socket后,对Socket进行系统IO调用读取数据,假设socket中的数据只读了一部分没有全部读完,这时再次调用epoll_wait,epoll_wait会检查这些Socket中的接收缓冲区是否还有数据可读,如果还有数据可读,就将socket重新放回rdllist。所以当socket上的IO没有被处理完时,再次调用epoll_wait依然可以获得这些socket,用户进程可以接着处理socket上的IO事件。
    • 边缘触发: 在这种模式下,epoll_wait就会直接清空rdllist,不管socket上是否还有数据可读。所以在边缘触发模式下,当你没有来得及处理socket接收缓冲区的剩下可读数据时,再次调用epoll_wait,因为这时rdlist已经被清空了,socket不会再次从epoll_wait中返回,所以用户进程就不会再次获得这个socket了,也就无法在对它进行IO处理了。除非,这个socket上有新的IO数据到达,根据epoll的工作过程,该socket会被再次放入rdllist中。

    如果你在边缘触发模式下,处理了部分socket上的数据,那么想要处理剩下部分的数据,就只能等到这个socket上再次有网络数据到达。

    Netty中实现的EpollSocketChannel默认的就是边缘触发模式。JDK的NIO默认是水平触发模式。

    epoll对select,poll的优化总结

    • epoll在内核中通过红黑树管理海量的连接,所以在调用epoll_wait获取IO就绪的socket时,不需要传入监听的socket文件描述符。从而避免了海量的文件描述符集合在用户空间和内核空间中来回复制。

    select,poll每次调用时都需要传递全量的文件描述符集合,导致大量频繁的拷贝操作。

    • epoll仅会通知IO就绪的socket。避免了在用户空间遍历的开销。

    select,poll只会在IO就绪的socket上打好标记,依然是全量返回,所以在用户空间还需要用户程序在一次遍历全量集合找出具体IO就绪的socket。

    • epoll通过在socket的等待队列上注册回调函数ep_poll_callback通知用户程序IO就绪的socket。避免了在内核中轮询的开销。

    大部分情况下socket上并不总是IO活跃的,在面对海量连接的情况下,select,poll采用内核轮询的方式获取IO活跃的socket,无疑是性能低下的核心原因。

    根据以上epoll的性能优势,它是目前为止各大主流网络框架,以及反向代理中间件使用到的网络IO模型。

    利用epoll多路复用IO模型可以轻松的解决C10K问题。

    C100k的解决方案也还是基于C10K的方案,通过epoll 配合线程池,再加上 CPU、内存和网络接口的性能和容量提升。大部分情况下,C100K很自然就可以达到。

    甚至C1000K的解决方法,本质上还是构建在 epoll 的多路复用 I/O 模型上。只不过,除了 I/O 模型之外,还需要从应用程序到 Linux 内核、再到 CPU、内存和网络等各个层次的深度优化,特别是需要借助硬件,来卸载那些原来通过软件处理的大量功能(去掉大量的中断响应开销,以及内核协议栈处理的开销)。

    信号驱动IO

    ​信号驱动IO

    大家对这个装备肯定不会陌生,当我们去一些美食城吃饭的时候,点完餐付了钱,老板会给我们一个信号器。然后我们带着这个信号器可以去找餐桌,或者干些其他的事情。当信号器亮了的时候,这时代表饭餐已经做好,我们可以去窗口取餐了。

    这个典型的生活场景和我们要介绍的信号驱动IO模型就很像。

    在信号驱动IO模型下,用户进程操作通过系统调用 sigaction 函数发起一个 IO 请求,在对应的socket注册一个信号回调,此时不阻塞用户进程,进程会继续工作。当内核数据就绪时,内核就为该进程生成一个 SIGIO 信号,通过信号回调通知进程进行相关 IO 操作。

    这里需要注意的是:信号驱动式 IO 模型依然是同步IO,因为它虽然可以在等待数据的时候不被阻塞,也不会频繁的轮询,但是当数据就绪,内核信号通知后,用户进程依然要自己去读取数据,在数据拷贝阶段发生阻塞。

    信号驱动 IO模型 相比于前三种 IO 模型,实现了在等待数据就绪时,进程不被阻塞,主循环可以继续工作,所以理论上性能更佳。

    但是实际上,使用TCP协议通信时,信号驱动IO模型几乎不会被采用。原因如下:

    • 信号IO 在大量 IO 操作时可能会因为信号队列溢出导致没法通知
    • SIGIO 信号是一种 Unix 信号,信号没有附加信息,如果一个信号源有多种产生信号的原因,信号接收者就无法确定究竟发生了什么。而 TCP socket 生产的信号事件有七种之多,这样应用程序收到 SIGIO,根本无从区分处理。

    但信号驱动IO模型可以用在 UDP通信上,因为UDP 只有一个数据请求事件,这也就意味着在正常情况下 UDP 进程只要捕获 SIGIO 信号,就调用 read 系统调用读取到达的数据。如果出现异常,就返回一个异常错误。


    这里插句题外话,大家觉不觉得阻塞IO模型在生活中的例子就像是我们在食堂排队打饭。你自己需要排队去打饭同时打饭师傅在配菜的过程中你需要等待。

    ​阻塞IO

    IO多路复用模型就像是我们在饭店门口排队等待叫号。叫号器就好比select,poll,epoll可以统一管理全部顾客的吃饭就绪事件,客户好比是socket连接,谁可以去吃饭了,叫号器就通知谁。

    IO多路复用

    ##异步IO(AIO)

    以上介绍的四种IO模型均为同步IO,它们都会阻塞在第二阶段数据拷贝阶段。

    通过在前边小节《同步与异步》中的介绍,相信大家很容易就会理解异步IO模型,在异步IO模型下,IO操作在数据准备阶段和数据拷贝阶段均是由内核来完成,不会对应用程序造成任何阻塞。应用进程只需要在指定的数组中引用数据即可。

    异步 IO 与信号驱动 IO 的主要区别在于:信号驱动 IO 由内核通知何时可以开始一个 IO 操作,而异步 IO由内核通知 IO 操作何时已经完成。

    举个生活中的例子:异步IO模型就像我们去一个高档饭店里的包间吃饭,我们只需要坐在包间里面,点完餐(类比异步IO调用)之后,我们就什么也不需要管,该喝酒喝酒,该聊天聊天,饭餐做好后服务员(类比内核)会自己给我们送到包间(类比用户空间)来。整个过程没有任何阻塞。

    异步IO

    异步IO的系统调用需要操作系统内核来支持,目前只有Window中的IOCP实现了非常成熟的异步IO机制。

    而Linux系统对异步IO机制实现的不够成熟,且与NIO的性能相比提升也不明显。

    但Linux kernel 在5.1版本由Facebook的大神Jens Axboe引入了新的异步IO库io_uring 改善了原来Linux native AIO的一些性能问题。性能相比Epoll以及之前原生的AIO提高了不少,值得关注。

    再加上信号驱动IO模型不适用TCP协议,所以目前大部分采用的还是IO多路复用模型。

    IO线程模型

    在前边内容的介绍中,我们详述了网络数据包的接收和发送过程,并通过介绍5种IO模型了解了内核是如何读取网络数据并通知给用户线程的。

    前边的内容都是以内核空间的视角来剖析网络数据的收发模型,本小节我们站在用户空间的视角来看下如果对网络数据进行收发。

    相对内核来讲,用户空间的IO线程模型相对就简单一些。这些用户空间的IO线程模型都是在讨论当多线程一起配合工作时谁负责接收连接,谁负责响应IO 读写、谁负责计算、谁负责发送和接收,仅仅是用户IO线程的不同分工模式罢了。

    Reactor

    Reactor是利用NIO对IO线程进行不同的分工:

    • 使用前边我们提到的IO多路复用模型比如select,poll,epoll,kqueue,进行IO事件的注册和监听。
    • 将监听到就绪的IO事件分发dispatch到各个具体的处理Handler中进行相应的IO事件处理。

    通过IO多路复用技术就可以不断的监听IO事件,不断的分发dispatch,就像一个反应堆一样,看起来像不断的产生IO事件,因此我们称这种模式为Reactor模型。

    下面我们来看下Reactor模型的三种分类:

    单Reactor单线程

    ​单Reactor单线程

    Reactor模型是依赖IO多路复用技术实现监听IO事件,从而源源不断的产生IO就绪事件,在Linux系统下我们使用epoll来进行IO多路复用,我们以Linux系统为例:

    • 单Reactor意味着只有一个epoll对象,用来监听所有的事件,比如连接事件,读写事件。
    • 单线程意味着只有一个线程来执行epoll_wait获取IO就绪的Socket,然后对这些就绪的Socket执行读写,以及后边的业务处理也依然是这个线程。

    单Reactor单线程模型就好比我们开了一个很小很小的小饭馆,作为老板的我们需要一个人干所有的事情,包括:迎接顾客(accept事件),为顾客介绍菜单等待顾客点菜(IO请求),做菜(业务处理),上菜(IO响应),送客(断开连接)。

    单Reactor多线程

    随着客人的增多(并发请求),显然饭馆里的事情只有我们一个人干(单线程)肯定是忙不过来的,这时候我们就需要多招聘一些员工(多线程)来帮着一起干上述的事情。

    于是就有了单Reactor多线程模型:

    ​单Reactor多线程

    • 这种模式下,也是只有一个epoll对象来监听所有的IO事件,一个线程来调用epoll_wait获取IO就绪的Socket。
    • 但是当IO就绪事件产生时,这些IO事件对应处理的业务Handler,我们是通过线程池来执行。这样相比单Reactor单线程模型提高了执行效率,充分发挥了多核CPU的优势。

    主从Reactor多线程

    做任何事情都要区分事情的优先级,我们应该优先高效的去做优先级更高的事情,而不是一股脑不分优先级的全部去做。

    当我们的小饭馆客人越来越多(并发量越来越大),我们就需要扩大饭店的规模,在这个过程中我们发现,迎接客人是饭店最重要的工作,我们要先把客人迎接进来,不能让客人一看人多就走掉,只要客人进来了,哪怕菜做的慢一点也没关系。

    于是,主从Reactor多线程模型就产生了:

    ​主从Reactor多线程

    • 我们由原来的单Reactor变为了多Reactor。主Reactor用来优先专门做优先级最高的事情,也就是迎接客人(处理连接事件),对应的处理Handler就是图中的acceptor。
    • 当创建好连接,建立好对应的socket后,在acceptor中将要监听的read事件注册到从Reactor中,由从Reactor来监听socket上的读写事件。
    • 最终将读写的业务逻辑处理交给线程池处理。

    注意:这里向从Reactor注册的只是read事件,并没有注册write事件,因为read事件是由epoll内核触发的,而write事件则是由用户业务线程触发的(什么时候发送数据是由具体业务线程决定的),所以write事件理应是由用户业务线程去注册。

    用户线程注册write事件的时机是只有当用户发送的数据无法一次性全部写入buffer时,才会去注册write事件,等待buffer重新可写时,继续写入剩下的发送数据、如果用户线程可以一股脑的将发送数据全部写入buffer,那么也就无需注册write事件到从Reactor中。

    主从Reactor多线程模型是现在大部分主流网络框架中采用的一种IO线程模型。我们本系列的主题Netty就是用的这种模型。

    Proactor

    Proactor是基于AIO对IO线程进行分工的一种模型。前边我们介绍了异步IO模型,它是操作系统内核支持的一种全异步编程模型,在数据准备阶段和数据拷贝阶段全程无阻塞。

    ProactorIO线程模型将IO事件的监听,IO操作的执行,IO结果的dispatch统统交给内核来做。

    ​proactor

    Proactor模型组件介绍:

    • completion handler 为用户程序定义的异步IO操作回调函数,在异步IO操作完成时会被内核回调并通知IO结果。
    • Completion Event Queue 异步IO操作完成后,会产生对应的IO完成事件,将IO完成事件放入该队列中。
    • Asynchronous Operation Processor 负责异步IO的执行。执行完成后产生IO完成事件放入Completion Event Queue 队列中。
    • Proactor 是一个事件循环派发器,负责从Completion Event Queue中获取IO完成事件,并回调与IO完成事件关联的completion handler。
    • Initiator 初始化异步操作(asynchronous operation)并通过Asynchronous Operation Processor将completion handler和proactor注册到内核。

    Proactor模型执行过程:

    • 用户线程发起aio_read,并告诉内核用户空间中的读缓冲区地址,以便内核完成IO操作将结果放入用户空间的读缓冲区,用户线程直接可以读取结果(无任何阻塞)。
    • Initiator 初始化aio_read异步读取操作(asynchronous operation),并将completion handler注册到内核。

    在Proactor中我们关心的IO完成事件:内核已经帮我们读好数据并放入我们指定的读缓冲区,用户线程可以直接读取。在Reactor中我们关心的是IO就绪事件:数据已经到来,但是需要用户线程自己去读取。

    • 此时用户线程就可以做其他事情了,无需等待IO结果。而内核与此同时开始异步执行IO操作。当IO操作完成时会产生一个completion event事件,将这个IO完成事件放入completion event queue中。
    • Proactor从completion event queue中取出completion event,并回调与IO完成事件关联的completion handler。
    • 在completion handler中完成业务逻辑处理。

    Reactor与Proactor对比

    • Reactor是基于NIO实现的一种IO线程模型,Proactor是基于AIO实现的IO线程模型。
    • Reactor关心的是IO就绪事件,Proactor关心的是IO完成事件。
    • 在Proactor中,用户程序需要向内核传递用户空间的读缓冲区地址。Reactor则不需要。这也就导致了在Proactor中每个并发操作都要求有独立的缓存区,在内存上有一定的开销。
    • Proactor 的实现逻辑复杂,编码成本较 Reactor要高很多。
    • Proactor 在处理高耗时 IO时的性能要高于 Reactor,但对于低耗时 IO的执行效率提升并不明显。

    Netty的IO模型

    在我们介绍完网络数据包在内核中的收发过程以及五种IO模型和两种IO线程模型后,现在我们来看下netty中的IO模型是什么样的。

    在我们介绍Reactor IO线程模型的时候提到有三种Reactor模型:单Reactor单线程,单Reactor多线程,主从Reactor多线程。

    这三种Reactor模型在netty中都是支持的,但是我们常用的是主从Reactor多线程模型。

    而我们之前介绍的三种Reactor只是一种模型,是一种设计思想。实际上各种网络框架在实现中并不是严格按照模型来实现的,会有一些小的不同,但大体设计思想上是一样的。

    下面我们来看下netty中的主从Reactor多线程模型是什么样子的?

    ​netty中的reactor

    • Reactor在netty中是以group的形式出现的,netty中将Reactor分为两组,一组是MainReactorGroup也就是我们在编码中常常看到的EventLoopGroup bossGroup,另一组是SubReactorGroup也就是我们在编码中常常看到的EventLoopGroup workerGroup。
    • MainReactorGroup中通常只有一个Reactor,专门负责做最重要的事情,也就是监听连接accept事件。当有连接事件产生时,在对应的处理handler acceptor中创建初始化相应的NioSocketChannel(代表一个Socket连接)。然后以负载均衡的方式在SubReactorGroup中选取一个Reactor,注册上去,监听Read事件。

    MainReactorGroup中只有一个Reactor的原因是,通常我们服务端程序只会绑定监听一个端口,如果要绑定监听多个端口,就会配置多个Reactor。

    • SubReactorGroup中有多个Reactor,具体Reactor的个数可以由系统参数 -D io.netty.eventLoopThreads指定。默认的Reactor的个数为CPU核数 * 2。SubReactorGroup中的Reactor主要负责监听读写事件,每一个Reactor负责监听一组socket连接。将全量的连接分摊在多个Reactor中。
    • 一个Reactor分配一个IO线程,这个IO线程负责从Reactor中获取IO就绪事件,执行IO调用获取IO数据,执行PipeLine。

    Socket连接在创建后就被固定的分配给一个Reactor,所以一个Socket连接也只会被一个固定的IO线程执行,每个Socket连接分配一个独立的PipeLine实例,用来编排这个Socket连接上的IO处理逻辑。这种无锁串行化的设计的目的是为了防止多线程并发执行同一个socket连接上的IO逻辑处理,防止出现线程安全问题。同时使系统吞吐量达到最大化

    由于每个Reactor中只有一个IO线程,这个IO线程既要执行IO活跃Socket连接对应的PipeLine中的ChannelHandler,又要从Reactor中获取IO就绪事件,执行IO调用。所以PipeLine中ChannelHandler中执行的逻辑不能耗时太长,尽量将耗时的业务逻辑处理放入单独的业务线程池中处理,否则会影响其他连接的IO读写,从而近一步影响整个服务程序的IO吞吐。

    • 当IO请求在业务线程中完成相应的业务逻辑处理后,在业务线程中利用持有的ChannelHandlerContext引用将响应数据在PipeLine中反向传播,最终写回给客户端。

    netty中的IO模型我们介绍完了,下面我们来简单介绍下在netty中是如何支持前边提到的三种Reactor模型的。

    配置单Reactor单线程

    1. EventLoopGroup eventGroup = new NioEventLoopGroup(1);
    2. ServerBootstrap serverBootstrap = new ServerBootstrap();
    3. serverBootstrap.group(eventGroup);

    配置多Reactor线程

    1. EventLoopGroup eventGroup = new NioEventLoopGroup();
    2. ServerBootstrap serverBootstrap = new ServerBootstrap();
    3. serverBootstrap.group(eventGroup);

    配置主从Reactor多线程

    1. EventLoopGroup bossGroup = new NioEventLoopGroup(1);
    2. EventLoopGroup workerGroup = new NioEventLoopGroup();
    3. ServerBootstrap serverBootstrap = new ServerBootstrap();
    4. serverBootstrap.group(bossGroup, workerGroup);

    总结

    本文是一篇信息量比较大的文章,用了25张图,22336个字从内核如何处理网络数据包的收发过程开始展开,随后又在内核角度介绍了经常容易混淆的阻塞与非阻塞,同步与异步的概念。以这个作为铺垫,我们通过一个C10K的问题,引出了五种IO模型,随后在IO多路复用中以技术演进的形式介绍了select,poll,epoll的原理和它们综合的对比。最后我们介绍了两种IO线程模型以及netty中的Reactor模型。

     

     

  • 相关阅读:
    iic驱动oled屏幕显示温湿度基于FreeRTOS实现多任务
    OSG第三方库编译之三十六:Protobuf编译(Windows、Linux、Macos环境下编译)
    LIN休眠唤醒及测试心得
    学习爬虫,这个是你必须要知道的,get和post请求的区别
    perating Systems and Networks cs159342
    SonarQube系列-认证&授权的配置
    787. K 站中转内最便宜的航班 | 514.自由之路
    LeetCode8-字符串转换整数(atoi)
    go-fastdfs安装(国产分布式文件系统)
    《痞子衡嵌入式半月刊》 第 31 期
  • 原文地址:https://blog.csdn.net/youzhangjing_/article/details/128138047