• 高级IO—多路转接


                                            🎬慕斯主页 修仙—别有洞天

                                           ♈️今日夜电波:Cupid - Twin Ver. (FIFTY FIFTY) - Sped Up Version

                                                               0:20━━━━━━️💟──────── 2:25
                                                                    🔄   ◀️   ⏸   ▶️    ☰  

                                     💗关注👍点赞🙌收藏您的每一次鼓励都是对我莫大的支持😍


    目录

    什么是高级I/O?

    理解五种高级I/O的模型

    高级I/O之多路转接

    多路转接之select

    接口详解

    fd_set

    select使用实例

    select的特点与缺点

    特点:

    缺点:

    多路转接之poll

    接口详解

    poll的使用实例

    poll的优点和缺点

    优点:

    缺点:

    多路转接之epoll

    主要函数

    epoll_event结构

    epoll的原理

    使用流程

    epoll工作方式

    epoll的使用实例

    epoll的优势


    什么是高级I/O?

            在Linux中,高级I/O(Advanced I/O)指的是一组函数,这些函数提供了比标准I/O更高级别的输入输出操作。高级I/O具有更好的性能和更多的灵活性。在处理大量数据时,高级I/O由于以异步和非阻塞方式进行I/O操作,因此明显优于标准I/O。

            在Linux中,高级I/O涵盖了多种I/O模型,包括:

    1. 阻塞I/O:当内核将数据准备好之前,系统调用会一直等待。所有的套接字默认都是阻塞方式。
    2. 非阻塞I/O:如果内核还未将数据准备好,系统调用仍然会直接返回,并且返回错误码。非阻塞I/O往往需要程序员利用循环的方式反复尝试读写文件描述符,这个过程称为轮询。
    3. 信号驱动I/O:当内核将数据准备好的时候,使用信号通知应用程序进行I/O操作。
    4. I/O多路转接:这是一种同时等待多个文件描述符就绪状态的机制。通过多路转接,系统可以监控多个I/O操作,并在任何一个操作准备好时通知应用程序。
    5. 异步I/O:在数据拷贝给用户空间完成时,由内核通知应用程序处理。与信号驱动I/O不同,异步I/O是在数据拷贝完成后通知应用程序,而信号驱动I/O是通知应用程序何时可以开始拷贝数据。

            在Linux中,可以通过系统调用和相关的库函数来使用这些高级I/O功能。例如,对于异步I/O,Linux提供了如aio_read和aio_write等函数来执行异步的读写操作。

            总的来说,Linux中的高级I/O为开发者提供了丰富的工具和技术,可以根据具体的应用场景和需求选择最适合的I/O模型,以提高系统的性能和响应能力。

    理解五种高级I/O的模型

            当我们需要再应用层读取或者写数据的时候通常会调用read或者write等等系统调用的I/O接口,他们的本质就是将数据从用户层写到OS或者从OS写到用户层。说到底他们本质就是拷贝函数,而I/O=等待+拷贝。等待指的是要进行拷贝,必须得先判断条件成立。而前面提到的高级I/O呢?实际上就是单位时间内,在I/O的过程中等待的比重越小,I/O的效率越高,而几乎所有提高I/O效率的策略,本质就是这个!!!接下来我们理解五种高级I/O模型:

            阻塞IO: 阻塞IO是最常见的IO模型. 在内核将数据准备好之前, 系统调用会一直等待. 所有的套接字, 默认都是阻塞方式.

            非阻塞IO:非阻塞IO往往需要程序员循环的方式反复尝试读写文件描述符, 这个过程称为轮询. 这对CPU来说是较大的浪费, 一般只有特定场景下才使用. 如果内核还未将数据准备好, 系统调用仍然会直接返回, 并且返回EWOULDBLOCK错误码.

            信号驱动IO: 内核将数据准备好的时候, 使用SIGIO信号通知应用程序进行IO操作

            IO多路转接: 虽然从流程图上看起来和阻塞IO类似. 实际上最核心在于IO多路转接能够同时等待多个文件描述符的就绪状态.


            异步IO: 由内核在数据拷贝完成时, 通知应用程序(而信号驱动是告诉应用程序何时可以开始拷贝数据).


    高级I/O之多路转接

            在Linux中,多路转接IO通常指的是利用一种机制同时监视多个IO事件的能力,以便在任意一个IO事件准备就绪时立即执行相应的IO操作。这种机制可以提高IO操作的效率,特别是在需要同时处理多个IO事件时。在Linux中,实现多路转接IO的主要方式有三种:

    1. selectselect是最古老的一种多路转接IO机制,在POSIX标准中定义。它允许程序监视一组文件描述符(包括套接字、管道等),并在其中任何一个文件描述符准备就绪时通知程序。但select存在一些性能限制,特别是当需要监视大量文件描述符时,性能会下降。
    2. pollpollselect的一种改进,也用于监视一组文件描述符的状态。与select不同的是,poll使用一个pollfd结构体数组来传递文件描述符信息,避免了select中使用大量的位图。因此,poll通常比select具有更好的性能。
    3. epollepoll是Linux特有的一种高级IO机制,引入了事件驱动的模型。它使用一个单独的文件描述符来管理需要监视的IO事件集合,通过epoll_ctl函数来注册事件,然后通过epoll_wait函数等待事件的发生。epoll相比于selectpoll具有更好的性能和扩展性,尤其在需要处理大量并发连接的服务器应用中表现突出。

    多路转接之select

            多路转接中的select是Linux系统提供的一个用于监视多个文件描述符状态的机制。通过select系统调用,程序可以同时监视多个文件描述符(如套接字、管道等)的读、写和异常事件,并在这些事件发生时得到通知。下面将对select的接口进行详细的解释。

    接口详解

    select函数原型

    1. #include <sys/select.h>
    2. int select(int nfds, fd_set *readfds, fd_set *writefds,fd_set *exceptfds, struct timeval *timeout);

    参数说明

    • nfds:这是被监视的文件描述符的总数,通常设置为最大文件描述符加1。这是因为文件描述符是从0开始计数的,所以nfds应该比所有文件描述符集合中的最大值大1。
    fd_set

            fd_set的定义如下:

        fd_set是一个用于管理文件描述符(file descriptor)的数据结构,在POSIX标准中定义。它通常用于在多路复用(如selectpoll等函数)中对文件描述符进行操作。fd_set的主要目的是允许程序同时监视多个文件描述符的状态,如可读、可写或异常状态。

      fd_set的通常的结构如下:

    1. typedef struct fd_set {
    2. unsigned long fds_bits[FD_SETSIZE/(8*sizeof(unsigned long))];
    3. } fd_set;

            其中,fds_bits是一个位数组,用于表示一系列文件描述符的状态。每个位代表一个文件描述符,如果该位被置为1,则表示相应的文件描述符处于可读、可写或异常等状态,否则表示不处于该状态。实际上就是一个位图结构,从而表示多个文件描述符。

            在fd_set中,文件描述符的状态是通过一系列的宏来设置的。这些宏包括:

    • void FD_ZERO(fd_set *set): 将指定的fd_set变量清零,初始化为空集。这是在对文件描述符集合进行设置前必须进行的操作,因为系统分配内存空间后通常并不作清空处理。
    • void FD_SET(int fd, fd_set *set): 将给定的文件描述符fd添加到指定的fd_set变量中。
    • void FD_CLR(int fd, fd_set *set): 从指定的fd_set变量中移除给定的文件描述符fd
    • int FD_ISSET(int fd, fd_set *set): 检查给定的文件描述符fd是否在指定的fd_set变量中,并检测其状态是否变化。当检测到fd状态发生变化时返回真(非零值),否则返回假(零)。

        FD_SETSIZE是系统指定的最大文件描述符数量,默认值为1024。这意味着一个fd_set通常能够表示的文件描述符数量受其限制。但请注意,这个值可以通过修改FD_SETSIZE宏来调整fd_set结构所能管理的最大文件描述符数量。

            在实际应用中,使用fd_set通常涉及以下步骤:

    1. 使用FD_ZERO初始化一个fd_set变量。
    2. 使用FD_SET将需要监视的文件描述符添加到fd_set中。
    3. 调用如select之类的函数来等待文件描述符的状态变化。
    4. 使用FD_ISSET来检查哪些文件描述符的状态已经变化,并据此进行相应的处理。

            select中与fd_set紧密相关的参数:

    • readfds:指向一个文件描述符集合的指针,这个集合中的文件描述符都是程序想要监视其读事件的。
    • writefds:指向一个文件描述符集合的指针,这个集合中的文件描述符都是程序想要监视其写事件的。
    • exceptfds:指向一个文件描述符集合的指针,这个集合中的文件描述符都是程序想要监视其异常事件的。
    • timeout:这是一个指向timeval结构的指针,用于指定select的等待时间。如果timeout为NULL,则select将无限期地等待直到有文件描述符就绪。timeval结构定义了两个字段:tv_sec(秒)和tv_usec(微秒),用于指定等待的时间长度。需要注意的是:他是一个输入输出型参数,结构体组成如下:
    1. struct timeval {
    2. time_t tv_sec; // 秒
    3. suseconds_t tv_usec; // 微秒
    4. };
    • tv_sec:表示从Epoch(1970年1月1日 00:00:00 UTC)到当前时间的秒数。
    • tv_usec:表示当前秒数内的微秒数,即秒后面的零头。

            当timeout参数为NULL时,select调用将无限期地等待,直到至少有一个文件描述符在指定的集合中变为就绪状态。这意味着,如果没有任何文件描述符在调用期间变为就绪,select将一直阻塞,直到被信号中断或发生其他异常。

            当struct timeval中的变量都设置为0,则表示select为非阻塞等待,任何的描述符只要有一个不就绪select就会出错返回。

            如果timeout参数不为NULL,则它指定了select调用的最大等待时间。当这个时间过去后,无论是否有文件描述符变为就绪,select都会返回。如果在这个时间段内,有文件描述符变为就绪,select将返回这些文件描述符的数量。如果在定时的期间有一个文件描述符就绪了,那么就会让timeval中变量变为剩余的时间。例如:设置tv_sec为5,tv_usec为0,而3秒后有一个文件描述符就绪了,那么timeval中的tv_sec会变为2,tv_usec不变。而如果在超时时间内没有文件描述符就绪,select将返回0,表示超时。需要注意的是,每次调用select时,你都需要重新设置timeout参数,因为select不会保留上次调用时的超时设置。也就是说,每次调用select时,你都需要创建一个新的timeval结构,并设置你想要的超时时间。否则,就会一直按照struct timeval中的变量都设置为0的情况。

    返回值

    • 成功时,select返回就绪文件描述符的数量。这个数量可能包括读、写和异常事件的文件描述符总数。
    • 如果在指定的超时时间内没有文件描述符就绪,select将返回0。
    • 如果调用失败,select将返回-1,并设置相应的错误码。

    工作原理

        select的工作原理是阻塞等待直到至少有一个文件描述符在指定的集合中变为就绪状态,或者直到超时。一旦有文件描述符就绪或者超时发生,select将返回,并通过修改传入的文件描述符集合来告知调用者哪些文件描述符已经就绪。

    注意事项

    • 在使用select之前,程序必须使用宏(如FD_ZEROFD_SETFD_CLRFD_ISSET)来初始化和操作文件描述符集合。
    • select的一个潜在缺点是它只能监视有限数量的文件描述符(通常受限于系统定义的一个上限)。对于需要监视大量文件描述符的应用程序,可能需要使用其他机制,如pollepoll
    • select在文件描述符集合较大时可能效率较低,因为它需要遍历整个集合来检查哪些文件描述符已经就绪。

    select使用实例

            通过简单的一个TCP服务器获取发来的信息:

    Log.hpp

    1. #pragma once
    2. #include <iostream>
    3. #include <time.h>
    4. #include <stdarg.h>
    5. #include <sys/types.h>
    6. #include <sys/stat.h>
    7. #include <fcntl.h>
    8. #include <unistd.h>
    9. #include <stdlib.h>
    10. #define SIZE 1024
    11. #define Info 0
    12. #define Debug 1
    13. #define Warning 2
    14. #define Error 3
    15. #define Fatal 4
    16. #define Screen 1
    17. #define Onefile 2
    18. #define Classfile 3
    19. #define LogFile "log.txt"
    20. class Log
    21. {
    22. public:
    23. Log()
    24. {
    25. printMethod = Screen;
    26. path = "./log/";
    27. }
    28. void Enable(int method)
    29. {
    30. printMethod = method;
    31. }
    32. std::string levelToString(int level)
    33. {
    34. switch (level)
    35. {
    36. case Info:
    37. return "Info";
    38. case Debug:
    39. return "Debug";
    40. case Warning:
    41. return "Warning";
    42. case Error:
    43. return "Error";
    44. case Fatal:
    45. return "Fatal";
    46. default:
    47. return "None";
    48. }
    49. }
    50. // void logmessage(int level, const char *format, ...)
    51. // {
    52. // time_t t = time(nullptr);
    53. // struct tm *ctime = localtime(&t);
    54. // char leftbuffer[SIZE];
    55. // snprintf(leftbuffer, sizeof(leftbuffer), "[%s][%d-%d-%d %d:%d:%d]", levelToString(level).c_str(),
    56. // ctime->tm_year + 1900, ctime->tm_mon + 1, ctime->tm_mday,
    57. // ctime->tm_hour, ctime->tm_min, ctime->tm_sec);
    58. // // va_list s;
    59. // // va_start(s, format);
    60. // char rightbuffer[SIZE];
    61. // vsnprintf(rightbuffer, sizeof(rightbuffer), format, s);
    62. // // va_end(s);
    63. // // 格式:默认部分+自定义部分
    64. // char logtxt[SIZE * 2];
    65. // snprintf(logtxt, sizeof(logtxt), "%s %s\n", leftbuffer, rightbuffer);
    66. // // printf("%s", logtxt); // 暂时打印
    67. // printLog(level, logtxt);
    68. // }
    69. void printLog(int level, const std::string &logtxt)
    70. {
    71. switch (printMethod)
    72. {
    73. case Screen:
    74. std::cout << logtxt << std::endl;
    75. break;
    76. case Onefile:
    77. printOneFile(LogFile, logtxt);
    78. break;
    79. case Classfile:
    80. printClassFile(level, logtxt);
    81. break;
    82. default:
    83. break;
    84. }
    85. }
    86. void printOneFile(const std::string &logname, const std::string &logtxt)
    87. {
    88. std::string _logname = path + logname;
    89. int fd = open(_logname.c_str(), O_WRONLY | O_CREAT | O_APPEND, 0666); // "log.txt"
    90. if (fd < 0)
    91. return;
    92. write(fd, logtxt.c_str(), logtxt.size());
    93. close(fd);
    94. }
    95. void printClassFile(int level, const std::string &logtxt)
    96. {
    97. std::string filename = LogFile;
    98. filename += ".";
    99. filename += levelToString(level); // "log.txt.Debug/Warning/Fatal"
    100. printOneFile(filename, logtxt);
    101. }
    102. ~Log()
    103. {
    104. }
    105. void operator()(int level, const char *format, ...)
    106. {
    107. time_t t = time(nullptr);
    108. struct tm *ctime = localtime(&t);
    109. char leftbuffer[SIZE];
    110. snprintf(leftbuffer, sizeof(leftbuffer), "[%s][%d-%d-%d %d:%d:%d]", levelToString(level).c_str(),
    111. ctime->tm_year + 1900, ctime->tm_mon + 1, ctime->tm_mday,
    112. ctime->tm_hour, ctime->tm_min, ctime->tm_sec);
    113. va_list s;
    114. va_start(s, format);
    115. char rightbuffer[SIZE];
    116. vsnprintf(rightbuffer, sizeof(rightbuffer), format, s);
    117. va_end(s);
    118. // 格式:默认部分+自定义部分
    119. char logtxt[SIZE * 2];
    120. snprintf(logtxt, sizeof(logtxt), "%s %s", leftbuffer, rightbuffer);
    121. // printf("%s", logtxt); // 暂时打印
    122. printLog(level, logtxt);
    123. }
    124. private:
    125. int printMethod;
    126. std::string path;
    127. };
    128. Log lg;
    129. // int sum(int n, ...)
    130. // {
    131. // va_list s; // char*
    132. // va_start(s, n);
    133. // int sum = 0;
    134. // while(n)
    135. // {
    136. // sum += va_arg(s, int); // printf("hello %d, hello %s, hello %c, hello %d,", 1, "hello", 'c', 123);
    137. // n--;
    138. // }
    139. // va_end(s); //s = NULL
    140. // return sum;
    141. // }

    Socket.hpp

    1. #pragma once
    2. #include <iostream>
    3. #include <string>
    4. #include <unistd.h>
    5. #include <cstring>
    6. #include <sys/types.h>
    7. #include <sys/stat.h>
    8. #include <sys/socket.h>
    9. #include <arpa/inet.h>
    10. #include <netinet/in.h>
    11. #include "Log.hpp"
    12. enum
    13. {
    14. SocketErr = 2,
    15. BindErr,
    16. ListenErr,
    17. };
    18. // TODO
    19. const int backlog = 10;
    20. class Sock
    21. {
    22. public:
    23. Sock()
    24. {
    25. }
    26. ~Sock()
    27. {
    28. }
    29. public:
    30. void Socket()
    31. {
    32. sockfd_ = socket(AF_INET, SOCK_STREAM, 0);
    33. if (sockfd_ < 0)
    34. {
    35. lg(Fatal, "socker error, %s: %d", strerror(errno), errno);
    36. exit(SocketErr);
    37. }
    38. int opt = 1;
    39. setsockopt(sockfd_, SOL_SOCKET, SO_REUSEADDR | SO_REUSEPORT, &opt, sizeof(opt));
    40. }
    41. void Bind(uint16_t port)
    42. {
    43. struct sockaddr_in local;
    44. memset(&local, 0, sizeof(local));
    45. local.sin_family = AF_INET;
    46. local.sin_port = htons(port);
    47. local.sin_addr.s_addr = INADDR_ANY;
    48. if (bind(sockfd_, (struct sockaddr *)&local, sizeof(local)) < 0)
    49. {
    50. lg(Fatal, "bind error, %s: %d", strerror(errno), errno);
    51. exit(BindErr);
    52. }
    53. }
    54. void Listen()
    55. {
    56. if (listen(sockfd_, backlog) < 0)
    57. {
    58. lg(Fatal, "listen error, %s: %d", strerror(errno), errno);
    59. exit(ListenErr);
    60. }
    61. }
    62. int Accept(std::string *clientip, uint16_t *clientport)
    63. {
    64. struct sockaddr_in peer;
    65. socklen_t len = sizeof(peer);
    66. int newfd = accept(sockfd_, (struct sockaddr*)&peer, &len);
    67. if(newfd < 0)
    68. {
    69. lg(Warning, "accept error, %s: %d", strerror(errno), errno);
    70. return -1;
    71. }
    72. char ipstr[64];
    73. inet_ntop(AF_INET, &peer.sin_addr, ipstr, sizeof(ipstr));
    74. *clientip = ipstr;
    75. *clientport = ntohs(peer.sin_port);
    76. return newfd;
    77. }
    78. bool Connect(const std::string &ip, const uint16_t &port)
    79. {
    80. struct sockaddr_in peer;
    81. memset(&peer, 0, sizeof(peer));
    82. peer.sin_family = AF_INET;
    83. peer.sin_port = htons(port);
    84. inet_pton(AF_INET, ip.c_str(), &(peer.sin_addr));
    85. int n = connect(sockfd_, (struct sockaddr*)&peer, sizeof(peer));
    86. if(n == -1)
    87. {
    88. std::cerr << "connect to " << ip << ":" << port << " error" << std::endl;
    89. return false;
    90. }
    91. return true;
    92. }
    93. void Close()
    94. {
    95. close(sockfd_);
    96. }
    97. int Fd()
    98. {
    99. return sockfd_;
    100. }
    101. private:
    102. int sockfd_;
    103. };

    SelectServer1.hpp

    1. #pragma once
    2. #include <iostream>
    3. #include <sys/select.h>
    4. #include <sys/time.h>
    5. #include "Socket.hpp"
    6. using namespace std;
    7. static const uint16_t defaultport = 8888;
    8. static const int fd_num_max = (sizeof(fd_set) * 8);
    9. int defaultfd = -1;
    10. class SelectServer
    11. {
    12. public:
    13. SelectServer(uint16_t port = defaultport) : _port(port)
    14. {
    15. for (int i = 0; i < fd_num_max; i++)
    16. {
    17. fd_array[i] = defaultfd;
    18. // std::cout << "fd_array[" << i << "]" << " : " << fd_array[i] << std::endl;
    19. }
    20. }
    21. bool Init()
    22. {
    23. _listensock.Socket();
    24. _listensock.Bind(_port);
    25. _listensock.Listen();
    26. return true;
    27. }
    28. void Accepter()
    29. {
    30. // 我们的连接事件就绪了
    31. std::string clientip;
    32. uint16_t clientport = 0;
    33. int sock = _listensock.Accept(&clientip, &clientport); // 会不会阻塞在这里?不会
    34. if (sock < 0) return;
    35. lg(Info, "accept success, %s: %d, sock fd: %d", clientip.c_str(), clientport, sock);
    36. // sock -> fd_array[]
    37. int pos = 1;
    38. for (; pos < fd_num_max; pos++) // 第二个循环
    39. {
    40. if (fd_array[pos] != defaultfd)
    41. continue;
    42. else
    43. break;
    44. }
    45. if (pos == fd_num_max)
    46. {
    47. lg(Warning, "server is full, close %d now!", sock);
    48. close(sock);
    49. }
    50. else
    51. {
    52. fd_array[pos] = sock;
    53. PrintFd();
    54. // TODO
    55. }
    56. }
    57. void Recver(int fd, int pos)
    58. {
    59. // demo
    60. char buffer[1024];
    61. ssize_t n = read(fd, buffer, sizeof(buffer) - 1); // bug?
    62. if (n > 0)
    63. {
    64. buffer[n] = 0;
    65. cout << "get a messge: " << buffer << endl;
    66. }
    67. else if (n == 0)
    68. {
    69. lg(Info, "client quit, me too, close fd is : %d", fd);
    70. close(fd);
    71. fd_array[pos] = defaultfd; // 这里本质是从select中移除
    72. }
    73. else
    74. {
    75. lg(Warning, "recv error: fd is : %d", fd);
    76. close(fd);
    77. fd_array[pos] = defaultfd; // 这里本质是从select中移除
    78. }
    79. }
    80. void Dispatcher(fd_set &rfds)
    81. {
    82. for (int i = 0; i < fd_num_max; i++) // 这是第三个循环
    83. {
    84. int fd = fd_array[i];
    85. if (fd == defaultfd)
    86. continue;
    87. if (FD_ISSET(fd, &rfds))
    88. {
    89. if (fd == _listensock.Fd())
    90. {
    91. Accepter(); // 连接管理器
    92. }
    93. else // non listenfd
    94. {
    95. Recver(fd, i);
    96. }
    97. }
    98. }
    99. }
    100. void Start()
    101. {
    102. int listensock = _listensock.Fd();
    103. fd_array[0] = listensock;
    104. for (;;)
    105. {
    106. fd_set rfds;
    107. FD_ZERO(&rfds);
    108. int maxfd = fd_array[0];
    109. for (int i = 0; i < fd_num_max; i++) // 第一次循环
    110. {
    111. if (fd_array[i] == defaultfd)
    112. continue;
    113. FD_SET(fd_array[i], &rfds);
    114. if (maxfd < fd_array[i])
    115. {
    116. maxfd = fd_array[i];
    117. lg(Info, "max fd update, max fd is: %d", maxfd);
    118. }
    119. }
    120. // accept?不能直接accept!检测并获取listensock上面的事件,新连接到来,等价于读事件就绪
    121. // struct timeval timeout = {1, 0}; // 输入输出,可能要进行周期的重复设置
    122. struct timeval timeout = {0, 0}; // 输入输出,可能要进行周期的重复设置
    123. // 如果事件就绪,上层不处理,select会一直通知你!
    124. // select告诉你就绪了,接下来的一次读取,我们读取fd的时候,不会被阻塞
    125. // rfds: 输入输出型参数。 1111 1111 -> 0000 0000
    126. int n = select(maxfd + 1, &rfds, nullptr, nullptr, /*&timeout*/ nullptr);
    127. switch (n)
    128. {
    129. case 0:
    130. cout << "time out, timeout: " << timeout.tv_sec << "." << timeout.tv_usec << endl;
    131. break;
    132. case -1:
    133. cerr << "select error" << endl;
    134. break;
    135. default:
    136. // 有事件就绪了,TODO
    137. cout << "get a new link!!!!!" << endl;
    138. Dispatcher(rfds); // 就绪的事件和fd你怎么知道只有一个呢???
    139. break;
    140. }
    141. }
    142. }
    143. void PrintFd()
    144. {
    145. cout << "online fd list: ";
    146. for (int i = 0; i < fd_num_max; i++)
    147. {
    148. if (fd_array[i] == defaultfd)
    149. continue;
    150. cout << fd_array[i] << " ";
    151. }
    152. cout << endl;
    153. }
    154. ~SelectServer()
    155. {
    156. _listensock.Close();
    157. }
    158. private:
    159. Sock _listensock;
    160. uint16_t _port;
    161. int fd_array[fd_num_max]; // 数组, 用户维护的!
    162. // int wfd_array[fd_num_max];
    163. };

    mian.cc

    1. #include "SelectServer1.hpp"
    2. #include
    3. #include
    4. int main()
    5. {
    6. std::unique_ptr svr(new SelectServer);
    7. svr->Init();
    8. svr->Start();
    9. return 0;
    10. }

    大致效果:

    select的特点与缺点

    特点:

            可监控的文件描述符个数取决与sizeof(fd_set)的值. 我这边服务器上sizeof(fd_set)= 512,每bit表示一个文件描述符,则我服务器上支持的最大文件描述符是512*8=4096.

            将fd加入select监控集的同时,还要再使用一个数据结构array保存放到select监控集中的fd,一是用于再select 返回后, array作为源数据和fd_set进行FD_ISSET判断。二是select返回后会把以前加入的但并无事件发生的fd清空,则每次开始select前都要重新从array取得fd逐一加入(FD_ZERO最先),扫描array的同时取得fd最大值maxfd,用于select的第一个参数。

            备注: fd_set的大小可以调整,可能涉及到重新编译内核.


    缺点:

            每次调用select, 都需要手动设置fd集合, 从接口使用角度来说也非常不便.

            每次调用select,都需要把fd集合从用户态拷贝到内核态,这个开销在fd很多时会很大

            同时每次调用select都需要在内核遍历传递进来的所有fd,这个开销在fd很多时也很大

            select支持的文件描述符数量太小

    多路转接之poll

    接口详解

        poll 是 Unix/Linux 系统编程中的一个 I/O 多路复用接口,它允许程序同时监视多个文件描述符(file descriptors)的状态变化,例如可读、可写或有异常。与 select 系统调用类似,poll 提供了非阻塞地等待多个文件描述符就绪的能力,但 poll 在某些情况下提供了更好的性能和扩展性。

    函数原型

    1. #include
    2. int poll(struct pollfd *fds, nfds_t nfds, int timeout);

    参数

    • struct pollfd *fds:指向 pollfd 结构体数组的指针,每个 pollfd 结构体代表一个要监视的文件描述符。
    • nfds_t nfdsfds 数组中的元素数量。
    • int timeout:等待事件发生的超时时间(以毫秒为单位)。如果 timeout 为 -1,则 poll 会一直等待,直到有事件发生或发生错误。如果 timeout 为 0,则 poll 会立即返回,不会等待。

    pollfd 结构体

    1. struct pollfd {
    2. int fd; // 文件描述符
    3. short events; // 感兴趣的事件
    4. short revents; // 实际发生的事件
    5. };

    • fd:要监视的文件描述符。
    • events:位掩码,表示我们感兴趣的事件。可能的值包括:
      • POLLIN:数据可读。
      • POLLOUT:数据可写。
      • POLLPRI:有优先数据可读(例如,带外数据)。
      • POLLERR:发生错误。
      • POLLHUP:挂起(例如,TCP 连接关闭)。
      • POLLNVAL:文件描述符无效。
    • revents:位掩码,由 poll 返回,表示实际发生的事件。在调用 poll 之前,应将其设置为 0。

    返回值

    • 如果成功,返回就绪的文件描述符数量。
    • 如果出错,返回 -1,并设置 errno 以指示错误。

    错误处理

            如果 poll 返回 -1,可以通过检查 errno 来确定出错的原因。可能的错误包括:

    • EBADF:一个或多个提供的文件描述符无效。
    • EINTR:调用被信号中断。
    • EINVALnfds 参数大于系统限制,或者 fds 指针无效。
    • ENOMEM:内存不足,无法完成操作。
    • 其他错误。

    poll的使用实例

            通过基于poll使用TCP协议简单获取发过来的信息。

    PollServer.hpp

    1. #pragma once
    2. #include <iostream>
    3. #include "Socket.hpp"
    4. #include <poll.h>
    5. #include <sys/time.h>
    6. using namespace std;
    7. static uint16_t defaultport = 8888;
    8. static const int fd_num_max = 64;
    9. int defaultfd = -1;
    10. class PollServer
    11. {
    12. public:
    13. PollServer(uint16_t port = defaultport) : _port(port)
    14. {
    15. for (int i = 0; i < fd_num_max; i++)
    16. {
    17. _event_fds[i].fd = defaultfd;
    18. _event_fds[i].events = POLLIN;
    19. _event_fds[i].revents = 0;
    20. }
    21. }
    22. bool Init()
    23. {
    24. _listensock.Socket();
    25. _listensock.Bind(_port);
    26. _listensock.Listen();
    27. _event_fds[0].fd = _listensock.Fd();
    28. return true;
    29. }
    30. void Accepter()
    31. {
    32. std::string clientip;
    33. uint16_t clientport;
    34. int sock=_listensock.Accept(&clientip, &clientport);
    35. if(sock<0)
    36. {
    37. lg(Error, "accept error");
    38. return;
    39. }
    40. lg(Info, "get a new link! %s: %d, sock fd: %d", clientip.c_str(), clientport, sock);
    41. int pos=1;
    42. for(;pos<fd_num_max;pos++)
    43. {
    44. if(_event_fds[pos].fd==defaultfd)
    45. {
    46. break;
    47. }
    48. }
    49. if(pos==fd_num_max)
    50. {
    51. lg(Error, "too many links!,close %d now!",sock);
    52. close(sock);
    53. }else{
    54. _event_fds[pos].fd=sock;
    55. _event_fds[pos].events=POLLIN;
    56. _event_fds[pos].revents=0;
    57. PrintFd();
    58. }
    59. }
    60. void Recver(int fd, int pos)
    61. {
    62. char buf[1024];
    63. ssize_t n = read(fd, buf, sizeof(buf));
    64. if (n > 0)
    65. {
    66. buf[n]=0;
    67. cout << "recv data: " << buf << endl;
    68. }
    69. else if (n == 0)
    70. {
    71. lg(Info, "client quit,close fd : %d",fd);
    72. close(fd);
    73. _event_fds[pos].fd = defaultfd;
    74. }else
    75. {
    76. lg(Error, "recv error");
    77. close(fd);
    78. _event_fds[pos].fd = defaultfd;
    79. }
    80. }
    81. void Dispatcher()
    82. {
    83. for(int i=0;i<fd_num_max;i++)
    84. {
    85. int fd=_event_fds[i].fd;
    86. if(fd==defaultfd)
    87. {
    88. continue;
    89. }
    90. if(_event_fds[i].revents&POLLIN)
    91. {
    92. if(fd==_listensock.Fd())
    93. {
    94. Accepter();
    95. }else{
    96. Recver(fd,i);
    97. }
    98. }
    99. }
    100. }
    101. void Start()
    102. {
    103. int timeout = 3000;
    104. while (true)
    105. {
    106. int n = poll(_event_fds, fd_num_max, 0);
    107. switch (n)
    108. {
    109. case 0:
    110. //cout << "timeout" << endl;
    111. break;
    112. case -1:
    113. cout << "poll error" << endl;
    114. break;
    115. default:
    116. Dispatcher();
    117. break;
    118. }
    119. }
    120. }
    121. void PrintFd()
    122. {
    123. cout << "online fd list: ";
    124. for (int i = 0; i < fd_num_max; i++)
    125. {
    126. if (_event_fds[i].fd == defaultfd)
    127. continue;
    128. cout << _event_fds[i].fd << " ";
    129. }
    130. cout << endl;
    131. }
    132. ~PollServer()
    133. {
    134. _listensock.Close();
    135. }
    136. private:
    137. Sock _listensock;
    138. uint16_t _port;
    139. struct pollfd _event_fds[fd_num_max];
    140. };

    大致效果:

    poll的优点和缺点

    优点:

            不同与select使用三个位图来表示三个fdset的方式, poll使用一个pollfd的指针实现.

            pollfd结构包含了要监视的event和发生的event,不再使用select“参数-值”传递的方式. 接口使用比select更方便。
            poll并没有最大数量限制 (但是数量过大后性能也是会下降).当这个大小大到内存抗不下去了就不是poll的问题了,而是OS自身的问题。

    缺点:

            poll中监听的文件描述符数目增多时和select函数一样, poll返回后,需要轮询pollfd来获取就绪的描述符.每次调用poll都需要把大量的pollfd结构从用户态拷贝到内核中.同时连接的大量客户端在一时刻可能只有很少的处于就绪状态, 因此随着监视的描述符数量的增长, 其效率也会线性下降 .
    epoll是Linux内核为处理大批量文件描述符而作了改进的I/O事件处理接口。它不同于select和poll,在处理大量并发连接时,具有更高的效率和更好的性能。以下是epoll接口的详解:

    多路转接之epoll

            epoll是Linux下的一种I/O多路复用机制,它相比传统的select和poll具有更高的效率和更好的扩展性。epoll是为处理大批量句柄而作了改进的poll,然而事实上真的是poll的改进吗?实际上的epoll在底层的结构以及使用方法同poll都是有着众多的不同的!!!
            以下是epoll接口的详细解释:

    主要函数

    1. epoll_create(int size)
    1. #include
    2. int epoll_create(int size);
      • 功能:创建一个epoll对象,并返回该对象的文件描述符。
      • 参数size参数从Linux内核2.6.8版本起就被忽略,只要求size大于0即可。
      • 返回值:成功则返回epoll专用的文件描述符,失败返回-1。
      • 注意事项:创建好epoll句柄后,它会占用一个文件描述符。因此,在使用完epoll后,必须调用close()关闭,否则可能导致文件描述符被耗尽。
    1. epoll_ctl(int epfd, int op, int fd, struct epoll_event event)
    int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
      • 功能:操作控制epoll对象,主要涉及epoll红黑树上节点的一些操作,如添加节点、删除节点、修改节点事件。
      • 参数
        • epfd:通过epoll_create创建的epoll对象句柄。
        • op:操作类型,如添加、删除或修改。可以选择如下中的任何一个:

    EPOLL_CTL_ADD

          • 功能:将文件描述符 fd 添加到 epoll 实例(由 epfd 指定)上,并关联 event 中指定的事件。
          • 细节:如果 fd 已经存在于 epoll 实例中,调用此操作将会失败(除非使用了 EPOLLONESHOT 标志)。

    EPOLL_CTL_MOD

          • 功能:修改已添加到 epoll 实例中的文件描述符 fd 的事件。
          • 细节:如果 fd 不存在于 epoll 实例中,调用此操作将会失败。event 参数用于指定新的事件集合。

    EPOLL_CTL_DEL

          • 功能:从 epoll 实例中删除文件描述符 fd。
          • 细节:如果 fd 不存在于 epoll 实例中,调用此操作将会失败。
        • fd:要监视的文件描述符。
        • event:指向epoll_event结构的指针,用于指定要监视的事件类型。
      • 返回值:成功返回0,失败返回-1。
    1. epoll_wait(int epfd, struct epoll_event events, int maxevents, int timeout)
    int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
      • 功能:等待事件的发生。
      • 参数
        • epfd:epoll文件描述符。
        • events:指向epoll_event数组的指针,用于存储触发的事件。
        • maxevents:告诉内核这个events数组的大小,即最多能返回多少个事件。
        • timeout:等待的超时时间,如果为-1,则表示一直等待。
      • 返回值:返回触发事件的文件描述符数量,如果超时则返回0,出错则返回-1。

    epoll_event结构

            以下是 struct epoll_event 的详细解释:

    1. struct epoll_event {
    2. __uint32_t events; /* Epoll events */
    3. epoll_data_t data; /* User data variable */
    4. };
    1. events
      • 这是一个 32 位的整数,用于表示事件的类型。它可以是一个或多个以下的标志(使用 OR 操作符 | 组合):
        • EPOLLIN:表示对应的文件描述符可以读(例如,套接字上有数据可读)。
        • EPOLLOUT:表示对应的文件描述符可以写。
        • EPOLLPRI:表示对应的文件描述符有紧急数据可读。
        • EPOLLERR:表示对应的文件描述符发生错误。
        • EPOLLHUP:表示对应的文件描述符被挂起。
        • EPOLLET:设置此标志后,epoll 将使用边缘触发(Edge Triggered)模式,而不是默认的水平触发(Level Triggered)模式。
        • EPOLLONESHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个 socket 的话,需要再次把这个 socket 加入到 EPOLL 队列里。
    1. data
      • 这是一个联合体(union),用于存储用户定义的数据。你可以用它来关联文件描述符和任何你需要的自定义数据。这样,当 epoll 返回事件时,你可以很容易地找到与该事件相关的上下文信息。
    1. typedef union epoll_data {
    2. void *ptr;
    3. int fd;
    4. __uint32_t u32;
    5. __uint64_t u64;
    6. } epoll_data_t;
      • ptr:你可以存储一个指向任何类型的指针。
      • fd:通常用于存储文件描述符。
      • u32u64:用于存储 32 位和 64 位的无符号整数。

    epoll的原理

            当某一进程调用epoll_create方法时, Linux内核会创建一个eventpoll结构体,这个结构体中有两个成员与epoll的使用方式密切相关。大致的结构如下:

    1. struct eventpoll{
    2. ....
    3. /*红黑树的根节点,这颗树中存储着所有添加到epoll中的需要监控的事件*/
    4. struct rb_root rbr;
    5. /*双链表中则存放着将要通过epoll_wait返回给用户的满足条件的事件*/
    6. struct list_head rdlist;
    7. ....
    8. };

            其中成员struct rb_root rbr(也就是红黑树节点)我们可这样理解其结构:

    1. struct rb_root rbr{
    2. int fd;
    3. uint32_t event;
    4. };

            内部包含着文件描述符fd和事件event。

            操作系统中会为我们维护一颗红黑树以及一个就绪队列。其中epoll_ctl的本质则是对红黑树中的节点进行操作,即:增、删、改。而上面我们提到的红黑树结构体即可以属于红黑树也可以属于就绪队列。一旦红黑树中的一个节点的某个文件描述符的某个事件就绪了,那么该事件就可以被添加到就绪队列中。其中就绪队列中每一个节点也是包含int fd;和uint32_t event;这两个成员的。而我们的epoll_wait则会以O(1)的时间复杂度去检测事件有没就绪(实际上就是判是否为空)。操作系统中还会为提供回调函数用于将发生的事件添加到就绪队列中,避免使用遍历, 而是使用回调函数的方式, 将就绪的文件描述符结构加入到就绪队列中, epoll_wait 返回直接访问就绪队列就知道哪些文件描述符就绪. 这个操作时间复杂度O(1). 即使文件描述符数目很多, 效率也不会受到影响。

            其中struct list_head rdlist成员(也就是就绪队列中的节点!!!)我们可这样理解其结构:

    1. struct list_head {
    2. struct list_head *next;
    3. struct list_head *prev;
    4. };

            当有事件就绪了就可以通过该结构接入就绪队列!通过回调函数中的一些操作,如:强转类型然后找到eventpoll这个结构体中的某个成员来判断是否就绪,回调函数可以通过某个成员来判断是否处于就绪队列中!

            在epoll中,对于每一个事件,都会建立一个epitem结构体. 如下:

    1. struct epitem{
    2. struct rb_node rbn;//红黑树节点
    3. struct list_head rdllink;//双向链表节点
    4. struct epoll_filefd ffd; //事件句柄信息
    5. struct eventpoll *ep; //指向其所属的eventpoll对象
    6. struct epoll_event event; //期待发生的事件类型
    7. }

            当调用epoll_wait检查是否有事件发生时,只需要检查eventpoll对象中的rdlist双链表中是否有epitem元素即可.如果rdlist不为空,则把发生的事件复制到用户态,同时将事件数量返回给用户. 这个操作的时间复杂度是O(1)。

    总结一下, epoll的使用过程就是三部曲:

            调用epoll_create创建一个epoll句柄;

            调用epoll_ctl, 将要监控的文件描述符进行注册;

            调用epoll_wait, 等待文件描述符就绪

            大致的图示如下:

    使用流程

    1. 创建epoll实例:使用epoll_create函数创建一个epoll实例,并获取其文件描述符。
    2. 注册文件描述符:使用epoll_ctl函数将需要监视的文件描述符添加到epoll实例中,并指定要监视的事件类型。
    3. 等待事件:使用epoll_wait函数等待事件的发生。该函数会阻塞程序执行,直到有事件发生或超时。
    4. 处理事件:根据epoll_wait返回的触发事件的文件描述符和事件类型,应用程序可以执行相应的操作。
    5. 更新或删除事件:在处理完一个事件后,可以使用epoll_ctl函数更新或删除epoll实例中的文件描述符的监视状态。

    epoll工作方式

            epoll主要有两种工作模式:边缘触发(Edge-Triggered)和水平触发(Level-Triggered)。

    1. 边缘触发模式(EPOLLET):
    • 在此模式下,epoll仅在文件描述符状态发生变化时通知应用程序。具体来说,当文件描述符从未就绪状态变为就绪状态时,epoll会触发一次事件通知,并且仅通知一次,即使文件描述符仍然处于就绪状态。这种模式要求应用程序完全处理每个事件,确保不会遗漏任何事件。
    1. 水平触发模式(EPOLLIN):
    • 在此模式下,epoll会持续通知应用程序文件描述符处于就绪状态,直到应用程序读取了所有可用的数据或写入了所有数据。如果应用程序没有完全处理就绪状态,下次epoll_wait函数调用时仍然会通知该文件描述符处于就绪状态。这种模式需要应用程序自行控制事件的处理。

    epoll的使用实例

            通过基于epoll使用TCP协议简单获取发过来的信息,并且对其进行简单的处理后发回。

    nocopy.hpp

            这个类的作用主要是禁止拷贝如下对拷贝构造以及赋值运算符都禁用了。

    1. #pragma once
    2. class nocopy{
    3. public:
    4. nocopy() = default;
    5. nocopy(const nocopy& cp)=delete;
    6. const nocopy& operator=(const nocopy& cp)=delete;
    7. };

    Epoller.hpp

            对epol进行了简单的封装。

    1. #pragma once
    2. #include "Log.hpp"
    3. #include "nocopy.hpp"
    4. #include <cerrno>
    5. #include <cstring>
    6. #include <sys/epoll.h>
    7. class Epoller : public nocopy
    8. {
    9. static const int size = 128;
    10. public:
    11. Epoller()
    12. {
    13. _epfd = epoll_create(size);
    14. if (_epfd == -1)
    15. {
    16. lg(Error, "epoll_create1 error");
    17. }
    18. else
    19. {
    20. lg(Info, "epoll_create1 success! _epfd:%d", _epfd);
    21. }
    22. }
    23. int EpollerWait(struct epoll_event *revents, int num, int timeout = 3000) // struct epoll_event revents[]?
    24. {
    25. int n = epoll_wait(_epfd, revents, num, timeout);
    26. return n;
    27. }
    28. int EpollerUpdate(int oper, int sock, uint32_t event)
    29. {
    30. int n = 0;
    31. if (oper == EPOLL_CTL_DEL)
    32. {
    33. n = epoll_ctl(_epfd, oper, sock, nullptr);
    34. if (n == -1)
    35. {
    36. lg(Error, "epoll_ctl del error");
    37. }
    38. else
    39. {
    40. lg(Info, "epoll_ctl del success! sock:%d", sock);
    41. }
    42. }
    43. else
    44. {
    45. struct epoll_event ev;
    46. ev.events = event;
    47. ev.data.fd = sock;
    48. n = epoll_ctl(_epfd, oper, sock, &ev);
    49. if (n == -1)
    50. {
    51. lg(Error, "epoll_ctl add error");
    52. }
    53. else
    54. {
    55. lg(Info, "epoll_ctl add success! sock:%d", sock);
    56. }
    57. return n;
    58. }
    59. }
    60. ~Epoller()
    61. {
    62. if (_epfd > 0)
    63. close(_epfd);
    64. }
    65. private:
    66. int _epfd;
    67. int _timeout{3000};
    68. };

    EpollServer.hpp

            真正实现的EpollServer服务器。

    1. #pragma once
    2. #include "Socket.hpp"
    3. #include "Log.hpp"
    4. #include "Epoller.hpp"
    5. #include "nocopy.hpp"
    6. #include <memory>
    7. uint32_t EVENT_IN = (EPOLLIN);
    8. uint32_t EVENT_OUT = (EPOLLOUT);
    9. static const uint16_t defaultport = 8888;
    10. class EpollServer : public nocopy
    11. {
    12. static const int num = 64;
    13. public:
    14. EpollServer(uint16_t port = defaultport)
    15. : _listsocket_ptr(new Sock()),
    16. _epoller_ptr(new Epoller()),
    17. _port(port)
    18. {
    19. }
    20. void Init()
    21. {
    22. _listsocket_ptr->Socket();
    23. _listsocket_ptr->Bind(_port);
    24. _listsocket_ptr->Listen();
    25. lg(Info, "create listen socket success: %d\n", _listsocket_ptr->Fd());
    26. }
    27. void Accepter()
    28. {
    29. std::string clientip;
    30. uint16_t clientport;
    31. int connfd = _listsocket_ptr->Accept(&clientip, &clientport);
    32. if (connfd < 0)
    33. {
    34. lg(Error, "accept error");
    35. return;
    36. }
    37. _epoller_ptr->EpollerUpdate(EPOLL_CTL_ADD, connfd, EVENT_IN);
    38. lg(Info, "accept success: %d get a new link! client info@ %s:%d", connfd, clientip.c_str(), clientport);
    39. }
    40. void Recver(int fd)
    41. {
    42. char buffer[1024];
    43. ssize_t n = read(fd, buffer, sizeof(buffer) - 1); // bug?
    44. if (n > 0)
    45. {
    46. buffer[n] = 0;
    47. std::cout << "get a messge: " << buffer << std::endl;
    48. // write
    49. std::string echo_str = "server echo $ ";
    50. echo_str += buffer;
    51. write(fd, echo_str.c_str(), echo_str.size());
    52. }else if (n == 0)
    53. {
    54. lg(Info, "client quit, me too, close fd is : %d", fd);
    55. //细节3
    56. _epoller_ptr->EpollerUpdate(EPOLL_CTL_DEL, fd, 0);
    57. close(fd);
    58. }
    59. else
    60. {
    61. lg(Warning, "recv error: fd is : %d", fd);
    62. _epoller_ptr->EpollerUpdate(EPOLL_CTL_DEL, fd, 0);
    63. close(fd);
    64. }
    65. }
    66. void Dispatcher(struct epoll_event revs[], int num)
    67. {
    68. for (int i = 0; i < num; i++)
    69. {
    70. int fd = revs[i].data.fd;
    71. uint32_t events = revs[i].events;
    72. if (events & EVENT_IN)
    73. {
    74. if (fd == _listsocket_ptr->Fd())
    75. {
    76. // 有新连接
    77. Accepter();
    78. }
    79. else
    80. {
    81. // 有数据可读
    82. Recver(fd);
    83. }
    84. }
    85. }
    86. }
    87. void Start()
    88. {
    89. _epoller_ptr->EpollerUpdate(EPOLL_CTL_ADD, _listsocket_ptr->Fd(), EVENT_IN);
    90. struct epoll_event revs[num];
    91. while(true)
    92. {
    93. int n = _epoller_ptr->EpollerWait(revs, num);
    94. if (n > 0)
    95. {
    96. // 有事件就绪
    97. lg(Debug, "event happened, fd is : %d", revs[0].data.fd);
    98. Dispatcher(revs, n);
    99. }
    100. else if (n == 0)
    101. {
    102. lg(Info, "time out ...");
    103. }
    104. else
    105. {
    106. lg(Error, "epll wait error");
    107. }
    108. }
    109. }
    110. private:
    111. std::shared_ptr<Sock> _listsocket_ptr;
    112. std::shared_ptr<Epoller> _epoller_ptr;
    113. uint16_t _port;
    114. };

    大致效果如下:

    epoll的优势

            接口使用方便: 虽然拆分成了三个函数, 但是反而使用起来更方便高效. 不需要每次循环都设置关注的文件描述符, 也做到了输入输出参数分离

            数据拷贝轻量: 只在合适的时候调用 EPOLL_CTL_ADD 将文件描述符结构拷贝到内核中, 这个操作并不频繁(而select/poll都是每次循环都要进行拷贝)

            事件回调机制: 避免使用遍历, 而是使用回调函数的方式, 将就绪的文件描述符结构加入到就绪队列中, epoll_wait 返回直接访问就绪队列就知道哪些文件描述符就绪. 这个操作时间复杂度O(1). 即使文件描述符数目很多, 效率也不会受到影响.

            没有数量限制: 文件描述符数目无上限.


                            感谢你耐心的看到这里ღ( ´・ᴗ・` )比心,如有哪里有错误请踢一脚作者o(╥﹏╥)o! 

                                           

                                                                            给个三连再走嘛~  

  • 相关阅读:
    SpringCloud Alibaba - Sentinel 限流规则(案例 + JMeter 测试分析)
    剑指 Offer 61. 扑克牌中的顺子
    ELK之Logstash解析时间相差8h的问题
    鸿蒙系统(HarmonyOS)--第3章:鸿蒙Aility框架
    【Linux】WSL安装的Ubuntu不支持POSIX消息队列(已解决)
    前端的那些基本标签【a table tr caption image等等......】
    排序算法及java实现
    GaussDB数据库SQL系列-LOCK TABLE
    Java笔记:阻塞队列
    U-net详解
  • 原文地址:https://blog.csdn.net/weixin_64038246/article/details/138185906