大致流程如下:
设计服务端并发模型时,主要有如下两个关键点:
以上两个关键点最终都与操作系统的 I/O 模型以及线程(进程)模型相关,我们先详细看一下I/O模型 。
两者的最大区别在于被调用方在收到请求到返回结果之前的这段时间内,调用方是否一直在等待。
阻塞是指调用方一直在等待而且别的事情什么都不做;非阻塞是指调用方先去忙别的事情。
阻塞、非阻塞和同步、异步其实针对的对象是不一样的
recvfrom 函数(经 Socket 接收数据),这里把它视为系统调用
阻塞式 I/O 模型中的 recvfrom
是一个用于接收数据报的系统调用或函数。它通常用于网络编程中,特别是在UDP协议中。这个函数会阻塞应用程序的进程,直到有数据报准备好可以被接收。
具体来说,recvfrom
通常用于接收来自网络的数据报,例如从套接字(socket)中接收数据。当应用程序调用 recvfrom
时,如果没有数据报可用,它会等待直到有数据报到达,然后将数据报的内容复制到应用程序指定的缓冲区中,并返回成功。
在阻塞式 I/O 模型中,这个调用会导致应用程序阻塞,即应用程序的执行被暂停,直到数据可用为止。这通常意味着应用程序无法执行其他操作,直到 recvfrom
返回并提供接收的数据。这种模型在某些情况下非常简单,但也可能导致应用程序出现延迟,因为它必须等待数据的到达。
一个输入操作通常包括两个不同的阶段:
1)等待数据准备好;
2)从内核向进程复制数据。
对于一个套接字上的输入操作,
实际应用程序在系统调用完成上面的 2 步操作时,
在阻塞式 I/O 模型中,应用程序在从调用 recvfrom 开始到它返回有数据报准备好这段时间是阻塞的,recvfrom 返回成功后,应用进程开始处理数据报。
在非阻塞式 I/O 模型中,应用程序把一个套接口设置为非阻塞,就是告诉内核,当所请求的 I/O 操作无法完成时,不要将进程睡眠。
而是返回一个错误,应用程序基于 I/O 操作函数将不断的轮询数据是否已经准备好,如果没有准备好,继续轮询,直到数据准备好为止
EWOULDBLOCK
是一个错误码(或错误常量),通常在网络编程和非阻塞 I/O 中使用。它表示某个操作(通常是非阻塞的)因为当前状态而无法立即执行,但并不算是一种错误。在不同的操作系统和编程语言中,它有时也被称为EAGAIN
,表示 “操作再次尝试”。
当你在非阻塞模式下进行 I/O 操作(如读取或写入数据),有时可能会遇到
EWOULDBLOCK
错误。这通常发生在以下情况下:
- 针对非阻塞套接字的读取操作,但没有数据可供读取,因此需要稍后再次尝试。
- 针对非阻塞套接字的写入操作,但发送缓冲区已满,因此需要稍后再次尝试。
这并不是一种严重的错误,而是提示应用程序需要稍后再次尝试相同的操作,因为当前条件不允许立即执行。应用程序可以通过重新调用相同的操作来处理
EWOULDBLOCK
错误,直到操作成功完成。
在C语言中,通常使用
errno
变量来获取最后一次发生的错误码,而EWOULDBLOCK
可以表示为EAGAIN
。例如:
if (recvfrom(socket_fd, buffer, buffer_size, 0) == -1) {
if (errno == EWOULDBLOCK || errno == EAGAIN) {
// 需要稍后再次尝试
} else {
// 处理其他错误
}
}
这样,你可以在适当的情况下处理
EWOULDBLOCK
错误,以实现非阻塞的I/O操作。
在 I/O 复用模型中,会用到 Select 或 Poll 函数或 Epoll 函数(Linux 2.6 以后的内核开始支持),这两个函数也会使进程阻塞,但是和阻塞 I/O 有所不同。
这两个函数可以同时阻塞多个 I/O 操作,而且可以同时对多个读操作,多个写操作的 I/O 函数进行检测,直到有数据可读或可写时,才真正调用 I/O 操作函数。
众所周之,Nginx这样的高性能互联网反向代理服务器大获成功的关键就是得益于Epoll。
在信号驱动式 I/O 模型中,应用程序使用套接口进行信号驱动 I/O,并安装一个信号处理函数,进程继续运行并不阻塞。
当数据准备好时,进程会收到一个 SIGIO 信号,可以在信号处理函数中调用 I/O 操作函数处理数据。
信号驱动 I/O 尽管对于处理 UDP 套接字来说有用,即这种信号通知意味着到达一个数据报,或者返回一个异步错误。
但是,对于 TCP 而言,信号驱动的 I/O 方式近乎无用,因为导致这种通知的条件为数众多,每一个来进行判别会消耗很大资源,与前几种方式相比优势尽失。
由 POSIX 规范定义,应用程序告知内核启动某个操作,并让内核在整个操作(包括将数据从内核拷贝到应用程序的缓冲区)完成后通知应用程序。
这种模型与信号驱动模型的主要区别在于:信号驱动 I/O 是由内核通知应用程序何时启动一个 I/O 操作,而异步 I/O 模型是由内核通知应用程序 I/O 操作何时完成。
而在 Linux 系统下,Linux 2.6才引入,目前 AIO 并不完善,因此在 Linux 下实现高并发网络编程时都是以 IO 复用模型模式为主。
从上图中我们可以看出,越往后,阻塞越少,理论上效率也是最优。
这五种 I/O 模型中,前四种属于同步 I/O,因为其中真正的 I/O 操作(recvfrom)将阻塞进程/线程,只有异步 I/O 模型才与 POSIX 定义的异步 I/O 相匹配。