• 面试之网络知识篇


    网络知识

    001. 能不能说一说 TCP 和 UDP 的区别?

    首先概括一下基本的区别:

    • TCP是一个面向连接的、可靠的、基于字节流的传输层协议。
    • 而UDP是一个面向无连接的传输层协议。(就这么简单,其它TCP的特性也就没有了)。
      在这里插入图片描述

    具体来分析,和 UDP 相比,TCP 有三大核心特性:

    1. 面向连接。所谓的连接,指的是客户端和服务器的连接,在双方互相通信之前,TCP 需要三次握手建立连接,而 UDP 没有相应建立连接的过程。

    2. 可靠性。TCP 花了非常多的功夫保证连接的可靠,这个可靠性体现在哪些方面呢?一个是有状态,另一个是可控制。
      TCP 会精准记录哪些数据发送了,哪些数据被对方接收了,哪些没有被接收到,而且保证数据包按序到达,不允许半点差错。这是有状态。
      当意识到丢包了或者网络环境不佳,TCP 会根据具体情况调整自己的行为,控制自己的发送速度或者重发。这是可控制。
      相应的,UDP 就是无状态, 不可控的。

    3. 面向字节流。UDP 的数据传输是基于数据报的,这是因为仅仅只是继承了 IP 层的特性,而 TCP 为了维护状态,将一个个 IP 包变成了字节流。

    002: 说说 TCP 三次握手的过程?为什么是三次而不是两次、四次?

    对应到 TCP 的三次握手,也是需要确认双方的两样能力: 发送的能力和接收的能力。于是便会有下面的三次握手的过程:
    在这里插入图片描述
    CLOSED:client 处于关闭状态
    LISTEN :server 处于监听状态,等待 client 连接
    SYN -RCVDRCVD:表示 server 接受到了 SYN 报文,当收到 client 的ACK 报文后,它会进入到 ESTABLISHED 状态
    SYN -SENT :表示 client 已发送 SYN 报文,等待 server 的第 2次握手
    ESTABLISHED:表示连接已经建立

    从最开始双方都处于CLOSED状态。然后服务端开始监听某个端口,进入了LISTEN状态

    然后客户端主动发起连接,发送 SYN , 自己变成了SYN-SENT状态

    服务端接收到,返回SYN和ACK(对应客户端发来的SYN),自己变成了SYN-REVD

    之后客户端再发送ACK给服务端,自己变成了ESTABLISHED状态;服务端收到ACK之后,也变成了ESTABLISHED状态

    为什么不是两次?
    主要目的:防止 server 端一直等待,浪费资源
     如果建立连接只需要 2次握手,可能会出现的情况
     假设 client 发出的第一个连接请求报文段,因为网络延迟在释放以后某时间才到达 server
     本来这是一个早已失效的连接请求,但 server 收到此失效的请求后,误认为是 client 再次发出的一个新连接请求
     于是 server 就向 client 发出确认报文段,同意建立连接
     如果不采用“ 3次握手”,那么只要 server 发出确认,新的连接就建立
     由于现在 client 并没有真正想连接服务器的意愿,因此不会理睬 server 的确认,也不会向 server 发送数据
     但server 却以为新的连接已经建立,并一直等待 client 发来数据, 这样server 的很多资源就白浪费掉了
     采用“三次握手”的办法可以防止上述现象发生
     例如上述情况, client 没有向 server 的确认发出, server 由于收不到确认,就知道 client 并没有要求建立连接

    为什么不是四次?
    三次握手的目的是确认双方发送和接收的能力,那四次握手可以嘛?
    当然可以,100 次都可以。但为了解决问题,三次就足够了,再多用处就不大了。

    第3次握手失败了,会怎么处理?
     此时 server 的状态为 SYN -RCVDRCVD,若等不到 client 的ACK,server 会重新发送 SYN+ACK 包
     如果 server 多次重发 SYN+ACK 都等不到 client 的ACK,就会发送 RST 包强制关闭连接

    三次握手过程中可以携带数据么?
    第三次握手的时候,可以携带前两次握手不能携带数据。

    如果前两次握手能够携带数据,那么一旦有人想攻击服务器,那么他只需要在第一次握手中的 SYN 报文中放大量数据,那么服务器势必会消耗更多的时间和内存空间去处理这些数据,增大了服务器被攻击的风险。

    第三次握手的时候,客户端已经处于ESTABLISHED状态,并且已经能够确认服务器的接收、发送能力正常,这个时候相对安全了,可以携带数据。

    同时打开会怎样?
    如果双方同时发 SYN报文,状态变化会是怎样的呢?
    这是一个可能会发生的情况。
    状态变迁如下:
    在这里插入图片描述

    在发送方给接收方发SYN报文的同时,接收方也给发送方发SYN报文,两个人刚上了!
    发完SYN,两者的状态都变为SYN-SENT

    在各自收到对方的SYN后,两者状态都变为SYN-REVD

    接着会回复对应的ACK + SYN,这个报文在对方接收之后,两者状态一起变为ESTABLISHED

    这就是同时打开情况下的状态变迁。

    003: 说说 TCP 四次挥手的过程

    过程拆解
    在这里插入图片描述
    FIN -WAITWAIT-1:表示想主动关闭连接
    向对方发送了 FIN 报文,此时进入到 FIN -WAITWAIT-1状态

    CLOSECLOSE-WAITWAIT:表示在等待关闭
     当对方发送 FIN 给自己,会回应一个 ACK 报文给对方,此时则进入到 CLOSECLOSE-WAIT 状态
     在此状态下,需要考虑自己是否还有数据发送 给对方如果没FIN 报文给对方

    FIN -WAITWAIT-2:只要对方发送 ACK 确认后,主动方就会处于 FIN -WAITWAIT-2状态,然后等待对方发送 FIN 报文

    CLOSING:一种比较罕见的例外状态
     表示你发送 FIN 报文后,并没有收到对方的 ACK 报文,反而却也收到了对方的 FIN 报文
     如果双方几乎在同时准备关闭连接的话,那么就出现了发送 FIN 报文的情况,也即会出现 CLOSING 状态
     表示双方都正在关闭连接

    LAST-ACK:被动关闭一方在发送 FIN 报文后,最等待对方的 ACK 报文
     当收到 ACK 报文后,即可进入 CLOSED 状态了

    TIME -WAITWAIT:表示收到了对方的 FIN 报文,并发送出了 ACK 报文,就等 2MSL 后即可进入 CLOSED 状态了
     如果 FIN -WAITWAIT-1状态下,收到了对方同时带 FIN 标志和 ACK 标志的报文时
     可以直接进入到 TIME -WAIT 状态,而无须经过 FIN -WAITWAIT-2状态

    CLOSED:关闭状态

    刚开始双方处于ESTABLISHED状态。
    客户端要断开了,向服务器发送 FIN 报文,在 TCP 报文中的位置如下图:
    在这里插入图片描述

    发送后客户端变成了FIN-WAIT-1状态。注意, 这时候客户端同时也变成了half-close(半关闭)状态,即无法向服务端发送报文,只能接收

    服务端接收后向客户端确认,变成了CLOSED-WAIT状态。

    客户端接收到了服务端的确认,变成了FIN-WAIT2状态。

    随后,服务端向客户端发送FIN,自己进入LAST-ACK状态,

    客户端收到服务端发来的FIN后,自己变成了TIME-WAIT状态,然后发送 ACK 给服务端。

    注意了,这个时候,客户端需要等待足够长的时间,具体来说,是 2 个 MSL(Maximum Segment Lifetime,报文最大生存时间), 在这段时间内如果客户端没有收到服务端的重发请求,那么表示 ACK 成功到达,挥手结束,否则客户端重发 ACK。

    等待2MSL的意义
    如果不等待会怎样?
    可以防止本次连接中产生的数据包误传到下一次连接中(因为都会在 2MSL 时间内消失了)
     如果 client 发送 ACK 后马上释放了, 然又因为网络原server 没有收到 client 的ACK,server 就会重发 FIN
     这时可能出现的情况是
    ① client 没有任何响应,服务器那边会干等甚至多次重发 FIN ,浪费资源
    ② client 有个新的应用程序刚好分配了同一端口号,收到 FIN 后马上开始执行断连接的操作,本来 它可能是想跟 server 建立连接的

    一个 MSL 不就不够了吗,为什么要等待 2 MSL?
    ● 1 个 MSL 确保四次挥手中主动关闭方最后的 ACK 报文最终能达到对端
    ● 1 个 MSL 确保对端没有收到 ACK 重传的 FIN 报文可以到达
    这就是等待 2MSL 的意义。

    为什么是四次挥手而不是三次?
    因为服务端在接收到FIN, 往往不会立即返回FIN, 必须等到服务端所有的报文都发送完毕了,才能发FIN。因此先发一个ACK表示已经收到客户端的FIN,延迟一段时间才发FIN。这就造成了四次挥手。

    如果是三次挥手会有什么问题?
    等于说服务端将ACK和FIN的发送合并为一次挥手,这个时候长时间的延迟可能会导致客户端误以为FIN没有到达客户端,从而让客户端不断的重发FIN

    同时关闭会怎样?
    如果客户端和服务端同时发送 FIN ,状态会如何变化?如图所示:
    在这里插入图片描述

    004: 说说半连接队列和 SYN Flood 攻击的关系

    三次握手前,服务端的状态从CLOSED变为LISTEN, 同时在内部创建了两个队列:半连接队列全连接队列,即SYN队列ACCEPT队列

    半连接队列
    当客户端发送SYN到服务端,服务端收到以后回复ACKSYN,状态由LISTEN变为SYN_RCVD,此时这个连接就被推入了SYN队列,也就是半连接队列

    全连接队列
    当客户端返回ACK, 服务端接收后,三次握手完成。这个时候连接等待被具体的应用取走,在被取走之前,它会被推入另外一个 TCP 维护的队列,也就是全连接队列(Accept Queue)。

    SYN Flood(洪水) 攻击原理
    SYN Flood 属于典型的 DoS/DDoS 攻击。其攻击的原理很简单,就是用客户端在短时间内伪造大量不存在的 IP 地址,并向服务端疯狂发送SYN。攻击者发送一系列的 SYN 请求到 目标,然后让因收不ACK(第 3次握手)而进行等待,消耗资源。对于服务端而言,会产生两个危险的后果:

    1. 处理大量的SYN包并返回对应ACK, 势必有大量连接处于SYN_RCVD状态,从而占满整个半连接队列无法处理正常的请求
    2. 由于是不存在的 IP,服务端长时间收不到客户端的ACK,会导致服务端不断重发数据,直到耗尽服务端的资源。

    如何应对 SYN Flood 攻击?

    1. 增加 SYN 连接,也就是增加半连接队列的容量。
    2. 减少 SYN + ACK 重试次数,避免大量的超时重发。
    3. 利用 SYN Cookie 技术,在服务端接收到SYN后不立即分配连接资源,而是根据这个SYN计算出一个Cookie,连同第二次握手回复给客户端,在客户端回复ACK的时候带上这个Cookie值,服务端验证 Cookie 合法之后才分配连接资源。

    005: 介绍一下 TCP 报文头部的字段

    报文头部结构如下(单位为字节):
    在这里插入图片描述

    请大家牢记这张图!
    源端口、目标端口
    如何标识唯一标识一个连接?答案是 TCP 连接的四元组——源 IP、源端口、目标 IP 和目标端口
    那 TCP 报文怎么没有源 IP 和目标 IP 呢?这是因为在 IP 层就已经处理了 IP 。TCP 只需要记录两者的端口即可。
    序列号
    即Sequence number, 指的是本报文段第一个字节的编号。
    首先,在传输过程的每一个字节都会有编号
    在建立连接后,序号代表:这一次传给对方的 TCP 数据部分的第一个字节编号

    从图中可以看出,序列号是一个长为 4 个字节,也就是 32 位的无符号整数,表示范围为 0 ~ 2^32 - 1。如果到达最大值了后就循环到0

    序列号在 TCP 通信的过程中有两个作用:

    1. 在 SYN 报文中交换彼此的初始序列号
    2. 保证数据包按正确的顺序组装

    ISN
    Initial Sequence Number初始序列号),在三次握手的过程当中,双方会用过SYN报文来交换彼此的 ISN。
    ISN 并不是一个固定的值,而是每 4 ms 加一,溢出则回到 0,这个算法使得猜测 ISN 变得很困难。那为什么要这么做?
    如果 ISN 被攻击者预测到,要知道源 IP 和源端口号都是很容易伪造的,当攻击者猜测 ISN 之后,直接伪造一个 RST 后,就可以强制连接关闭的,这是非常危险的。
    动态增长的 ISN 大大提高了猜测 ISN 的难度。

    确认号
    占4字节
    即ACK(Acknowledgment number)。在建立连接后,确认号代表:期望对方下一次传过来的 TCP 数据部分的第一个字节编号,小于ACK的所有字节已经全部收到。

    标记位
    常见的标记位有SYN,ACK,FIN,RST,PSH
    SYN 和 ACK 已经在上文说过,后三个解释如下: FIN: 即 Finish,表示发送方准备断开连接。
    RST:即 Reset,用来强制断开连接
    PSH: 即 Push, 告知对方这些数据包收到后应该马上交给上层的应用,不能缓存

    窗口大小
    占2字节
    这个字段有流量控制功能,用以告知对方下一次允许发送的数据大小(节为单位)
    占用两个字节,也就是 16 位,但实际上是不够用的。因此 TCP 引入了窗口缩放的选项,作为窗口缩放的比例因子,这个比例因子的范围在 0 ~ 14,比例因子可以将窗口的值扩大为原来的 2 ^ n 次方。

    校验和
    占用两个字节,防止传输过程中数据包有损坏,如果遇到校验和有差错的报文,TCP 直接丢弃之,等待重传。
    跟UDP 一样, TCP 检验和的计算内容:伪首部 + 首部 + 数据
     伪首部:占用 12 字节,仅在计算检验和时起作用并不会传递给网络层
    在这里插入图片描述

    可选项
    可选项的格式如下:
    在这里插入图片描述

    常用的可选项有以下几个:
    TimeStamp: TCP 时间戳,后面详细介绍。
    MSS: 指的是 TCP 允许的从对方接收的最大报文段。
    ● SACK: 选择确认选项
    ● Window Scale: 窗口缩放选项

    006: 说说 TCP 快速打开的原理(TFO)

    第一节讲了 TCP 三次握手,可能有人会说,每次都三次握手好麻烦呀!能不能优化一点?
    可以啊。今天来说说这个优化后的 TCP 握手流程,也就是 TCP 快速打开(TCP Fast Open, 即TFO)的原理。
    优化的过程是这样的,还记得我们说 SYN Flood 攻击时提到的 SYN Cookie 吗?这个 Cookie 可不是浏览器的Cookie, 用它同样可以实现 TFO。
    TFO 流程

    首轮三次握手
    首先客户端发送SYN给服务端,服务端接收到。
    注意哦!现在服务端不是立刻回复 SYN + ACK,而是通过计算得到一个SYN Cookie, 将这个Cookie放到 TCP 报文的 Fast Open选项中,然后才给客户端返回。

    客户端拿到这个 Cookie 的值缓存下来。后面正常完成三次握手。
    首轮三次握手就是这样的流程。而后面的三次握手就不一样啦!

    后面的三次握手
    在后面的三次握手中,客户端会将之前缓存的 Cookie、SYN 和HTTP请求(是的,你没看错)发送给服务端,服务端验证了 Cookie 的合法性,如果不合法直接丢弃;如果是合法的,那么就正常返回SYN + ACK

    重点来了,现在服务端能向客户端发 HTTP 响应了!这是最显著的改变,三次握手还没建立,仅仅验证了 Cookie 的合法性,就可以返回 HTTP 响应了
    当然,客户端的ACK还得正常传过来,不然怎么叫三次握手嘛。
    流程如下:
    在这里插入图片描述

    注意: 客户端最后握手的 ACK 不一定要等到服务端的 HTTP 响应到达才发送,两个过程没有任何关系。

    TFO 的优势
    TFO 的优势并不在与首轮三次握手,而在于后面的握手,在拿到客户端的 Cookie 并验证通过以后,可以直接返回 HTTP 响应,充分利用了1 个RTT(Round-Trip Time,往返时延)的时间提前进行数据传输,积累起来还是一个比较大的优势。

    007: 能不能说说TCP报文中时间戳的作用?

    timestamp是 TCP 报文首部的一个可选项,一共占 10 个字节,格式如下:

    kind(1 字节) + length(1 字节) + info(8 个字节)
    
    • 1

    其中 kind = 8, length = 10, info 有两部分构成: timestamptimestamp echo,各占 4 个字节。

    那么这些字段都是干嘛的呢?它们用来解决那些问题?
    接下来我们就来一一梳理,TCP 的时间戳主要解决两大问题:
    计算往返时延 RTT(Round-Trip Time)
    防止序列号的回绕问题

    计算往返时延 RTT
    在没有时间戳的时候,计算 RTT 会遇到的问题如下图所示:
    在这里插入图片描述

    如果以第一次发包为开始时间的话,就会出现左图的问题,RTT 明显偏大,开始时间应该采用第二次的;

    如果以第二次发包为开始时间的话,就会导致右图的问题,RTT 明显偏小,开始时间应该采用第一次发包的。

    实际上无论开始时间以第一次发包还是第二次发包为准,都是不准确的。

    那这个时候引入时间戳就很好的解决了这个问题。

    比如现在 a 向 b 发送一个报文 s1,b 向 a 回复一个含 ACK 的报文 s2 那么:
    step 1: a 向 b 发送的时候,timestamp 中存放的内容就是 a 主机发送时的内核时刻 ta1
    step 2: b 向 a 回复 s2 报文的时候,timestamp 中存放的是 b 主机的时刻 tb, timestamp echo字段为从 s1 报文中解析出来的 ta1
    step 3: a 收到 b 的 s2 报文之后,此时 a 主机的内核时刻是 ta2, 而在 s2 报文中的 timestamp echo 选项中可以得到 ta1, 也就是 s2 对应的报文最初的发送时刻。然后直接采用 ta2 - ta1 就得到了 RTT 的值。

    防止序列号回绕问题
    现在我们来模拟一下这个问题。
    序列号的范围其实是在0 ~ 2 ^ 32 - 1, 为了方便演示,我们缩小一下这个区间,假设范围是 0 ~ 4,那么到达 4 的时候会回到 0。

    对应序列号

    第几次发包发送字节对应序列号状态
    10 ~ 10 ~ 1成功接收
    21 ~ 21 ~ 2滞留在网络中
    32 ~ 32 ~ 3成功接收
    43 ~ 43 ~ 4成功接收
    54 ~ 50 ~ 1成功接收,序列号从0开始
    65 ~ 61 ~ 2???

    假设在第 6 次的时候,之前还滞留在网路中的包回来了,那么就有两个序列号为1 ~ 2的数据包了,怎么区分谁是谁呢?这个时候就产生了序列号回绕的问题。

    那么用 timestamp 就能很好地解决这个问题,因为每次发包的时候都是将发包机器当时的内核时间记录在报文中,那么两次发包序列号即使相同时间戳也不可能相同,这样就能够区分开两个数据包了。

    008: TCP 的超时重传时间是如何计算的?

    TCP 具有超时重传机制,即间隔一段时间没有等到数据包的回复时,重传这个数据包。
    
    • 1

    那么这个重传间隔是如何来计算的呢?
    今天我们就来讨论一下这个问题。
    这个重传间隔也叫做超时重传时间(Retransmission TimeOut, 简称RTO),它的计算跟上一节提到的 RTT 密切相关。这里我们将介绍两种主要的方法,一个是经典方法,一个是标准方法。

    经典方法
    经典方法引入了一个新的概念——SRTT(Smoothed round trip time,即平滑往返时间),没产生一次新的 RTT. 就根据一定的算法对 SRTT 进行更新,具体而言,计算方式如下(SRTT 初始值为0):

    SRTT =  (α * SRTT) + ((1 - α) * RTT)
    
    • 1

    其中,α 是平滑因子,建议值是0.8,范围是0.8 ~ 0.9。
    拿到 SRTT,我们就可以计算 RTO 的值了:

    RTO = min(ubound, max(lbound, β * SRTT))
    
    • 1

    β 是加权因子,一般为1.3 ~ 2.0, lbound 是下界,ubound 是上界。
    其实这个算法过程还是很简单的,但是也存在一定的局限,就是在 RTT 稳定的地方表现还可以,而在 RTT 变化较大的地方就不行了,因为平滑因子 α 的范围是0.8 ~ 0.9, RTT 对于 RTO 的影响太小。

    标准方法
    为了解决经典方法对于 RTT 变化不敏感的问题,后面又引出了标准方法,也叫Jacobson / Karels 算法。
    一共有三步。
    第一步: 计算SRTT,公式如下:

    SRTT = (1 - α) * SRTT + α * RTT
    
    • 1

    注意这个时候的 α跟经典方法中的α取值不一样了,建议值是1/8,也就是0.125。
    第二步: 计算RTTVAR(round-trip time variation)这个中间变量。

    RTTVAR = (1 - β) * RTTVAR + β * (|RTT - SRTT|)
    
    • 1

    β 建议值为 0.25。这个值是这个算法中出彩的地方,也就是说,它记录了最新的 RTT 与当前 SRTT 之间的差值,给我们在后续感知到 RTT 的变化提供了抓手。
    第三步: 计算最终的RTO:

    RTO = µ * SRTT +  * RTTVAR 
    
    • 1

    µ建议值取1, ∂建议值取4。
    这个公式在 SRTT 的基础上加上了最新 RTT 与它的偏移,从而很好的感知了 RTT 的变化,这种算法下,RTO 与 RTT 变化的差值关系更加密切。

    009: 能不能说一说 TCP 的流量控制?

    对于发送端和接收端而言,TCP 需要把发送的数据放到发送缓存区, 将接收的数据放到接收缓存区
    为什么要进行流量控制?
    如果接收方的缓存区满了,发送还在疯狂着数据
     接收方只能把到的数据包丢掉,大量会极着浪费网络资源
     所以要进行流量控制

    什么是流量控制?
     让发送方的速率不要太快,接收来得及处理

    原理
     通过确认报文中窗口字段来控制发送方的速率
     发送方的窗口大小不能超过接收给出
     当发送方收到接窗口的大小为 0时,发送方就会停止数据
    而流量控制索要做的事情,就是在通过接收缓存区的大小,控制发送端的发送。如果对方的接收缓存区满了,就不能再继续发送了。

    要具体理解流量控制,首先需要了解滑动窗口的概念。

    TCP 滑动窗口
    TCP 滑动窗口分为两种: 发送窗口和接收窗口。
    发送窗口
    发送端的滑动窗口结构如下:
    在这里插入图片描述

    其中包含四大部分:
    ● 已发送且已确认
    ● 已发送但未确认
    ● 未发送但可以发送
    ● 未发送也不可以发送
    其中有一些重要的概念,我标注在图中:
    在这里插入图片描述

    发送窗口就是图中被框住的范围。SND 即send, WND 即window, UNA 即unacknowledged, 表示未被确认,NXT 即next, 表示下一个发送的位置。
    接收窗口
    接收端的窗口结构如下:
    在这里插入图片描述

    REV 即 receive,NXT 表示下一个接收的位置,WND 表示接收窗口大小。
    在这里插入图片描述

    流量控制过程

    这里我们不用太复杂的例子,以一个最简单的来回来模拟一下流量控制的过程,方便大家理解。

    首先双方三次握手,初始化各自的窗口大小,均为 200 个字节。

    假如当前发送端给接收端发送 100 个字节,那么此时对于发送端而言,SND.NXT 当然要右移 100 个字节,也就是说当前的可用窗口减少了 100 个字节,这很好理解。

    现在这 100 个到达了接收端,被放到接收端的缓冲队列中。不过此时由于大量负载的原因,接收端处理不了这么多字节,只能处理 40 个字节,剩下的 60 个字节被留在了缓冲队列中

    注意了,此时接收端的情况是处理能力不够用啦,你发送端给我少发点,所以此时接收端的接收窗口应该缩小,具体来说,缩小 60 个字节,由 200 个字节变成了 140 字节,因为缓冲队列还有 60 个字节没被应用拿走。

    因此,接收端会在 ACK 的报文首部带上缩小后的滑动窗口 140 字节,发送端对应地调整发送窗口的大小为 140 个字节
    此时对于发送端而言,已经发送且确认的部分增加 40 字节,也就是 SND.UNA 右移 40 个字节,同时发送窗口缩小为 140 个字节

    这也就是流量控制的过程。尽管回合再多,整个控制的过程和原理是一样的。
    下面的流程是,如果存在漏发的时候的流量控制:
    在这里插入图片描述
    图中最后显示如果缓存区满了,发送区会停止发送数据,那如何再次重新启动再次继续发送?
    正常情况如图中所示,当接收方有了空间,会发送一个窗口大小非0的确认报文。
    异常情况:
    一开始,接收方给发送了 0窗口的报文段
     后面,接收方又有了一些存储空间给发送的非 0窗口的报文段丢失了
     发送方的窗口一直为零,双陷入僵局

    解决方案
     当发送方收到 0窗口通知时,这发送方停止报文
     并且同时开启一个定时器,隔一段间就发测试报文去询问接收方最新的窗口大小
     如果接收的窗口大小还是为 0,则发送方再次刷新启动定时器

    010: 能不能说说 TCP 的拥塞控制?

    上一节所说的流量控制发生在发送端跟接收端之间,并没有考虑到整个网络环境的影响,如果说当前网络特别差,特别容易丢包,那么发送端就应该注意一些了。而这,也正是拥塞控制需要处理的问题。

    拥塞控制是一个全局性的过程
     涉及到所有的主机、路由器
     以及与降低网络传输性能有关的所因素
     是大家共同努力的结果
     相比而言,流量控制相比而言,流量控制是点对点控制

    对于拥塞控制来说,TCP 每条连接都需要维护两个核心状态:
    ● 拥塞窗口(Congestion Window,cwnd)
    ● 慢启动阈值(Slow Start Threshold,ssthresh)
    涉及到的算法有这几个:
    慢启动
    拥塞避免
    快速重传和快速恢复

    在这里插入图片描述

    接下来,我们就来一一拆解这些状态和算法。首先,从拥塞窗口说起。
    拥塞窗口
    拥塞窗口(Congestion Window,cwnd)是指目前自己还能传输的数据量大小
    那么之前介绍了接收窗口的概念,两者有什么区别呢?
    ● 接收窗口(rwnd)是接收端给的限制
    ● 拥塞窗口(cwnd)是发送端的限制
    限制谁呢?
    限制的是发送窗口的大小。
    有了这两个窗口,如何来计算发送窗口?

    发送窗口(swnd)大小 = min(rwnd, cwnd)
    
    • 1

    取两者的较小值。而拥塞控制,就是来控制cwnd的变化
    慢启动
    刚开始进入传输数据的时候,你是不知道现在的网路到底是稳定还是拥堵的,如果做的太激进,发包太急,那么疯狂丢包,造成雪崩式的网络灾难。
    因此,拥塞控制首先就是要采用一种保守的算法来慢慢地适应整个网路,这种算法叫慢启动。运作过程如下:
    在这里插入图片描述

    ● 首先,三次握手,双方宣告自己的接收窗口大小
    ● 双方初始化自己的拥塞窗口(cwnd)大小
    ● 在开始传输的一段时间,发送端每收到一个 ACK,拥塞窗口大小加 1,也就是说,每经过一个 RTT,cwnd 翻倍。如果说初始窗口为 10,那么第一轮 10 个报文传完且发送端收到 ACK 后,cwnd 变为 20,第二轮变为 40,第三轮变为 80,依次类推。
    难道就这么无止境地翻倍下去?当然不可能。它的阈值叫做慢启动阈值,当 cwnd 到达这个阈值之后,好比踩了下刹车,别涨了那么快了,老铁,先 hold 住!
    在到达阈值后,如何来控制 cwnd 的大小呢?

    拥塞避免
    原来每收到一个 ACK,cwnd 加1,现在到达阈值了,cwnd 只能加这么一点: 1 / cwnd。那你仔细算算,一轮 RTT 下来,收到 cwnd 个 ACK, 那最后拥塞窗口的大小 cwnd 总共才增加 1。
    也就是说,以前一个 RTT 下来,cwnd翻倍,现在cwnd只是增加 1 而已。
    当然,慢启动和拥塞避免是一起作用的,是一体的。

    ssthresh(slow start threshold threshold):慢 开始 阈值, cwnd 达到阈值后,以线性方式增加
     拥塞避免(加法增大):窗口缓慢,以防止网络过早出现

    快速重传和快速恢复
    快速重传
    接收方
     每收到一个失序的分组后就立即发出重复确认
     使发送方及时知道有分组没到达
     而不要等待自己发送数据时才进行确认
    发送方
     只要连续收到三个重复确认(总共 4个相同的确认),就应当立即重传对方尚未收到报文段
     而不必继续等待重传计时器到期后再重传
    在这里插入图片描述

    在 TCP 传输的过程中,如果发生了丢包,即接收端发现数据段不是按序到达的时候,接收端的处理是重复发送之前的 ACK

    比如上图中第3 个包丢了,即使第 4、5 个包到达的接收端,接收端也一律返回第2个包的 ACK。当发送端收到 3 个重复的 ACK 时,意识到丢包了,于是马上进行重传M3,不用等到一个 RTO 的时间到了才重传。
    这就是快速重传,它解决的是是否需要重传的问题。

    在TCP 通信过程中,如 果发送序列间某个数据包丢失(比1、2、3、4、5中的 3丢失了)
     TCP 会通过重传最后确认的分组续(是 2,会重传 3、4、5
     这样原先已经正确传输的分组也可能重复发送(比如 4、5),降低了 TCP 性能
     为改善上述情况,发展出了 SACK(Selective acknowledgment acknowledgment,选择 性确认)技术
     告诉发送方哪些数据丢失,已经提前收到
     使TCP 只重新发送丢失的包(比如 3),不用发送后续所有的分组(比如 4、5)

    SACK(Selective Acknowledgment)选择性重传
    SACK 信息会放在 TCP 首部的选项
    在这里插入图片描述
     Kind :占 1字节。值为 5代表这是 SACK 选项
     Length :占 1字节。表明 SACK 选项一共占用多少字节
     Left Edge Edge:占 4字节,左边界
     Right Edge :占 4字节,右边界
    在这里插入图片描述

     一对边界信息需要占用 8字节,由于 TCP 首部的选项分最多 40 字节,所以
     SACK 选项最多携带 4组边界信息
     SACK 选项的最大占用字节数 = 4 * 8 + 2 = 34


    在收到发送端的报文后,接收端回复一个 ACK 报文,那么在这个报文首部的可选项中,就可以加上SACK这个属性,通过left edge和right edge告知发送端已经收到了哪些区间的数据报。因此,即使第3 个包丢包了,当收到第 4、5 个包之后,接收端依然会告诉发送端,这两个包到了。剩下第3 个包没到,就重传这个包。这个过程也叫做选择性重传(SACK,Selective Acknowledgment),它解决的是如何重传的问题。

    快速恢复
    当然,发送端收到三次重复 ACK 之后,发现丢包,觉得现在的网络已经有些拥塞了,自己会进入快速恢复阶段
    在这个阶段,发送端如下改变:
    与慢开始不同之处是现在执行算法,即 cwnd 现在不恢复到初始值
    拥塞阈值*(ssthresh)降低为 cwnd拥塞峰值 的一半
    ● cwnd 的大小变为新的拥塞阈值
    ● 然后开始执行拥塞避免算法(“加增大”)
    以上就是 TCP 拥塞控制的经典算法: 慢启动、拥塞避免、快速重传和快速恢复。

    011: 能不能说说 Nagle 算法和延迟确认?
    Nagle 算法
    试想一个场景,发送端不停地给接收端发很小的包,一次只发 1 个字节,那么发 1 千个字节需要发 1000 次。这种频繁的发送是存在问题的,不光是传输的时延消耗,发送和确认本身也是需要耗时的,频繁的发送接收带来了巨大的时延。
    而避免小包的频繁发送,这就是 Nagle 算法要做的事情。

    具体来说,Nagle 算法的规则如下:
    ● 当第一次发送数据时不用等待,就算是 1byte 的小包也立即发送
    ● 后面发送满足下面条件之一就可以发了:
    ○ 数据包大小达到最大段大小(Max Segment Size, 即 MSS)
    ○ 之前所有包的 ACK 都已接收到

    延迟确认
    试想这样一个场景,当我收到了发送端的一个包,然后在极短的时间内又接收到了第二个包,那我是一个个地回复,还是稍微等一下,把两个包的 ACK 合并后一起回复呢?
    延迟确认(delayed ack)所做的事情,就是后者,稍稍延迟,然后合并 ACK,最后才回复给发送端。TCP 要求这个延迟的时延必须小于500ms,一般操作系统实现都不会超过200ms。
    不过需要主要的是,有一些场景是不能延迟确认的,收到了就要马上回复:
    ● 接收到了大于一个 frame 的报文,且需要调整窗口大小
    ● TCP 处于 quickack 模式(通过tcp_in_quickack_mode设置)
    ● 发现了乱序包

    两者一起使用会怎样?
    前者意味着延迟发,后者意味着延迟接收,会造成更大的延迟,产生性能问题。

    012. 如何理解 TCP 的 keep-alive?

    大家都听说过 http 的keep-alive, 不过 TCP 层面也是有keep-alive机制,而且跟应用层不太一样。
    试想一个场景,当有一方因为网络故障或者宕机导致连接失效,由于 TCP 并不是一个轮询的协议,在下一个数据包到达之前,对端对连接失效的情况是一无所知的。
    这个时候就出现了 keep-alive, 它的作用就是探测对端的连接有没有失效。
    在 Linux 下,可以这样查看相关的配置:

    sudo sysctl -a | grep keepalive
    
    • 1
    // 每隔 7200 s 检测一次
    net.ipv4.tcp_keepalive_time = 7200
    // 一次最多重传 9 个包
    net.ipv4.tcp_keepalive_probes = 9
    // 每个包的间隔重传间隔 75 s
    net.ipv4.tcp_keepalive_intvl = 75
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    不过,现状是大部分的应用并没有默认开启 TCP 的keep-alive选项,为什么?
    站在应用的角度:

    7200s 也就是两个小时检测一次,时间太长
    时间再短一些,也难以体现其设计的初衷, 即检测长时间的死连接

    因此是一个比较尴尬的设计。

    udp的头部结构

    在这里插入图片描述
    UDP 是无连接的,减少了建立和释放开销
    UDP 尽最大能力交付不保证可靠
    因此不需要维护一些复杂的参数,首部只有 8个字节( TCP 的首部至少 20 个

    UDP 长度( Length )
    占16 位,首部的长度 + 数

    检验和的计算内容:伪首部 + 首部 + 数据
     伪首部:仅在计算检验和时起作用,并不会传递给网络层
    在这里插入图片描述

    TCP有什么特点

    • 可靠传输 (见下文)
    • 流量控制(见上文:009: 能不能说一说 TCP 的流量控制?)
    • 拥塞控制(见上文:010: 能不能说一说 TCP 的拥塞控制?)

    连接管理

    • 建立连接(见上文:002: 说说 TCP三次握手的过程?)
    • 释放连接(见上文:003: 说说 TCP 四次挥手的过程?)

    可靠传输用什么来保证?
    停止等待ARQ协议
    ARQ(Automatic Repeat –re Quest ),自动重传请求
    在这里插入图片描述
    如果发送端超过计时器的接受时间,还是没有获取接收端返回的ACK应答,就会重新发送消息
    在这里插入图片描述
    若有个包重传了 N次还是失败,会一直持续重传到成功为止么?
    这个取决于系统的设置,比如有些重传 5次还未成功就会发送 reset 报文( RST )断开 TCP 连接
    在这里插入图片描述
    连续ARQ协议+滑动窗口协议
    在这里插入图片描述
    连续发送多个分组一个,只需要确认一次

    TCP的序号,确认号详解

    在这里插入图片描述
    图中seq:TCP序列号,ack为确认号。
    1-3为建立连接
    4为发送端发送数据
    5-8为接收端发送数据
    9 为确认应答
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    参考:
    神三元的(建议收藏)TCP协议灵魂之问,巩固你的网路底层基础

  • 相关阅读:
    lv7 嵌入式开发-网络编程开发 08 TCP并发功能
    SpringBoot+Vue项目疫情防控期间某村外出务工人员信息管理系统
    Blender程序化建模简明教程【PCG】
    网络编程内容
    加窗函数后频谱幅值发生了变化的修正技巧
    【C++】引用
    Addressable使用指南
    xxl-job-admin 核心类解析 XxlJobAdminConfig
    软件测试简历项目经验该怎么写?【两年经验】
    用Abp实现找回密码和密码强制过期策略
  • 原文地址:https://blog.csdn.net/qq_35125764/article/details/126329390