• 传输层详解


    UDP协议

    UDP协议端格式

    16位UDP长度, 表示整个数据报(UDP首部+UDP数据)的最大长度;

    如果校验和出错, 就会直接丢弃

    UDP的特点

    UDP 传输的过程类似于寄信 .
    无连接 : 知道对端的 IP 和端口号就直接进行传输 , 不需要建立连接 ;
    不可靠 : 没有确认机制 , 没有重传机制 ; 如果因为网络故障该段无法发到对方 , UDP 协议层也不会给应用层 返回任何错误信息;
    面向数据报 : 不能够灵活的控制读写数据的次数和数量;

    面向数据报

    应用层交给 UDP 多长的报文 , UDP 原样发送 , 既不会拆分 , 也不会合并 ;
    UDP 传输 100 个字节的数据 :
    如果发送端调用一次 sendto, 发送 100 个字节 , 那么接收端也必须调用对应的一次 recvfrom, 接收 100 个字节; 而不能循环调用 10 recvfrom, 每次接收 10 个字节 ;

    UDP的缓冲区

    UDP 没有真正意义上的 发送缓冲区 . 调用 sendto 会直接交给内核 , 由内核将数据传给网络层协议进行后续的传输动作;
    UDP 具有接收缓冲区 . 但是这个接收缓冲区不能保证收到的 UDP 报的顺序和发送 UDP 报的顺序一致 ; 如果缓冲区满了, 再到达的 UDP 数据就会被丢弃 ;
    UDP socket 既能读 , 也能写 , 这个概念叫做 全双工

    UDP使用注意事项

    我们注意到 , UDP 协议首部中有一个 16 位的最大长度 . 也就是说一个 UDP 能传输的数据最大长度是 64K( 包含 UDP 首部).
    然而 64K 在当今的互联网环境下 , 是一个非常小的数字 .
    如果我们需要传输的数据超过 64K, 就需要在应用层手动的分包 , 多次发送 , 并在接收端手动拼装 ;

    基于UDP的应用层协议

    NFS: 网络文件系统
    TFTP: 简单文件传输协议
    DHCP: 动态主机配置协议
    BOOTP: 启动协议 ( 用于无盘设备启动 )
    DNS: 域名解析协议
    当然 , 也包括你自己写 UDP 程序时自定义的应用层协议 ;
    总结:linux 内核是用C语言写的,那么我们怎么看待UDP呢?
    1. struct udp_hdr{
    2. uint32_t src_port:16;
    3. uint32_t det_port:16;
    4. uint32_t tatal:16;
    5. uint32_t check:16
    6. };

     TCP协议

    TCP全称为 "传输控制协议(Transmission Control Protocol"). 人如其名, 要对数据的传输进行一个详细的控制

    TCP协议段格式

     源/目的端口号: 表示数据是从哪个进程来, 到哪个进程去;

    32位序号/32位确认号:TCP叫做保证可靠性:TCP可靠性最核心的机制就是确认应答机制;

     以上循环,就能保证上一条消息被确认收到,但是最新的消息不能保证被收到。所以TCP不是百分之百可靠。因为数据在网络传送的时候可能出现各种问题,主机A发送的数据可能是一批数据,主机B就需要根据序号,来对数据进行重新排序,来保证数据的完整性和数据按序到达。

    确认序号的作用:是对历史数据的确认。历史数据的序号  + 1,表示历史数据已经收到。

    4位TCP报头长度: 表示该TCP头部有多少个32bit(有多少个4字节); 所以TCP头部最大长度是15 * 4 = 60,4位首部长度单位是4字节,一个TCP标准报头是20字节。所以一般4位首部长度填充的是5.也就是为什么listen(sock,id);id是5的原因。

    理解在内核理解TCP

    总结:为什么要这么设计?

    1:提高应用层效率

    2: 只有OS TCP协议可以知道网路,乃至对方的状态明细,所以,也只有TCP协议,能够处理如何发,什么时候发,发多少,出错了怎么办等细节问题 

    以为缓冲区的存在,实现了传输层和应用层的解耦;

    有了发送缓冲区和接受缓冲区所以在TCP报头中16位窗口大小就是告知对方目前自己的接受缓冲区的剩余空间大小,发送方收到接收方的报头看到16位窗口大小就可以完成流量控制(控制发送大小速率等);

    6个标志位

    ACK是确认报文标志位

    SYN是链接建立请求标志位(3次握手)

     RST三次握手失败,返回的标志位

    RST:重置异常链接,只要双方链接出现异常都可以通过RST来将链接重置。 

    PSH:告知接受方尽快将接受缓冲区的数据向上交付

    URG:URG和TCP报头中的16为应急指针配合使用。因为TCP的报文时按序到达的!每个报文,什么时候被上层读取时确定的,但是要想插队读取就需要设置PSH标志位。但是TCP的紧急指针只能读一个字节(比较鸡肋)。

    FIN:断开链接标志位(4次挥手)

     超时重传机制

    主机 A 发送数据给 B 之后 , 可能因为网络拥堵等原因 , 数据无法到达主机 B;
    如果主机 A 在一个特定时间间隔内没有收到 B 发来的确认应答 , 就会进行重发 ;
    但是 , 主机 A 未收到 B 发来的确认应答 , 也可能是因为 ACK 丢失了
    因此主机 B 会收到很多重复数据 . 那么 TCP 协议需要能够识别出那些包是重复的包 , 并且把重复的丢弃掉 . 这时候我们可以利用前面提到的序列号, 就可以很容易做到去重的效果 .
    那么 , 如果超时的时间如何确定 ?
    最理想的情况下 , 找到一个最小的时间 , 保证 " 确认应答一定能在这个时间内返回 ".
    但是这个时间的长短 , 随着网络环境的不同 , 是有差异的 .
    如果超时时间设的太长 , 会影响整体的重传效率 ;
    如果超时时间设的太短 , 有可能会频繁发送重复的包
    TCP 为了保证无论在任何环境下都能比较高性能的通信 , 因此会动态计算这个最大超时时间
    Linux (BSD Unix Windows 也是如此 ), 超时以 500ms 为一个单位进行控制 , 每次判定超时重发的超时 时间都是500ms 的整数倍 .
    如果重发一次之后 , 仍然得不到应答 , 等待 2*500ms 后再进行重传 .
    如果仍然得不到应答 , 等待 4*500ms 进行重传 . 依次类推 , 以指数形式递增 .
    累计到一定的重传次数 , TCP 认为网络或者对端主机出现异常 , 强制关闭连接

     连接管理机制

    在正常情况下 , TCP 要经过三次握手建立连接 , 四次挥手断开连接

    1.为什么是3次握手,而不是1,2,4,5,6,7次握手

    第一次握手客户端发送SYN,第二次握手服务端发送ACK + SYN,当服务端返回ACK的时候表明客户端送的数据服务端能够收到,当第三次握手的时候客户端发送ACK,表明服务端能够收到客户端的数据。3次握手能够验证TCP的全双工,是能够看到双方都有收发的最小次数。

    如果1,2次握手容易引起SYN洪水,当客户端发起一次SYN到服务端,服务端需要维护这个连接,会有资源消耗,如果有人恶意的发送大量的SYN,服务端会被搞垮。如果是3次握手的话,客户端和服务端都需要维护这个连接,但是一般来说服务器的资源是远大于客户端的资源,所以如果是等量的消耗资源是可以接受的。

    2.四次挥手,是协商断开连接最小次数

    客户端发起FIN断开连接请求,服务端响应ACK,服务端发起FIN断开请求,客户端响应ACK.

    理解TIME_WAIT状态

    TCP 协议规定 , 主动关闭连接的一方要处于 TIME_ WAIT 状态 , 等待两个 MSL(maximum segment lifetime) 的时间后才能回到CLOSED 状态.
    我们使用 Ctrl-C 终止了 server, 所以 server 是主动关闭连接的一方 , TIME_WAIT 期间仍然不能再次监听 同样的server 端口 ;
    MSL RFC1122 中规定为两分钟 , 但是各操作系统的实现不同 , Centos7 上默认配置的值是 60s;
    可以通过 cat /proc/sys/net/ipv4/tcp_fin_timeout 查看 msl 的值;
    想一想 , 为什么是 TIME_WAIT 的时间是 2MSL?
    MSL TCP 报文的最大生存时间 , 因此 TIME_WAIT 持续存在 2MSL 的话
    就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失 ( 否则服务器立刻重启 , 可能会收到 来自上一个进程的迟到的数据, 但是这种数据很可能是错误的 );
    同时也是在理论上保证最后一个报文可靠到达 ( 假设最后一个 ACK 丢失 , 那么服务器会再重发一个 FIN. 这时虽然客户端的进程不在了, 但是 TCP 连接还在 , 仍然可以重发 LAST_ACK);
    解决 TIME_WAIT 状态引起的 bind 失败的方法
    server TCP 连接没有完全断开之前不允许重新监听 , 某些情况下可能是不合理的
    服务器需要处理非常大量的客户端的连接 ( 每个连接的生存时间可能很短 , 但是每秒都有很大数量的客户 端来请求).
    这个时候如果由服务器端主动关闭连接 ( 比如某些客户端不活跃 , 就需要被服务器端主动清理掉 ), 就会产 生大量TIME_WAIT 连接 .
    由于我们的请求量很大 , 就可能导致 TIME_WAIT 的连接数很多 , 每个连接都会占用一个通信五元组 ( ip, 源端口, 目的 ip, 目的端口 , 协议 ). 其中服务器的 ip 和端口和协议是固定的 . 如果新来的客户端连接的 ip 和端口号和TIME_WAIT 占用的链接重复了 , 就会出现问题 .
    使用 setsockopt() 设置 socket 描述符的 选项 SO_REUSEADDR 1, 表示允许创建端口号相同但 IP 地址不同的多个socket描述符

     理解 CLOSE_WAIT 状态

    小结 : 对于服务器上出现大量的 CLOSE_WAIT 状态 , 原因就是服务器没有正确的关闭 socket, 导致四次挥手没有正确完成. 这是一个 BUG. 只需要加上对应的 close 即可解决问题

    滑动窗口

    刚才我们讨论了确认应答策略 , 对每一个发送的数据段 , 都要给一个 ACK 确认应答 . 收到 ACK 后再发送下一个数据段 . 这样做有一个比较大的缺点, 就是性能较差 . 尤其是数据往返的时间较长的时候 .

     

    既然这样一发一收的方式性能较低 , 那么我们一次发送多条数据 , 就可以大大的提高性能 ( 其实是将多个段的等待时间重叠在一起了).

     

    窗口大小指的是无需等待确认应答而可以继续发送数据的最大值 . 上图的窗口大小就是 4000 个字节 ( 四个 段). 发送前四个段的时候, 不需要等待任何 ACK, 直接发送 ;
    收到第一个 ACK , 滑动窗口向后移动 , 继续发送第五个段的数据 ; 依次类推 ;
    操作系统内核为了维护这个滑动窗口 , 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答 ;
    只有确 认应答过的数据, 才能从缓冲区删掉 ;
    窗口越大 , 则网络的吞吐率就越高 ;

    那么如果出现了丢包, 如何进行重传? 这里分两种情况讨论.

    情况一: 数据包已经抵达, ACK被丢了 

     这种情况下, 部分ACK丢了并不要紧, 因为可以通过后续的ACK进行确认;

    情况二: 数据包就直接丢了.

     

    当某一段报文段丢失之后 , 发送端会一直收到 1001 这样的 ACK, 就像是在提醒发送端 " 我想要的是 1001" 一样;
    如果发送端主机连续三次收到了同样一个 "1001" 这样的应答 , 就会将对应的数据 1001 - 2000 重新发送 ;
    这个时候接收端收到了 1001 之后 , 再次返回的 ACK 就是 7001 ( 因为 2001 - 7000) 接收端其实之前就已经收到了, 被放到了接收端操作系统内核的 接收缓冲区 ;
    这种机制被称为 "高速重发控制"(也叫 "快重传")

    流量控制

    接收端处理数据的速度是有限的 . 如果发送端发的太快 , 导致接收端的缓冲区被打满 , 这个时候如果发送端继续发送 , 就会造成丢包, 继而引起丢包重传等等一系列连锁反应
    因此 TCP 支持根据接收端的处理能力 , 来决定发送端的发送速度 . 这个机制就叫做 流量控制 (Flow Control) ;
    接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 " 窗口大小 " 字段 , 通过 ACK 端通知发送端 ;
    窗口大小字段越大 , 说明网络的吞吐量越高 ;
    接收端一旦发现自己的缓冲区快满了 , 就会将窗口大小设置成一个更小的值通知给发送端 ;
    发送端接受到这个窗口之后 , 就会减慢自己的发送速度 ;
    如果接收端缓冲区满了 , 就会将窗口置为 0; 这时发送方不再发送数据 , 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端
    接收端如何把窗口大小告诉发送端呢 ? 回忆我们的 TCP 首部中 , 有一个 16 位窗口字段 , 就是存放了窗口大小信息 ;
    那么问题来了 , 16 位数字最大表示 65535, 那么 TCP 窗口最大就是 65535 字节么 ?
    实际上 , TCP 首部 40 字节选项中还包含了一个窗口扩大因子 M, 实际窗口大小是 窗口字段的值左移 M ;

    拥塞控制

    虽然 TCP 有了滑动窗口这个大杀器 , 能够高效可靠的发送大量的数据 . 但是如果在刚开始阶段就发送大量的数据 , 仍然可能引发问题.
    因为网络上有很多的计算机 , 可能当前的网络状态就已经比较拥堵 . 在不清楚当前网络状态下 , 贸然发送大量的数据 , 是很有可能引起雪上加霜的
    TCP 引入 慢启动 机制 , 先发少量的数据 , 探探路 , 摸清当前的网络拥堵状态 , 再决定按照多大的速度传输数据;
    此处引入一个概念程为 拥塞窗口
    发送开始的时候 , 定义拥塞窗口大小为 1;
    每次收到一个 ACK 应答 , 拥塞窗口加 1;
    每次发送数据包的时候 , 将拥塞窗口和接收端主机反馈的窗口大小做比较 , 取较小的值作为实际发送的窗口;

    像上面这样的拥塞窗口增长速度, 是指数级别的. "慢启动" 只是指初使时慢, 但是增长速度非常快.

    为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.

    此处引入一个叫做慢启动的阈值

    当拥塞窗口超过这个阈值的时候 , 不再按照指数方式增长 , 而是按照线性方式增长

     

    TCP 开始启动的时候 , 慢启动阈值等于窗口最大值 ;
    在每次超时重发的时候 , 慢启动阈值会变成原来的一半 , 同时拥塞窗口置回 1;
    少量的丢包 , 我们仅仅是触发超时重传 ; 大量的丢包 , 我们就认为网络拥塞 ;
    TCP 通信开始后 , 网络吞吐量会逐渐上升 ; 随着网络发生拥堵 , 吞吐量会立刻下降 ;
    拥塞控制 , 归根结底是 TCP 协议想尽可能快的把数据传输给对方 , 但是又要避免给网络造成太大压力的折中方案 .
    TCP 拥塞控制这样的过程 , 就好像 热恋的感觉

    延迟应答

    如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小

    假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;

    但实际上可能处理端处理的速度很快 , 10ms 之内就把 500K 数据从缓冲区消费掉了 ;
    在这种情况下 , 接收端处理还远没有达到自己的极限 , 即使窗口再放大一些 , 也能处理过来 ;
    如果接收端稍微等一会再应答 , 比如等待 200ms 再应答 , 那么这个时候返回的窗口大小就是 1M;
    一定要记得 , 窗口越大 , 网络吞吐量就越大 , 传输效率就越高 . 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率;

     那么所有的包都可以延迟应答么? 肯定也不是

    数量限制: 每隔N个包就应答一次;

    时间限制: 超过最大延迟时间就应答一次

    具体的数量和超时时间, 依操作系统不同也有差异; 一般N2, 超时时间取200ms;

    捎带应答 

    在延迟应答的基础上 , 我们发现 , 很多情况下 , 客户端服务器在应用层也是 " 一发一收 " . 意味着客户端给服务器说了 "How are you", 服务器也会给客户端回一个 "Fine, thank you";
    那么这个时候 ACK 就可以搭顺风车 , 和服务器回应的 "Fine, thank you" 一起回给客户端

    窗口大小是在三次握手过程中,窗口大小是通过捎带应答确认的。 

     面向字节流

     创建一个TCPsocket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;

    调用write, 数据会先写入发送缓冲区中;

    如果发送的字节数太长 , 会被拆分成多个 TCP 的数据包发出 ;
    如果发送的字节数太短 , 就会先在缓冲区里等待 , 等到缓冲区长度差不多了 , 或者其他合适的时机发送出去;
    接收数据的时候 , 数据也是从网卡驱动程序到达内核的接收缓冲区 ;
    然后应用程序可以调用 read 从接收缓冲区拿数据 ;
    另一方面 , TCP 的一个连接 , 既有发送缓冲区 , 也有接收缓冲区 , 那么对于这一个连接 , 既可以读数据 , 也可以写数据. 这个概念叫做 全双工
    由于缓冲区的存在 , TCP 程序的读和写不需要一一匹配 , 例如 :
    100 个字节数据时 , 可以调用一次 write 100 个字节 , 也可以调用 100 write, 每次写一个字节 ;
    100 个字节数据时 , 也完全不需要考虑写的时候是怎么写的 , 既可以一次 read 100 个字节 , 也可以一次read一个字节 , 重复 100 ;

    粘包问题

    首先要明确 , 粘包问题中的 " " , 是指的应用层的数据包 .
    TCP 的协议头中 , 没有如同 UDP 一样的 " 报文长度 " 这样的字段 , 但是有一个序号这样的字段 .
    站在传输层的角度 , TCP 是一个一个报文过来的 . 按照序号排好序放在缓冲区中 .
    站在应用层的角度 , 看到的只是一串连续的字节数据 .
    那么应用程序看到了这么一连串的字节数据 , 就不知道从哪个部分开始到哪个部分 , 是一个完整的应用层数据包.
    那么如何避免粘包问题呢 ? 归根结底就是一句话 , 明确两个包之间的边界
    对于定长的包 , 保证每次都按固定大小读取即可 ; 例如上面的 Request 结构 , 是固定大小的 , 那么就从缓冲区从头开始按sizeof(Request) 依次读取即可 ;
    对于变长的包 , 可以在包头的位置 , 约定一个包总长度的字段 , 从而就知道了包的结束位置 ;
    对于变长的包 , 还可以在包和包之间使用明确的分隔符 ( 应用层协议 , 是程序猿自己来定的 , 只要保证分隔 符不和正文冲突即可);
    思考 : 对于 UDP 协议来说 , 是否也存在 " 粘包问题 " ?
    对于 UDP, 如果还没有上层交付数据 , UDP 的报文长度仍然在 . 同时 , UDP 是一个一个把数据交付给应用层. 就有很明确的数据边界 .
    站在应用层的站在应用层的角度 , 使用 UDP 的时候 , 要么收到完整的 UDP 报文 , 要么不收 . 不会出现 " 半 个" 的情况

    TCP小结

    可靠性:

    校验和
    序列号 ( 按序到达 )
    确认应答
    超时重发
    连接管理
    流量控制
    拥塞控制
    提高性能 :
    滑动窗口
    快速重传
    延迟应答
    捎带应答
    其他 :
    定时器 ( 超时重传定时器 , 保活定时器 , TIME_WAIT 定时器等 )

    基于TCP应用层协议

    HTTP
    HTTPS
    SSH
    Telnet
    FTP
    SMTP

    TCP/UDP对比

    我们说了 TCP 是可靠连接 , 那么是不是 TCP 一定就优于 UDP ? TCP UDP 之间的优点和缺点 , 不能简单 , 绝对的进行比较
    TCP 用于可靠传输的情况 , 应用于文件传输 , 重要状态更新等场景 ;
    UDP 用于对高速传输和实时性要求较高的通信领域 , 例如 , 早期的 QQ, 视频传输等 . 另外 UDP 可以用于广播 

    UDP实现可靠传输(经典面试题)

    参考TCP的可靠性机制, 在应用层实现类似的逻辑;

    例如:

    引入序列号, 保证数据顺序;

    引入确认应答, 确保对端收到了数据;

    引入超时重传 , 如果隔一段时间没有应答 , 就重发数据 ;
  • 相关阅读:
    SQL note1:Basic Queries + Joins & Subqueries
    Vue UI 组件库
    连续系统PID的Simulink仿真
    Spire.Office for NET 全家桶最新版7.7.6
    html网页制作期末大作业-网上花店商城html+css+javascript
    【Qt图形视图框架】QGraphicsView分析
    这个周期你会再次错过 OKR 的真正原因
    对数据库密码使用MD5加密算法加密,并进行登录验证
    Java并发编程之synchronized 与 volatile
    nmake简介
  • 原文地址:https://blog.csdn.net/qq_57283958/article/details/125992455