在对另一件事进行故障排除时,我注意到 TCP 关闭的奇怪模式。
数据包:http ://www.cloudshark.org/captures/7590ec4e6bef
正在发生的事情是由于某种奇怪的原因,关闭序列的最后几个数据包正在重新传输。该模式在 cloudshark 链接中,但为了后代,这里是一个摘要:
- 来源 -> 同步
- 目的地 -> 确认
- 来源 -> SynAck
- 数据
- 数据
- 来源 -> Fin/Ack
- 目的地 -> Psh/Ack (6)
- 目的地 -> 鳍/确认
- 来源 -> 确认 (7)
- 来源 -> 确认 (8)
- [此时应关闭两侧的连接。但事实并非如此。]
- [+200ms] Dest -> Fin/Ack
- 来源 -> Ack (8 & 12)
目标系统上的某些东西在重新发出 Fin/Ack 数据包之前等待 200 毫秒。这在多个事务中非常一致。更糟糕的是,这种模式在事务的双方都复制:它出现在两个主机上的捕获中。它不像 Fin/Ack 数据包在某处被丢弃并被重新传输那么简单。或者它可能正在下降,但在运行的水平之上tcpdump
。
200 毫秒的延迟让我觉得这里涉及 TCP 延迟确认,但我无法弄清楚为什么会这样。
以上 tcpdump甚至是一回事吗?
这是 RHEL6 系统的正常连接模式吗?
请注意,您捕获的第 2 帧中的 PSH/ACK 数据包携带 37 个字节的数据。这不是对来自 10.232.16.133 的 FIN 请求的响应。响应在第 3 帧中,对它的 ACK 在第 5 帧中。
现在似乎发生的事情是最后一个 ACK 没有到达目的地,因此在第 3 帧中发送的 FIN/ACK 在第 6 帧中重新传输。您在此处看到的约 200 毫秒延迟不是延迟确认,而是更可能是重传超时。您应该能够通过查看来自连接另一端的数据包捕获来验证这一点,您永远不会看到最后一个 ACK 到达。
如果您在所有连接上(并且可能在两个方向上)始终看到这种行为,我想到的一个解释是路径中的一些状态保持数据包过滤器正在吞噬最后一个 ACK。