我目前正在检查不同 Docker 覆盖网络的性能(尤其是 UDP 吞吐量)。我通过在与 Docker 覆盖网络连接的两台主机之间创建点对点连接来做到这一点,然后iperf
在 Docker 容器内运行以检查吞吐量。我注意到每次我iperf
作为客户端运行以将数据发送到iperf
作为服务器运行的另一个容器时,客户端主机的 CPU 使用率达到 100%。我通过运行在此处找到的以下命令得到了该结果:
top -bn1 | grep "Cpu(s)" | \
sed "s/.*, *\([0-9.]*\)%* id.*/\1/" | \
awk '{print 100 - $1"%"}'
所以,在我看来,我的吞吐量测试的限制因素似乎是我的主机的 CPU 容量,因为它以 100% 的速度运行并且无法产生更多的流量来使网络连接饱和。我想知道这是否是一个iperf
特定问题,所以我想使用不同的工具运行相同的测试,但不确定哪种替代方案是最好的。主机正在运行 Ubuntu。例如,我发现qperf
和。uperf
netpipe
此外,更一般地说,我开始想知道吞吐量性能的瓶颈通常是什么。不总是CPU容量或链路的带宽吗?哪些是与覆盖网络没有直接关系的因素。
这是否意味着应用程序(或覆盖网络)的吞吐量仅取决于传输一定数量的数据需要多少 CPU 周期,以及它如何压缩数据以适应网络(如果这将成为瓶颈)。
UDP 受 CPU 和带宽限制。它发送数据包而不保证它们被发送、传输或接收。
一般来说,UDP 的性能是没有意义的。没有什么能阻止您尝试每秒发送 1 亿个数据包。这会使发送方的 CPU 和网络饱和,而接收方可能什么也得不到。
如果你真的想测试UDP,那是一个相当长的话题,值得一本书。首先,您需要监控错误率以及实际发送/接收的数据。
您应该使用 TCP 进行测试以测量主机之间的可用带宽。
iperf
应该能够做到这一点。