在 Debian Buster,内核 5.4.51 上,我有两个接口tap0
,并tap1
以模式加入了一个绑定接口balance-xor
以增加吞吐量。但是,有些流量必须通过tap0
. 其余的我不在乎。
从理论上讲,bond 驱动程序可以使用tc
过滤器和 multiq 来做到这一点,如驱动程序文档中所述。我可以在统计数据中看到声称使用了队列,但检查两个接口上的流量表明过滤器没有得到尊重。
这是我所做的:
我将每个分路接口分配给绑定上的队列,将排队规则设置为多队列,然后用于tc
覆盖绑定的排队决策以强制流量192.168.1.100
(例如)始终使用tap0
.
# echo "tap0:1" > /sys/class/net/bond0/bonding/queue_id
# echo "tap1:2" > /sys/class/net/bond0/bonding/queue_id
# tc qdisc add dev bond0 handle 1 root multiq
# tc filter add dev bond0 protocol ip parent 1: prio 1 u32 match ip dst \
192.168.1.100 action skbedit queue_mapping 1
在tc
统计信息中,您可以看到实际使用了不同的队列:
# tc -s class show dev bond0
class multiq 1:1 parent 1:
Sent 377256252 bytes 2526104 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0
class multiq 1:2 parent 1:
Sent 21031 bytes 2982 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0
class multiq 1:3 parent 1:
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0
大多数流量采用通用队列,特殊流量采用两个特定于接口的队列中的第一个。如果我再次删除tc filter
,则特定队列 1:2 上的数据包计数器将停止。
(注意bonding driver和tc之间的queue编号偏移1,所以queue 1:1的意思是“让driver决定”,queue 1:2的意思是“一直通过tap0
”,queue 1:3的意思是“一直走”通过tap1
“)
队列也映射到接口:
# cat /proc/net/bonding/bond
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: load balancing (xor)
Transmit Hash Policy: layer3+4 (1)
MII Status: up
MII Polling Interval (ms): 1000
Up Delay (ms): 0
Down Delay (ms): 0
Peer Notification Delay (ms): 0
Slave Interface: tap0
MII Status: up
Speed: 10 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: xx:xx:xx:xx:xx:89
Slave queue ID: 1
Slave Interface: tap1
MII Status: up
Speed: 10 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: xx:xx:xx:xx:xx:d6
Slave queue ID: 2
如果我tcpdump
分别在接收端的两个tap,我可以清楚地看到无论使用哪个队列,特殊流量实际上仍然使用balance-xor
规则使用任一接口。现在 - 我在哪里错过了什么?