AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • 主页
  • 系统&网络
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • 主页
  • 系统&网络
    • 最新
    • 热门
    • 标签
  • Ubuntu
    • 最新
    • 热门
    • 标签
  • Unix
    • 最新
    • 标签
  • DBA
    • 最新
    • 标签
  • Computer
    • 最新
    • 标签
  • Coding
    • 最新
    • 标签
主页 / server / 问题

问题[bonding](server)

Martin Hope
Mikhail Kupchik
Asked: 2021-05-23 02:44:39 +0800 CST

无需 ifenslave 命令即可更改 Linux 网络绑定接口的活动从属设备

  • 1

Linux 支持绑定多个以太网网络接口以获得额外的可靠性或负载平衡。

绑定驱动程序过去是通过ifenslave命令配置的,该命令已被弃用(由iproute2ip工具包中的命令取代),因此已从内核源代码中删除。ifenslave

已弃用命令的一个特殊功能是我找不到现代等效命令,即更改绑定接口的活动从属设备(假设绑定接口在该active-backup模式下运行)。

例如,以下命令将eth0网卡设置为bond0接口的活动从属:

ifenslave -c bond0 eth0
ifenslave --change-active bond0 eth0

有没有办法使用iproute2ip工具包中的命令或通过 sysfs 更改 Linux 绑定接口的活动从属?

linux bonding linux-networking iproute2
  • 1 个回答
  • 2161 Views
Martin Hope
Meni
Asked: 2021-04-27 02:31:31 +0800 CST

网卡绑定很慢

  • 1

我有 2 个 dl380 g9 服务器,它们具有 2 个 nics 和 4 个端口,每个端口都运行 debian buster。我已将 7x 0.50m cat6e 跳线直接连接到服务器,并将两台服务器上的 /etc/network/interfaces (IP 地址略有不同)设置为:

auto lo
iface lo inet loopback

iface eno1 inet manual

auto eno2
iface eno2 inet manual

auto eno3
iface eno3 inet manual

auto eno4
iface eno4 inet manual

auto eno49
iface eno49 inet manual

auto eno50
iface eno50 inet manual

auto eno51
iface eno51 inet manual

auto eno52
iface eno52 inet manual

auto bond0
iface bond0 inet static
        address 10.10.10.11/24
        bond-slaves eno2 eno3 eno4 eno49 eno50 eno51 eno52
        bond-miimon 100
        bond-mode balance-rr

auto vmbr0
iface vmbr0 inet static
        address 10.0.0.234/16
        gateway 10.0.0.1
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0

计划是使用绑定连接在节点之间进行 zfs 复制。问题是我得到的 thourhgput 限制为 2.25gbps(取自 nload 的值)。情况的奇怪部分是,如果我绑定 3 个端口 insetad 的 7.......我再次获得 2.25gbps。就像没有使用4个端口一样。知道如何诊断问题吗?

debian bonding nic
  • 2 个回答
  • 868 Views
Martin Hope
RenWal
Asked: 2020-10-01 13:29:35 +0800 CST

为什么我与 multiq 的绑定接口忽略了 tc 的队列选择?

  • 0

在 Debian Buster,内核 5.4.51 上,我有两个接口tap0,并tap1以模式加入了一个绑定接口balance-xor以增加吞吐量。但是,有些流量必须通过tap0. 其余的我不在乎。

从理论上讲,bond 驱动程序可以使用tc过滤器和 multiq 来做到这一点,如驱动程序文档中所述。我可以在统计数据中看到声称使用了队列,但检查两个接口上的流量表明过滤器没有得到尊重。

这是我所做的:

我将每个分路接口分配给绑定上的队列,将排队规则设置为多队列,然后用于tc覆盖绑定的排队决策以强制流量192.168.1.100(例如)始终使用tap0.

# echo "tap0:1" > /sys/class/net/bond0/bonding/queue_id
# echo "tap1:2" > /sys/class/net/bond0/bonding/queue_id

# tc qdisc add dev bond0 handle 1 root multiq

# tc filter add dev bond0 protocol ip parent 1: prio 1 u32 match ip dst \
    192.168.1.100 action skbedit queue_mapping 1

在tc统计信息中,您可以看到实际使用了不同的队列:

# tc -s class show dev bond0
class multiq 1:1 parent 1: 
 Sent 377256252 bytes 2526104 pkt (dropped 0, overlimits 0 requeues 0) 
 backlog 0b 0p requeues 0
class multiq 1:2 parent 1: 
 Sent 21031 bytes 2982 pkt (dropped 0, overlimits 0 requeues 0) 
 backlog 0b 0p requeues 0
class multiq 1:3 parent 1: 
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0) 
 backlog 0b 0p requeues 0

大多数流量采用通用队列,特殊流量采用两个特定于接口的队列中的第一个。如果我再次删除tc filter,则特定队列 1:2 上的数据包计数器将停止。

(注意bonding driver和tc之间的queue编号偏移1,所以queue 1:1的意思是“让driver决定”,queue 1:2的意思是“一直通过tap0”,queue 1:3的意思是“一直走”通过tap1“)

队列也映射到接口:

# cat /proc/net/bonding/bond
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (xor)
Transmit Hash Policy: layer3+4 (1)
MII Status: up
MII Polling Interval (ms): 1000
Up Delay (ms): 0
Down Delay (ms): 0
Peer Notification Delay (ms): 0

Slave Interface: tap0
MII Status: up
Speed: 10 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: xx:xx:xx:xx:xx:89
Slave queue ID: 1

Slave Interface: tap1
MII Status: up
Speed: 10 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: xx:xx:xx:xx:xx:d6
Slave queue ID: 2

如果我tcpdump分别在接收端的两个tap,我可以清楚地看到无论使用哪个队列,特殊流量实际上仍然使用balance-xor规则使用任一接口。现在 - 我在哪里错过了什么?

bonding tc linux-networking
  • 1 个回答
  • 395 Views
Martin Hope
Freeman di
Asked: 2020-08-01 23:32:25 +0800 CST

我正在尝试绑定两个 Internet 上行链路以提高 VPN 速度,但没有运气

  • 1

我正在尝试在本指南下绑定两个 Internet 上行链路以提高 VPN 速度: 如何绑定两个(多个)Internet 连接以提高速度和故障转移

但是我有一些问题:

我已经为此工作了好几天,但它从来没有工作过。

首先,我的网络拓扑:https ://i.imgur.com/yEj6JGM.png

在我的场景中,请查看我的配置:

客户端:

vim /etc/网络/接口

auto ens160
iface ens160 inet static
  address 192.168.50.254
  netmask 255.255.255.0
  gateway 192.168.50.1
  post-up /usr/local/bin/vpn-start
  pre-down /usr/local/bin/vpn-stop

我的路由是否在 vpn-start 中正确设置?

# vim /usr/local/bin/vpn-start
#!/bin/bash
openvpn --config /etc/openvpn/tap0.conf
openvpn --config /etc/openvpn/tap1.conf
ip link add bond0 type bond
ip addr add 10.80.0.2/30 dev bond0

ip link set tap0 master bond0
ip link set tap1 master bond0
ip link set bond0 up mtu 1440
ip route add 192.168.50.0/24 via 10.80.0.1  <--Is this right?

防火墙配置怎么样?

version 6

lan="ens160"
vpn="bond+"

interface "${lan}" lan
  policy accept

interface "${vpn}" vpn
  policy accept

router vpn2lan inface "${vpn}" outface "${lan}"
  policy accept

服务器端:

tap0.conf:

# disable encryption, traffic continues unencrypted anyways
auth none
cipher none
dev tap0
mode p2p
port 1194
local 192.168.0.250   <-- Local ip or public ip?
proto udp
log /var/log/tap0.log
verb 3
ping 2
ping-restart 10
persist-tun
compress lz4-v2
daemon

防火墙配置:

version 6
server_vpn_ports="udp/1194-1195"
client_vpn_ports="default"
snat4 to 192.168.0.250 outface ens33 dst not 192.168.0.250  <-- What does this mean? local ip or public ip?
interface ens33 web
  protection strong
  server ssh accept
  server vpn accept
  # more servers here as per your needs
  client all accept
interface bond0 vpn
  policy accept
router4 web2vpn inface ens33 outface bond0 dst 192.168.50.0/24,10.80.0.2  <--Is this right?
  client all accept

完成所有设置后,链接似乎已建立:

客户端:

root@ubcloud:~# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: down
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

客户端 tap1.log:

Sat Aug  1 06:44:39 2020 ******* WARNING *******: All encryption and authentication features disabled -- All data will be tunnelled as clear text and will not be protected against man-in-the-middle changes. PLEASE DO RECONSIDER THIS CONFIGURATION!
Sat Aug  1 06:44:39 2020 Preserving previous TUN/TAP instance: tap1
Sat Aug  1 06:44:39 2020 TCP/UDP: Preserving recently used remote address: [AF_INET]118.152.247.193:1195
Sat Aug  1 06:44:39 2020 Socket Buffers: R=[212992->212992] S=[212992->212992]
Sat Aug  1 06:44:39 2020 UDP link local (bound): [AF_INET]192.168.50.254:1195
Sat Aug  1 06:44:39 2020 UDP link remote: [AF_INET]118.152.247.193:1195
Sat Aug  1 06:44:39 2020 Peer Connection Initiated with [AF_INET]118.152.247.193:1195
Sat Aug  1 06:44:41 2020 Initialization Sequence Completed

从客户端 ping 隧道 ip:

root@ubcloud:~# ping 10.80.0.2
PING 10.80.0.2 (10.80.0.2) 56(84) bytes of data.
64 bytes from 10.80.0.2: icmp_seq=1 ttl=64 time=0.019 ms
64 bytes from 10.80.0.2: icmp_seq=2 ttl=64 time=0.025 ms
64 bytes from 10.80.0.2: icmp_seq=3 ttl=64 time=0.026 ms
^C
--- 10.80.0.2 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2050ms
rtt min/avg/max/mdev = 0.019/0.023/0.026/0.005 ms
root@ubcloud:~# ping 10.80.0.1
PING 10.80.0.1 (10.80.0.1) 56(84) bytes of data.
From 10.80.0.2 icmp_seq=1 Destination Host Unreachable
From 10.80.0.2 icmp_seq=2 Destination Host Unreachable
From 10.80.0.2 icmp_seq=3 Destination Host Unreachable

服务器端:

root@ubcloud:~# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: tap0
MII Status: up
Speed: 10 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: a6:fa:e9:55:79:2c
Slave queue ID: 0

Slave Interface: tap1
MII Status: up
Speed: 10 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: ae:b9:4a:50:b0:dc
Slave queue ID: 0

服务器 tap0.log:

root@ubcloud:~# cat /var/log/tap0.log
Sat Aug  1 06:43:27 2020 disabling NCP mode (--ncp-disable) because not in P2MP client or server mode
Sat Aug  1 06:43:27 2020 OpenVPN 2.4.9 x86_64-pc-linux-gnu [SSL (OpenSSL)] [LZO] [LZ4] [EPOLL] [PKCS11] [MH/PKTINFO] [AEAD] built on Oct 30 2019
Sat Aug  1 06:43:27 2020 library versions: OpenSSL 1.1.1  11 Sep 2018, LZO 2.08
Sat Aug  1 06:43:27 2020 ******* WARNING *******: All encryption and authentication features disabled -- All data will be tunnelled as clear text and will not be protected against man-in-the-middle changes. PLEASE DO RECONSIDER THIS CONFIGURATION!
Sat Aug  1 06:43:27 2020 TUN/TAP device tap0 opened
Sat Aug  1 06:43:27 2020 TUN/TAP TX queue length set to 100
Sat Aug  1 06:43:27 2020 Could not determine IPv4/IPv6 protocol. Using AF_INET
Sat Aug  1 06:43:27 2020 Socket Buffers: R=[212992->212992] S=[212992->212992]
Sat Aug  1 06:43:27 2020 UDPv4 link local (bound): [AF_INET]192.168.0.250:1194
Sat Aug  1 06:43:27 2020 UDPv4 link remote: [AF_UNSPEC]
Sat Aug  1 06:43:30 2020 Peer Connection Initiated with [AF_INET]172.227.224.139:1194
Sat Aug  1 06:43:30 2020 WARNING: this configuration may cache passwords in memory -- use the auth-nocache option to prevent this
Sat Aug  1 06:43:30 2020 Initialization Sequence Completed

从服务器 ping 隧道 ip:

root@ubcloud:~# ping 10.80.0.1
PING 10.80.0.1 (10.80.0.1) 56(84) bytes of data.
64 bytes from 10.80.0.1: icmp_seq=1 ttl=64 time=0.048 ms
64 bytes from 10.80.0.1: icmp_seq=2 ttl=64 time=0.059 ms
^C
--- 10.80.0.1 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1030ms
rtt min/avg/max/mdev = 0.048/0.053/0.059/0.009 ms
root@ubcloud:~# ping 10.80.0.2
PING 10.80.0.2 (10.80.0.2) 56(84) bytes of data.
From 10.80.0.1 icmp_seq=1 Destination Host Unreachable
From 10.80.0.1 icmp_seq=2 Destination Host Unreachable
From 10.80.0.1 icmp_seq=3 Destination Host Unreachable

任何想法我做错了什么?如何在客户端设置路由,让局域网内的所有流量让局域网内的流量通过隧道从服务器出去?

再次感谢!

networking bonding
  • 2 个回答
  • 298 Views
Martin Hope
John.M
Asked: 2020-07-12 18:29:29 +0800 CST

冗余 Mikrotik 开关绑定模式

  • 0

我能找到的所有关于冗余交换机的帖子都只针对连接到交换机的服务器。我需要在服务器和处理流量的路由器上确认我的配置。

我们正在使用 Mikrotik 路由器和交换机,我正在计划以下配置。

                         +----------+
            +------------+ CCR 1072 +-------------+
            |       sfp1 +----------+ sfp2        |
            |         bond (balance-xor)          |
      +-----+----+                          +-----+----+
      |          |                          |          |
      | switch A +                          + switch B |
      |  CRS 317 |                          |  CRS 317 |
      +-----+----+                          +-----++---+
            |                                     |  
            |             +-------+               |
            +-------------+ host1 +---------------+
                     eth0 +-------+ eth1
                     bond (active/backup)

没有交换机的链接或堆叠。我不需要负载平衡,我只是在这个阶段寻找冗余。我也考虑过路由器端的活动/备份,但是如果路由器上的 sfp1 失败并且主机上的 eth0 仍然可以到达交换机,我想知道这是否会保持正常并且流量会停止。

我在正确的轨道上吗?

有什么我需要考虑的,比如 STP 吗?

我应该改用 802.3ad 吗?

bonding mikrotik
  • 1 个回答
  • 1328 Views
Martin Hope
Ali1928
Asked: 2020-02-28 06:38:57 +0800 CST

在 RHEL 上创建端口绑定的正确方法是什么?

  • 0

我的服务器上有数据接口:eno5、eno6、ens3f0 和 ens3f1。我需要使用 VLAN ID 101 和绑定名称 data0 的这四个接口创建端口绑定。

更多信息:

  • RHEL 7.6
  • 检查接口名称。(我已经拔掉了电缆,一个接口坏了)
  • 我很可能会为此设置使用模式 4。(不是网络人..)
  • UUID 已经在配置文件中。我什么都没改变。

编辑:更多信息:

  • 没有虚拟化。我们在这里谈论的是物理机器。
  • 交换机配置已全部设置。
  • 这是一个全新的、最小化的安装。是否有任何必要的软件包、内核模块或系统配置?

第一次尝试:在这个 RHEL 文档中做了所有的事情:https ://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/6/html/deployment_guide/sec-configuring_a_vlan_over_a_bond

除了这个文件有两个接口,但我有四个。我用自己的值更改了接口和键名。而且当然; IP、网关和子网也是我自己的。

结果: systemctl restart network 没问题。但是接口甚至不能ping它自己的网关......

关于这个尝试:

  • 模式选择在文档上完全相同

第二次尝试:完全完成了本文档中的所有内容:http: //villasyslog.net/rhel-bonding-and-vlan-tagging/

再一次,我有四个接口,所以改变了值。

结果: systemctl restart network 失败。我的债券没有得到 IPv4 地址。相反,它显示了我的一些愚蠢的 IPv6 东西。

关于这个尝试:

  • 没有 /etc/modprobe.d/bonding.conf 文件。

第一次尝试时,我在 /etc/sysconfig/network-scripts/ifcfg-* 下有四个接口的文件和一个绑定配置文件(总共 5 个)。

第二份文件建议更多文件。四个接口,一个用于绑定,一个用于 VLAN 标记。不幸的是,我没有第一个配置文件,但我有第二个。他们来了:

ifcfg-数据0

DEVICE=data0
BOOTPROTO=none
ONBOOT=yes
USERCTL=no
BONDING_MODULE_OPTS="mode=4 miimon=100"
BONDING_SLAVE0=ens3f1
BONDING_SLAVE1=ens3f0
BONDING_SLAVE2=eno6
BONDING_SLAVE3=eno5
VLAN=yes
IPV6INIT=no

ifcfg-data0.101

DEVICE=data0.101
BOOTPROTO=none
ONBOOT=yes
IPADDR=host IP
NETMASK=netmask
GATEWAY=gateway
NETWORK=first IP of network
BROADCAST=broadcast IP
USERCTL=no
BONDING_MODULE_OPTS="mode=4 miimon=100"
BONDING_SLAVE0="ens3f1"
BONDING_SLAVE1="ens3f0"
BONDING_SLAVE2="eno6"
BONDING_SLAVE3="eno5"
VLAN=yes
IPV6INIT=no

其他四个接口:

TYPE=Ethernet
BOOTPROTO=none
UUID=device uuid
DEVICE=eno5
ONBOOT=yes
MASTER=data0
SLAVE=yes
NM_CONTROLLED=no

TYPE=Ethernet
BOOTPROTO=none
UUID=device uuid
DEVICE=eno6
ONBOOT=yes
MASTER=data0
SLAVE=yes
NM_CONTROLLED=no

TYPE=Ethernet
BOOTPROTO=none
UUID=device uuid
DEVICE=ens3f0
ONBOOT=yes
MASTER=data0
SLAVE=yes
NM_CONTROLLED=no

TYPE=Ethernet
BOOTPROTO=none
UUID=device uuid
DEVICE=ens3f1
ONBOOT=yes
MASTER=data0
SLAVE=yes
NM_CONTROLLED=no

/proc/net/绑定请求:

我在 /proc/net/bonding 下看到两个文件。其中之一是bond0,我不知道那是什么:

债券0

Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: down
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

数据

Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: ens3f1
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: (MAC is here)
Slave queue ID: 0

Slave Interface: ens3f0
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: (MAC is here)
Slave queue ID: 0

Slave Interface: eno6
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: (MAC is here)
Slave queue ID: 0

Slave Interface: eno5
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: (MAC is here)
Slave queue ID: 0

systemctl 重启网络:

Job for network.service failed because the control process exited with error code. See "systemctl status network.service" and "journalctl -xe" for details.

systemctl 状态网络:

● network.service - LSB: Bring up/down networking
   Loaded: loaded (/etc/rc.d/init.d/network; bad; vendor preset: disabled)
   Active: failed (Result: exit-code) since Fri 2020-02-28 13:48:49 +03; 32s ago
     Docs: man:systemd-sysv-generator(8)
  Process: 37887 ExecStart=/etc/rc.d/init.d/network start (code=exited, status=1/FAILURE)

Feb 28 13:48:49 (host name here) network[37887]: RTNETLINK answers: File exists
Feb 28 13:48:49 (host name here) network[37887]: RTNETLINK answers: File exists
Feb 28 13:48:49 (host name here) network[37887]: RTNETLINK answers: File exists
Feb 28 13:48:49 (host name here) network[37887]: RTNETLINK answers: File exists
Feb 28 13:48:49 (host name here) network[37887]: RTNETLINK answers: File exists
Feb 28 13:48:49 (host name here) network[37887]: RTNETLINK answers: File exists
Feb 28 13:48:49 (host name here) systemd[1]: network.service: control process exited, code=exited status=1
Feb 28 13:48:49 (host name here) systemd[1]: Failed to start LSB: Bring up/down networking.
Feb 28 13:48:49 (host name here) systemd[1]: Unit network.service entered failed state.
Feb 28 13:48:49 (host name here) systemd[1]: network.service failed.

起初,NetworkManager 正在运行。我已禁用它,但 systemctl restart network 仍然失败。systemctl status NetworkManager 的输出:

● NetworkManager.service - Network Manager
   Loaded: loaded (/usr/lib/systemd/system/NetworkManager.service; disabled; vendor preset: enabled)
   Active: inactive (dead) since Fri 2020-02-28 13:46:58 +03; 2min 13s ago
     Docs: man:NetworkManager(8)
 Main PID: 35612 (code=exited, status=0/SUCCESS)

Feb 27 16:26:51 (host name here) NetworkManager[35612]: <info>  [1582810011.3824] agent-manager: req[0x56187f15d3c0, :1.936/nmcli-connect/0]: agent registered
Feb 27 16:26:51 (host name here) NetworkManager[35612]: <info>  [1582810011.3830] audit: op="connection-activate" uuid="09bce14a-449a-3065-8d1b-d4bcde243bd8" name="Vlan data0.744" result="fail" reason="Failed to find a compatible device for this connection"
Feb 28 13:46:58 (host name here) systemd[1]: Stopping Network Manager...
Feb 28 13:46:58 (host name here) NetworkManager[35612]: <info>  [1582886818.8800] caught SIGTERM, shutting down normally.
Feb 28 13:46:58 (host name here) NetworkManager[35612]: <info>  [1582886818.8846] device (ens3f0): released from master device data.744
Feb 28 13:46:58 (host name here) NetworkManager[35612]: <info>  [1582886818.8851] device (ens3f1): released from master device data.744
Feb 28 13:46:58 (host name here) NetworkManager[35612]: <info>  [1582886818.8856] device (eno5): released from master device data.744
Feb 28 13:46:58 (host name here) NetworkManager[35612]: <info>  [1582886818.8860] device (eno6): released from master device data.744
Feb 28 13:46:58 (host name here) NetworkManager[35612]: <info>  [1582886818.8890] exiting (success)
Feb 28 13:46:58 (host name here) systemd[1]: Stopped Network Manager.
linux redhat networking bonding
  • 1 个回答
  • 852 Views
Martin Hope
A. Joesbury
Asked: 2019-04-09 02:59:32 +0800 CST

是否可以使用 Link Aggregation 连接到两个非托管交换机,从而提供交换机冗余?

  • 0

假设我有一个支持循环或负载平衡链路聚合的防火墙(不需要 LACP),是否可以将 LAGG 组中的每个 NIC 连接到单独的非托管交换机?

如果我要连接具有类似配置的绑定 NIC 的客户端计算机/服务器,每个交换机使用一根电缆,我会实现交换机冗余吗?

目前所有假设都是假设,因为我试图确定这种设置是否需要使用 LACP 开关。

bonding
  • 2 个回答
  • 509 Views
Martin Hope
ananthan
Asked: 2017-03-08 00:27:03 +0800 CST

为什么 echo "ens6f1" > 解释为 ns6f1 即没有 "e"

  • 1

我正在尝试执行

echo "ens6f1" > /sys/class/net/bond0/bonding/slaves

但出现错误:

bond0:接口ns6f1不存在!

这是一个“回声”问题还是我正在尝试编写的文件的一些问题。

Ubuntu 14.04.4

ip l l ens6f1
25: ens6f1: <BROADCAST,MULTICAST> mtu 1500 qdisc mq state DOWN mode DEFAULT group default qlen 1000
link/ether 14:02:ec:67:fd:95 brd ff:ff:ff:ff:ff:ff
linux bonding linux-networking ubuntu-14.04
  • 1 个回答
  • 62 Views
Martin Hope
Tomer Schweid
Asked: 2017-01-21 17:38:07 +0800 CST

RHEL 绑定中的一个奴隶不起作用

  • 1

我有一个红帽企业 Linux 6.3 vm (VMware vsphere)。

我从两个接口创建了一个绑定,它可以工作,但只有在活动时才eth0有效。当我使用ifdown eth0或echo -eth0 > /sys/class/net/bond0/bonding/slaves失去与绑定的网络连接时。

我可以在 cat 上看到/proc/net/bond0这两个接口处于绑定状态,并且当eth1处于活动状态时它不起作用。

如果我eth0再次添加它仍然不起作用,因为 eth1 是活动的。仅当我删除并读取它eth1的键时它才起作用(使eth0激活)

绑定当然处于容错模式。

奇怪的是,如果我eth1从键中删除并将其定义为一个简单的接口,它就可以正常工作!

我尝试重新启动(很多次),但在网上找不到任何帮助。我什至尝试删除接口(从 VMware 端)并添加一个新接口,但这并没有帮助。有人知道吗?

有些命令可能不准确,因为我是用我的记忆从手机上写的,但我想你知道我的意思,只是不要暗示错字或语法错误是问题所在。

提前致谢

linux redhat networking bonding linux-networking
  • 1 个回答
  • 2319 Views
Martin Hope
Kris_R
Asked: 2017-01-21 09:13:29 +0800 CST

在 iSCSI SAN 上只能访问两个 SFP 端口之一

  • 5

我有一台带有 HP NC523 双 10GbE 网卡和带有双 10GbE iSCSI 控制器的 HP MSA1040 存储的服务器。

NC523 上的两个端口都配置为绑定。MSA 上的端口具有不同的 IP 地址。

我想将此系统配置为使用 20Gb 带宽(即 linux 服务器上的绑定和 MSA 上的多路径)。不应使用开关,只需直接连接即可。

如果 MSA 的两个端口都用光缆连接,则只能通过 ping 访问一个端口(并且可能因此我无法初始化多路径)。我交叉检查了所有硬件组件,只要只有一条线将服务器与 MSA 连接起来,所有这些组件都可以在每种可能的组合中工作。

有人可以建议我解决这个问题吗?

ps

我有另一台类似的服务器,带有“普通”四通道 1 GbE 铜网卡和带有四通道 1 GbE iSCSI 控制器的旧 HP P2000 存储。类似的配置在这里工作没有任何问题。服务器上的四个接口绑定到一个绑定,并且 iSCSI 存储的每个端口都可以被 ping 通,并且多路径也可以工作。两台机器都运行 CentOS 7。

iscsi bonding multipath
  • 2 个回答
  • 552 Views

Sidebar

Stats

  • 问题 205573
  • 回答 270741
  • 最佳答案 135370
  • 用户 68524
  • 热门
  • 回答
  • Marko Smith

    新安装后 postgres 的默认超级用户用户名/密码是什么?

    • 5 个回答
  • Marko Smith

    SFTP 使用什么端口?

    • 6 个回答
  • Marko Smith

    命令行列出 Windows Active Directory 组中的用户?

    • 9 个回答
  • Marko Smith

    什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同?

    • 3 个回答
  • Marko Smith

    如何确定bash变量是否为空?

    • 15 个回答
  • Martin Hope
    Tom Feiner 如何按大小对 du -h 输出进行排序 2009-02-26 05:42:42 +0800 CST
  • Martin Hope
    Noah Goodrich 什么是 Pem 文件,它与其他 OpenSSL 生成的密钥文件格式有何不同? 2009-05-19 18:24:42 +0800 CST
  • Martin Hope
    Brent 如何确定bash变量是否为空? 2009-05-13 09:54:48 +0800 CST
  • Martin Hope
    cletus 您如何找到在 Windows 中打开文件的进程? 2009-05-01 16:47:16 +0800 CST

热门标签

linux nginx windows networking ubuntu domain-name-system amazon-web-services active-directory apache-2.4 ssh

Explore

  • 主页
  • 问题
    • 最新
    • 热门
  • 标签
  • 帮助

Footer

AskOverflow.Dev

关于我们

  • 关于我们
  • 联系我们

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve