我有几台 Hetzner AX 和 EX 系列(AMD 和 Intel)的服务器,我用 Centos 8 安装,然后迁移到 Centos Stream,但每次尝试使用 Stream 中的任何图像引导时都会出现内核恐慌。
当然,除了声称没有已知问题(HA!)之外,它们对潜在内核配置的建议并不是很有帮助。由于它甚至没有进入日志记录,我非常无助。
我已经在各种 PC 上完成了 10 次到 Stream 的迁移,但我只遇到了 HZ 服务器的问题。
有人对此有任何想法吗?
我有几台 Hetzner AX 和 EX 系列(AMD 和 Intel)的服务器,我用 Centos 8 安装,然后迁移到 Centos Stream,但每次尝试使用 Stream 中的任何图像引导时都会出现内核恐慌。
当然,除了声称没有已知问题(HA!)之外,它们对潜在内核配置的建议并不是很有帮助。由于它甚至没有进入日志记录,我非常无助。
我已经在各种 PC 上完成了 10 次到 Stream 的迁移,但我只遇到了 HZ 服务器的问题。
有人对此有任何想法吗?
我有两个子网。
192.168.232.0/28
192.168.232.16/28
Cloudprovider(Hetzner) 给了我一个网关192.168.232.17 for the subnet 192.168.232.16/28
。我client 192.168.232.19
在这个子网中有一个窗口。我Mikrotik/Firewall/Gateway on 192.168.232.2
在子网 192.168.232.0/28 中有一个。
如果我在 192.168.232.19 上使用默认网关 192.168.232.17,我可以 ping 192.168.232.2,反之亦然。
但我希望 192.168.232.2 成为默认网关。
我在 Windows 客户端上尝试了这些路由:
192.168.232.0/24 via 192.168.232.17
0.0.0.0/0 via 192.168.232.2
但它不起作用。我错过了什么?
我有多个带 hetzner 的专用服务器并连接到一个 vSwitch。我可以使用 vswitch 连接 vlan 上的专用服务器。但我正在努力将专用服务器内的虚拟机连接到 VLAN。因此 vm 也可以在 vlan(私有)上连接到其他专用服务器或其他专用服务器上的 VM。仅供参考,我使用 virtulizor 进行虚拟化,使用路由网络进行 VM(附加 ips)。如果需要任何其他信息,请建议或让我知道。
谢谢
维韦克
我已经使用 Hetzner 设置了一个运行 Ubuntu 20.04 LTS 的全新 VPS,并希望通过 ssh 访问它。
这是我尝试做的事情:
ssh-rsa blahblahblah= [email protected]
ssh-copy-id
这个密钥连接到服务器时,我遇到了问题。由于我还没有登录到服务器来创建用户,我不知道user
在这个命令中该放什么:ssh-copy-id -i .ssh/id_rsa_pub [user]@serveraddress
我尝试将密钥添加到 root 用户,如下所示:
ssh-copy-id -i .ssh/id_rsa_pub [user]@serveraddress
但随后我被提示输入我不知道的密码。
这使我想到了以下我很难找到答案的问题:
1.如果我还没有设置用户,如何使用ssh-copy-id
将我的公钥复制到服务器?
2.服务器的默认root
密码是多少?我怎么会发现这个?我已经尝试过ubuntu
,,,root
基础。
3.在服务器主机的网站上通过GUI添加公钥通常对服务器用户有什么作用?它是否将密钥添加到known_hosts
文件中?
4.目前,我的公共 ssh 密钥中最后一条注释行的技术意义是什么[email protected]
?
我正在尝试在 Hetzner 机器上配置 Virtualizor 实例,但我无法使其工作,因为我需要“nat”IPV6 子网。
我将我的 /64 子网划分为多个 /80 子网,并添加了一些地址供机器使用。我尝试使用“路由网络”选项,但它不起作用。
我正在使用带有这样的 netplan brdige 的 ubuntu 18.04 LTS:
network:
version: 2
renderer: networkd
ethernets:
enp35s0:
match:
macaddress: 70:**:**:**:**:30
dhcp4: no
dhcp6: no
bridges:
viifbr0:
macaddress: 70:**:**:**:**:30
interfaces:
- enp35s0
dhcp4: no
dhcp6: no
addresses:
- ***.***.85.132/32
- 2a01:4f8:***:***::2/64
routes:
- to: 0.0.0.0/0
via: ***.***.85.129
on-link: true
gateway6: fe80::1
nameservers:
addresses:
- 213.133.100.100
- 213.133.98.98
- 213.133.99.99
- 2a01:4f8:0:1::add:1010
- 2a01:4f8:0:1::add:9999
- 2a01:4f8:0:1::add:9898
我不知道我该如何解决这个问题,支持人员说这是不可能的..
如果我可以像在 IPV4 中那样使用 NAT 选项,我认为这不是问题。
在下面指定的环境中,IPv4 像猫一样发出咕噜声,但 IPv6 会在短时间内消失——即即使主机也无法通过 Docker 网络通过 IPv6 访问其容器。我错过了什么?
替换 64:ff9b:: w/ 全局,但问题仍然存在。主机失去了与直接连接的 Docker 容器的 IPv6(但不是 IPv4)连接。首先“没有到主机的路由”,然后超时。
---
- hosts: all
become: yes
become_method: sudo
tasks:
- import_tasks: tasks/firewall.yml
- import_tasks: tasks/router.yml
- import_tasks: tasks/docker.yml
- name: /usr/local/docker-services
file:
path: /usr/local/docker-services
owner: root
group: root
mode: '0700'
state: directory
- name: nginx-site.conf
copy:
dest: /usr/local/docker-services/nginx-site.conf
owner: root
group: root
mode: '0666'
src: files/nginx-site.conf
- name: docker-compose.yml
copy:
dest: /usr/local/docker-services/docker-compose.yml
owner: root
group: root
mode: '0666'
content: |
version: '2.4'
networks:
ext-nginx:
internal: true
enable_ipv6: true
driver_opts:
com.docker.network.bridge.name: docker1
ipam:
config:
- subnet: 192.168.234.0/30
gateway: 192.168.234.1
- subnet: 64:ff9b::192.168.234.0/126
gateway: 64:ff9b::192.168.234.1
services:
nginx:
container_name: nginx
image: nginx
restart: always
logging:
options:
labels: container
labels:
container: nginx
networks:
ext-nginx:
ipv4_address: 192.168.234.2
ipv6_address: 64:ff9b::192.168.234.2
priority: 1
volumes:
- type: bind
source: /usr/local/docker-services/nginx-site.conf
target: /etc/nginx/conf.d/default.conf
read_only: true
register: docker_compose_yml
- name: docker-compose.service
copy:
dest: /etc/systemd/system/docker-compose.service
owner: root
group: root
mode: '0644'
src: files/docker-compose.service
register: docker_compose_service
- name: systemctl daemon-reload
when: docker_compose_service.changed
systemd:
daemon_reload: yes
- name: systemctl stop docker-compose.service
when: >-
docker_compose_service.changed
or docker_compose_yml.changed
service:
name: docker-compose
state: stopped
- name: systemctl start docker-compose.service
service:
name: docker-compose
state: started
enabled: yes
---
- name: Firewall rules applicator
apt:
name: iptables-persistent
- name: Firewall rules file
loop: [4, 6]
copy:
dest: '/etc/iptables/rules.v{{ item }}'
owner: root
group: root
mode: '0644'
src: 'files/firewall/rules.v{{ item }}'
register: firewall_file
- name: Apply firewall rules
when: 'firewall_file.results[0].changed or firewall_file.results[1].changed'
service:
name: netfilter-persistent
state: restarted
---
- name: net.ipv4.ip_forward
sysctl:
name: net.ipv4.ip_forward
value: '1'
- name: net.ipv6.conf.all.forwarding
sysctl:
name: net.ipv6.conf.all.forwarding
value: '1'
---
- name: apt-transport-https
apt:
name: apt-transport-https
- name: Docker apt key
apt_key:
url: https://download.docker.com/linux/debian/gpg
- name: Docker apt repo
apt_repository:
filename: docker
repo: >
deb https://download.docker.com/linux/debian
{{ ansible_lsb.codename }} stable
- name: /etc/docker
file:
path: /etc/docker
owner: root
group: root
mode: '0755'
state: directory
- name: /etc/docker/daemon.json
copy:
dest: /etc/docker/daemon.json
owner: root
group: root
mode: '0644'
content: '{"iptables":false}'
- name: Docker
apt:
name: docker-ce
- name: Docker compose
apt:
name: docker-compose
*filter
:INPUT DROP [0:0]
:FORWARD DROP [0:0]
:OUTPUT ACCEPT [0:0]
-A INPUT -d 127.0.0.0/8 ! -i lo -j DROP
-A INPUT -i lo -j ACCEPT
-A INPUT -p tcp -m tcp --dport 22 -j ACCEPT
-A INPUT -m conntrack --ctstate ESTABLISHED,RELATED -j ACCEPT
-A FORWARD -o docker1 -d 192.168.234.2/32 -p tcp -m tcp --dport 80 -j ACCEPT
-A FORWARD -i docker1 -o eth0 -j ACCEPT
-A FORWARD -m conntrack --ctstate ESTABLISHED,RELATED -j ACCEPT
COMMIT
*nat
:PREROUTING ACCEPT [0:0]
:INPUT ACCEPT [0:0]
:OUTPUT ACCEPT [0:0]
:POSTROUTING ACCEPT [0:0]
-A PREROUTING -i eth0 -d 78.47.124.58 -p tcp -m tcp --dport 80 -j DNAT --to 192.168.234.2
-A POSTROUTING -o eth0 ! -s 78.47.124.58 -j MASQUERADE
COMMIT
*filter
:INPUT DROP [0:0]
:FORWARD DROP [0:0]
:OUTPUT ACCEPT [0:0]
-A INPUT -d ::1/128 ! -i lo -j DROP
-A INPUT -i lo -j ACCEPT
-A INPUT -p tcp -m tcp --dport 22 -j ACCEPT
-A INPUT -m conntrack --ctstate ESTABLISHED,RELATED -j ACCEPT
-A FORWARD -o docker1 -d 64:ff9b::192.168.234.2 -p tcp -m tcp --dport 80 -j ACCEPT
-A FORWARD -i docker1 -o eth0 -j ACCEPT
-A FORWARD -m conntrack --ctstate ESTABLISHED,RELATED -j ACCEPT
COMMIT
*nat
:PREROUTING ACCEPT [0:0]
:INPUT ACCEPT [0:0]
:OUTPUT ACCEPT [0:0]
:POSTROUTING ACCEPT [0:0]
-A PREROUTING -i eth0 -d 2a01:4f8:c0c:3bc1::/64 -p tcp -m tcp --dport 80 -j DNAT --to 64:ff9b::192.168.234.2
-A POSTROUTING -o eth0 ! -s 2a01:4f8:c0c:3bc1::/64 -j MASQUERADE
COMMIT
server {
listen 80;
listen [::]:80;
server_name localhost;
location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root /usr/share/nginx/html;
}
}
[Unit]
Requires=docker.service
[Service]
Type=oneshot
RemainAfterExit=yes
WorkingDirectory=/usr/local/docker-services
ExecStart=/usr/bin/docker-compose up -d --force-recreate
ExecStop=/usr/bin/docker-compose down
[Install]
WantedBy=multi-user.target
我的 XenServer 7.0 VM 运行 Ubuntu 16.04 和内核 4.4.0 决定在重新启动整个机器或重置网络接口后不久停止接收 IPv6 数据包。
tcpdump
虽然一切正常,但在 XenServer 主机上运行会在 ping facebook.com 时显示以下内容:
[root@localhost ~]# tcpdump -i xenbr0 -vv ip6
tcpdump: listening on xenbr0, link-type EN10MB (Ethernet), capture size 65535 bytes
^C
[root@localhost ~]# tcpdump -i eth0 -vv ip6
tcpdump: WARNING: eth0: no IPv4 address assigned
tcpdump: listening on eth0, link-type EN10MB (Ethernet), capture size 65535 bytes
09:25:26.063597 IP6 (flowlabel 0xa64ab, hlim 64, next-header ICMPv6 (58) payload length: 64) 2a01:4f8:xxxx:yyyy::3 > edge-star-mini6-shv-01-amt2.facebook.com: [icmp6 sum ok] ICMP6, echo request, seq 1
09:25:26.074727 IP6 (class 0x40, hlim 56, next-header ICMPv6 (58) payload length: 64) edge-star-mini6-shv-01-amt2.facebook.com > 2a01:4f8:xxxx:yyyy::3: [icmp6 sum ok] ICMP6, echo reply, seq 1
09:25:27.070651 IP6 (flowlabel 0xa64ab, hlim 64, next-header ICMPv6 (58) payload length: 64) 2a01:4f8:xxxx:yyyy::3 > edge-star-mini6-shv-01-amt2.facebook.com: [icmp6 sum ok] ICMP6, echo request, seq 2
09:25:27.081839 IP6 (class 0x40, hlim 56, next-header ICMPv6 (58) payload length: 64) edge-star-mini6-shv-01-amt2.facebook.com > 2a01:4f8:xxxx:yyyy::3: [icmp6 sum ok] ICMP6, echo reply, seq 2
^C
一切如预期。大约 15-30 分钟后,虚拟机停止看到回显回复,我从以下渠道得到tcpdump
:
[root@localhost ~]# tcpdump -i xenbr0 -vv ip6
tcpdump: listening on xenbr0, link-type EN10MB (Ethernet), capture size 65535 bytes
09:28:23.106447 IP6 (class 0x40, hlim 56, next-header ICMPv6 (58) payload length: 64) edge-star-mini6-shv-01-amt2.facebook.com > 2a01:4f8:xxxx:yyyy::3: [icmp6 sum ok] ICMP6, echo reply, seq 1
09:28:24.113032 IP6 (class 0x40, hlim 56, next-header ICMPv6 (58) payload length: 64) edge-star-mini6-shv-01-amt2.facebook.com > 2a01:4f8:xxxx:yyyy::3: [icmp6 sum ok] ICMP6, echo reply, seq 2
^C
[root@localhost ~]# tcpdump -i eth0 -vv ip6
tcpdump: WARNING: eth0: no IPv4 address assigned
tcpdump: listening on eth0, link-type EN10MB (Ethernet), capture size 65535 bytes
09:31:37.437793 IP6 (flowlabel 0x37012, hlim 64, next-header ICMPv6 (58) payload length: 64) 2a01:4f8:xxxx:yyyy::3 > edge-star-mini6-shv-01-fra3.facebook.com: [icmp6 sum ok] ICMP6, echo request, seq 19
09:31:37.442832 IP6 (class 0x40, hlim 57, next-header ICMPv6 (58) payload length: 64) edge-star-mini6-shv-01-fra3.facebook.com > 2a01:4f8:xxxx:yyyy::3: [icmp6 sum ok] ICMP6, echo reply, seq 19
^C
出于某种原因,当事情停止工作时,回显回复也会通过 xenbr0 接口,而不仅仅是 eth0。
在客人身上运行service networking stop && service networking start
会使一切重新工作。在 XenServer 上禁用和重新启用 VM 网络链接没有帮助。我已经尝试在虚拟机上禁用路由器广告,但这也无济于事。
我不知道这是从哪里来的,不知道是 XenServer 问题还是 Ubuntu/Linux 问题。在 xenbr0 上看到的任性数据包似乎指向 XenServer,重置 VM 网络堆栈有助于这一事实似乎指向 Linux...
更新
在阅读了一些关于 XenServer 网络的信息后,问题似乎是 XenServer 虚拟交换机将数据包路由到了错误的接口。预期的流量是eth0 -> vif2.0
,但是数据包会eth0 -> xenbr0
在 Dom0 机器上结束,而不是在正确的 DomU 上结束。在 DomU 上重新启动网络后,一些随后发送的邻居请求或邻居广告似乎暂时解决了该问题:
13:50:23.178132 IP6 :: > ff02::16: HBH ICMP6, multicast listener report v2, 1 group record(s), length 28
13:50:23.378089 IP6 :: > ff02::16: HBH ICMP6, multicast listener report v2, 2 group record(s), length 48
13:50:23.442094 IP6 :: > ff02::1:ff00:2: ICMP6, neighbor solicitation, who has example.org, length 24
13:50:23.698108 IP6 :: > ff02::16: HBH ICMP6, multicast listener report v2, 2 group record(s), length 48
13:50:24.050127 IP6 :: > ff02::1:ff00:36ab: ICMP6, neighbor solicitation, who has fe80::250:xxxx:yyyy:36ab, length 24
13:50:25.050149 IP6 fe80::250:xxxx:yyyy:36ab > ff02::16: HBH ICMP6, multicast listener report v2, 2 group record(s), length 48
13:50:25.174116 IP6 fe80::250:xxxx:yyyy:36ab > ff02::16: HBH ICMP6, multicast listener report v2, 2 group record(s), length 48
13:50:27.605989 IP6 fe80::250:xxxx:yyyy:36ab > ff02::1:ff00:1: ICMP6, neighbor solicitation, who has fe80::1, length 32
13:50:27.606801 IP6 fe80::1 > fe80::250:xxxx:yyyy:36ab: ICMP6, neighbor advertisement, tgt is fe80::1, length 32
13:50:27.609480 IP6 fe80::250:xxxx:yyyy:36ab > ff02::1:ff00:1: ICMP6, neighbor solicitation, who has fe80::1, length 32
13:50:27.609488 IP6 example.org > ff02::1:ff00:1: ICMP6, neighbor solicitation, who has fe80::1, length 32
13:50:27.609943 IP6 fe80::1 > fe80::250:xxxx:yyyy:36ab: ICMP6, neighbor advertisement, tgt is fe80::1, length 32
我对 IPv6 的了解还不是很深,尚无法说出究竟是什么导致它再次工作。
我有一个 CentOS 专用服务器(Hetzner):
IP:aa.bb.cc。16
网关:aa.bb.cc.1 网络
掩码:255.255.255.255
和附加 IP(安装了 Debian 的来宾 VM(libvirt)):
IP:aa.bb.cc。61
网关:aa.bb.cc.1 网络
掩码:255.255.255.192
我已经使用 Hetzner 文档( https://wiki.hetzner.de/index.php/Netzkonfiguration_CentOS/en#Routed_.28brouter.29 )设置了路由配置。
主机配置:
cat /etc/sysctl.conf
net.ipv4.conf.all.rp_filter=1
net.ipv4.icmp_echo_ignore_broadcasts=1
net.ipv4.ip_forward=1
net.ipv6.conf.all.forwarding=1
net.ipv4.conf.default.proxy_arp=1
net.ipv4.conf.all.send_redirects=0
net.ipv4.conf.eth0.send_redirects=0
net.ipv4.conf.br0.send_redirects=0
net.ipv4.conf.default.send_redirects=0
net.bridge.bridge-nf-call-ip6tables = 0
net.bridge.bridge-nf-call-iptables = 0
net.bridge.bridge-nf-call-arptables = 0
猫 /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
HWADDR=XX:XX:XX:XX:XX:XX
BOOTPROTO=none
IPADDR=aa.bb.cc.16
NETMASK=255.255.255.255
SCOPE="peer aa.bb.cc.1"
IPV6INIT=yes
IPV6ADDR=2a01:4f8:yyy:yyyy::2/128
IPV6_DEFAULTGW=fe80::1
IPV6_DEFAULTDEV=eth0
猫 /etc/sysconfig/network-scripts/ifcfg-br0
DEVICE=br0
ONBOOT=yes
TYPE="Bridge"
BOOTPROTO=static
IPADDR=aa.bb.cc.16
NETMASK=255.255.255.255
IPV6INIT=yes
IPV6ADDR=2a01:4f8:yyy:yyyy::2/64
STP=off
DELAY=0
猫 /etc/sysconfig/network-scripts/route-br0
ADDRESS0=aa.bb.cc.61
NETMASK0=255.255.255.255
访客配置:
cat /etc/network/interfaces
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet static
address aa.bb.cc.61
netmask 255.255.255.255
pointopoint aa.bb.cc.16
gateway aa.bb.cc.16
dns-nameservers 212.133.98.98 212.133.99.99 212.133.100.100
iface eth0 inet6 static
address 2a01:4f8:yyy:yyyy::4
netmask 64
address 2a01:4f8:yyy:yyyy::2
对于从访客 VM 到 Internet 的 Internet 访问,我添加了一条规则:
iptables -t nat -A POSTROUTING -o eth0 -s aa.bb.cc.61 -j SNAT --to-source aa.bb.cc.16
问题:可以通过访客 IP aa.bb.cc 从 Internet 访问访客 VM。61在路由模式下?当我从外部(互联网)ping 到 aa.bb.cc 时。61我收到“请求超时”。但是 aa.bb.cc.16(主机)ping 正常。我必须添加什么规则?
谢谢你。
我有几个 Hetzner 的“根服务器”(他们称之为 - 专用的位于同一位置的 linux 机器),它们都遇到了同样的问题(我根本不完全理解)。
域 www.dnsblchile.org 不想解析为 IP(服务器是从 Hetzner 自己的 Debian Jessie 映像安装的)。当然,所有其他域都可以正确解析(在解析任何其他域之前我没有遇到任何问题 - 或者我之前没有发现它)。
当我测试时,nslookup -type=A www.dnsblchile.org
我得到:
;; Got SERVFAIL reply from 213.133.98.98, trying next server
;; Got SERVFAIL reply from 213.133.99.99, trying next server
Server: 213.133.100.100
Address: 213.133.100.100#53
** server can't find www.dnsblchile.org: SERVFAIL
所以这里没有正确的答案,但是当我尝试使用 8.8.8.8 (google) 作为名称服务器时,nslookup -type=A www.dnsblchile.org 8.8.8.8
我得到:
Server: 8.8.8.8
Address: 8.8.8.8#53
Non-authoritative answer:
Name: www.dnsblchile.org
Address: 66.23.231.212
所以这里一切正常,我得到了正确的 IP。
`/etc/resolv.conf'(安装后默认)的内容是:
### Hetzner Online GmbH installimage
# nameserver config
nameserver 213.133.98.98
nameserver 213.133.99.99
nameserver 213.133.100.100
如果我将 8.8.8.8 添加为/etc/resolv.conf
所有条目的新条目也可以正常工作。
现在 - Hetzner 名称服务器配置方面是否有问题,或者我应该改用 8.8.8.8 名称服务器(作为一个好习惯)?
我已经与 Hetzner 支持人员谈了两天,但这里没有共同点 - 听说他们的名称服务器都非常好。
他们自己的域名服务器也应该正确解析 www.dnsblchile.org 域吗?
支持更新:
..但是由于域使用的名称服务器不允许来自我们的解析器的请求,因此无法解析域。如果要解析域,则必须使用其他解析器或自己的解析器,它们可以请求域的名称服务器
现在 - 他们的域名服务器可能会像他们说的那样被“阻止”(我不是这里的专家)吗?
同样-使用例如google名称服务器并跳过Hetzner名称服务器设置是否是一种常见做法(如下面的答案所示)?
我是否只需将 google 名称服务器添加到列表中(在文件的顶部或底部/etc/resolv.conf
),我应该删除 Hetzner 名称服务器(或保留它们)吗?
假设我们有两台服务器 A 和 B 具有“真实”和外部 IP,我们可以切换所谓的“故障转移 ip”(WXYZ)以指向 A 或 B 的特定外部 IP。这从“外部”工作并且是很容易做到。作为背景:故障转移 ip 配置为 /etc/network/interfaces 中的新条目:
auto eth0:0
iface eth0:0 inet static
address W.X.Y.Z
netmask 255.255.255.224
现在让我们假设 WXYZ 被动态配置为使用硬件 A。现在我从 B 调用“curl domain.com”,它使用正确的故障转移 ip WXYZ,但随后以某种方式解析为错误的外部 IP B(或本地主机?)而不是使用配置的一个 A:
Trying W.X.Y.Z ...
* connect to W.X.Y.Z port 443 failed: Connection refused
* Failed to connect to domain.com port 443: Connection refused
* Closing connection 0
curl: (7) Failed to connect to domain.com port 443: Connection refused
当我启动本地 nginx 时,它可以成功 curl domain.com
我是否需要以某种方式在本地配置 DNS?如何找到有关 DNS 链的更多信息?
如果从服务器 B 尝试,使用mtr只会打印 domain.com
这与这个问题有关吗?
The failover IP is W.X.Y.Z and is also the A record of domain.com
The /etc/hosts file for both nodes serverA and serverB looks like:
127.0.0.1 localhost
127.0.1.1 luminarhost
xxx serverA
xxx serverB
The /etc/network/interfaces of serverA
### Hetzner Online AG - installimage
# Loopback device:
auto lo
iface lo inet loopback
# device: eth0
auto eth0
iface eth0 inet static
address xxx
broadcast xxx
netmask xxx
gateway xxx
# default route to access subnet
up route add -net xxx netmask 255.255.255.224 gw xxx eth0
iface eth0 inet6 static
address xxx
netmask xxx
gateway xxx
# failover ip
auto eth0:0
iface eth0:0 inet static
address W.X.Y.Z
netmask 255.255.255.224
and of serverB it is:
### Hetzner Online AG - installimage
# Loopback device:
auto lo
iface lo inet loopback
# device: eth0
auto eth0
iface eth0 inet static
address xxx
broadcast xxx
netmask xxx
gateway xxx
# default route to access subnet
up route add -net xxx netmask 255.255.255.192 gw xxx eth0
iface eth0 inet6 static
address xxx
netmask xxx
gateway xxx
# failover ip
auto eth0:0
iface eth0:0 inet static
address W.X.Y.Z
netmask 255.255.255.224