Ao tentar configurar um cluster experimental do Kubernetes (em algumas VMs no meu laptop) como "alta disponibilidade", encontrei o conselho de fazer isso usando a combinação de keepalived e haproxy ( https://github.com/kubernetes/kubeadm/blob /master/docs/ha-considerations.md#options-for-software-load-balancing ).
Olhando para as definições de configuração que eu li
${STATE} é MASTER para um e BACKUP para todos os outros hosts, portanto, o IP virtual será inicialmente atribuído ao MASTER.
${PRIORITY} deve ser maior no mestre do que nos backups. Portanto, 101 e 100, respectivamente, serão suficientes.
e essas configurações me surpreendem. Aparentemente, tenho que escolher qual desses sistemas será o mestre inicial e tenho que configurar isso "hard" nos próprios nós.
Para mim, essa configuração de "alta disponibilidade" se desvia da analogia "animal de estimação"/"gado" que encontro no Kubernetes.
Outros sistemas como, por exemplo, o HBase têm uma configuração semelhante (um ativo e vários líderes de espera) e todos são configurados "identicamente" (a seleção é feita via ZooKeeper).
Existe uma maneira de configurar o Keepalived (para uso no Kubernetes) de forma que todos os nós tenham a mesma configuração e ainda funcione corretamente?