这可能是一个愚蠢的问题,但在谷歌上搜索了一段时间后,我找不到答案,或者只是不知道如何问它。
我有一个在名为“myserver1”的服务器上运行的网络应用程序。我已经使用相同的 Web 应用程序实例启动了“myserver2”,并在两个盒子上的两个数据库之间设置了复制。现在,我想使用 Nginx 来做一些负载平衡,如果另一台服务器崩溃,则让一台服务器接管。
大多数 nginx 文档都是围绕这样一个简单的场景编写的,但它似乎表明您将 nginx 服务器放在 Web 服务器的前面。这似乎是另一个单点故障。你如何让 nginx 本身变得多余?你可以在两个 Web 服务器上运行 nginx 吗?如果是这样,您将 myapp.mydomain.com 的 DNS 条目指向哪里?
编辑:我想我应该补充一点,这是针对用户群相对较小的内部应用程序。我主要担心的是,如果我们失去服务器或与其中一个数据中心的连接,我们的内部用户仍然可以使用它。如果不引入另一个单点故障,我只是看不到如何在 nginx 上做到这一点。
在 nginx 中进行负载平衡的唯一方法是拥有一个前端(反向代理)主机负载平衡后端服务器。
这种设计背后的想法/假设是负载将仅发生在后端,并且您的单个入口点将始终能够处理它应该处理的任何流量,因为它只是重定向并且从不处理任何本身。
您所说的实际上是故障转移,而不是负载平衡。您担心的是单个入口点的失败。
正如@coding_hero 解释的那样,这与 nginx 无关,它需要在底层(操作系统/网络)处理。
可以在以下页面上阅读一种方法(虽然旧示例谈论 Debian oldstable,但可能需要更新命令): http: //linuxmanage.com/fast-failover-configuration-with-drbd-and- heartbeat-on-debian-squeeze.html。Heartbeat 是一项众所周知的技术,它允许多个相同的服务器相互监控,选择一个主服务器并在需要时故障转移到从服务器。
您甚至有专门的网络硬件通过重新路由(或者可能在运行中重新配置路由器以重新路由?)流量到当前选定的主服务器来完成相同的工作。