我担心的是,在两台服务器之间共享一个上游池时,每台服务器都会向池发送请求,如果池过载,则两台服务器都无法正确限制或超时未来的请求。
我定义了两台服务器,一台监听端口 80,另一台监听端口 443。两者都定义了具有相同资源的上游池。
web_one_80.conf:
upstream app_pool1 {
server 1.1.1.1:5000
server 1.1.1.1:5001
server 1.1.1.1:5002
}
http {
listen 80;
location / {
proxy_pass http://app_pool1;
}
}
web_one_443.conf:
upstream app_pool2 {
server 1.1.1.1:5000
server 1.1.1.1:5001
server 1.1.1.1:5002
}
http {
listen 443 ssl;
location / {
proxy_pass http://app_pool2;
}
}
如果我在两台不同的机器上有两台服务器共享一个上游服务器怎么办?
web_one_80.conf:
upstream app_pool1 {
server 1.1.1.1:5000
server 1.1.1.1:5001
server 1.1.1.1:5002
}
http {
listen 80;
location / {
proxy_pass http://app_pool1;
}
}
web_two_80.conf:
upstream app_pool1 {
server 1.1.1.1:5000
server 2.2.2.2:5001
server 2.2.2.2:5002
}
http {
listen 80;
location / {
proxy_pass http://app_pool1;
}
}
完全披露:我正在检查另一个人的工作。我希望这些设置都不能正常工作。我很高兴错了!
是的。我在服务器配置之外定义 PHP 和 SSL 会话缓存,并从许多服务器块中使用它们。