O Nginx é colocado na frente de uma arquitetura de microsserviços sobre a qual não temos nenhuma visão. Recuperamos as métricas expostas pelo status do stub http e gostaríamos de calcular um indicador do desempenho da plataforma: Não podemos usar latência em um teste de carga, pois queremos comparar sites geograficamente diferentes.
O que tentamos até agora:
- Calcule um delta do total de solicitações por unidade de tempo. Problema: não reflete o desempenho, todos os sites tratam a mesma quantidade de solicitações (100req por 100ms)
- Use o medidor de conexões em espera*
*Com este indicador, observamos diferentes comportamentos. Os dois extremos são:
Servidor 2012 (E5-2620 v1, 24 threads): média de 68,62 conexões em espera por 100ms
Servidor 2021 (AMD EPYC 7642, 96 threads): uma média de 91,96 conexões em espera por 100ms
Primeira pergunta. Parece que o medidor deve ser lido como "quanto maior, melhor". Por quê? A documentação não dá detalhes mas, até onde sabemos, uma conexão esperando por uma resposta deve aparecer aqui. Ou esse medidor é composto apenas por conexões ociosas (ou seja, já atendidas)?
Segunda questão. Em um mesmo teste de carga, as métricas de conexão aceitas/tratadas são muito maiores no servidor mais recente (em torno do dobro). Por quê? Ambos atenderam ao mesmo número de solicitações enviadas por um pool de 100 conexões. O que vemos é que a quantidade de conexões manipuladas progride muito rapidamente no início, até um valor limite diferente dependendo da arquitetura, e depois a progressão é bastante linear. Não encontramos nenhuma explicação para este comportamento mostrado neste gráfico: gráfico de conexões manipuladas
Sério? O tempo de resposta para solicitações é uma métrica que realmente corresponde à lentidão de uma coisa para um usuário. Diferentes regiões geográficas podem resultar em uma distribuição estatística mais complexa, com certeza, mas ainda é útil para analisar.
As conexões ativas de leitura e escrita estão fazendo E/S, fazendo trabalho. Aguardar é manter vivo, esperando o cliente, depois de já ter completado uma requisição.
No mesmo nível de solicitações por segundo, leitura e gravação mais baixas são boas, porque isso se correlaciona com conexões sendo atendidas rapidamente. Provavelmente isso significa mais espera nos clientes, portanto, números de espera mais altos, mas há limites para o número de conexões.
Os primeiros segundos de ambas as conexões ao longo do tempo são um pouco atípicos, saltando quase instantaneamente. Não estou totalmente claro sobre por que isso acontece, mas talvez o nginx estivesse rodando por mais tempo antes do teste, então os contadores são mais altos.
Eu ignoraria os primeiros segundos como um aquecimento. E possivelmente grafe solicitações por segundo ao longo do tempo, pois pode ser mais fácil ver tendências no que deveria ser uma linha reta.