Temos um cluster de dois bancos de dados Oracle. O agente de software de monitoramento é instalado em ambas as máquinas e durante a noite, quando os backups estão acontecendo, recebemos avisos de que a utilização da interface de rede nos servidores está acima de 90% - tenho certeza de que ela atinge o limite máximo.
Isso é um problema ou vocês, DBAs experientes, permitem que os servidores de banco de dados ocasionalmente maximizem a largura de banda da interface de rede? Caso contrário, quais são os problemas conhecidos que isso pode causar?
Agradeço antecipadamente!
Enquanto a taxa de transferência da rede estiver no máximo, ou próximo disso, outras atividades terão latência mais alta, taxa de transferência mais lenta ou ambos. O grau de problema que isso representa para você depende das respostas desejadas do sistema durante o período.
Se o aumento na latência experimentado pelos aplicativos que se comunicam com o banco de dados for significativo o suficiente para que os usuários finais percebam e sintam que isso é suficiente para se importar, você poderá mitigar isso limitando a largura de banda ao destino do backup para garantir que não demore mais do que, digamos, 85% do rendimento disponível. Obviamente, isso fará com que os backups demorem mais para serem concluídos, o que pode ser mais preocupante.
Observe que o processo de backup provavelmente será apenas um único fluxo; ele não saturará o link tanto quanto você verá devido, por exemplo, ao tráfego de compartilhamento P2P. Para avaliar se você deve se preocupar ou não, organize um teste simples dos aplicativos durante o período em que os backups estão acontecendo ou, para ser mais completo, execute um teste de carga mais profundo naquele momento e em outro momento e compare os resultados.