Estou usando o Microsoft SQL Server 2016 (SP2-CU12) (KB4536648) - 13.0.5698.0 (X64) 15 de fevereiro de 2020 01:47:30 Copyright (c) Microsoft Corporation Standard Edition (64 bits) no Windows Server 2012 R2 Standard 6.3 (Construção 9600: )
Eu tenho algumas tabelas muito grandes (as tabelas sozinhas podem ter mais de 700 gb) em um banco de dados de 2,5 terabytes.
Eu tenho usado alguns scripts para manutenção de índice. No momento estou fazendo:
- Reorganizar se a fragmentação for > 10%
- Reconstrua se a fragmentação for > 50%.
Funciona bem na maioria das vezes, mas para minhas tabelas de 700 GB ou maiores, acho que 10% será uma porcentagem difícil de atingir. Eu queria saber se devo diminuir essa porcentagem para essas grandes mesas ou se é bom deixá-la nesse limite.
Devo acrescentar que meus servidores possuem drivers SSD, mas apenas 128 GB de RAM porque é a edição Standard. Portanto, não há como as tabelas caberem na RAM, no caso de consultas grandes (como relatórios), é necessário escanear/buscar os índices.
Não quero atingir a limitação do sistema de arquivos de erro 665 devido à fragmentação. https://learn.microsoft.com/en-ie/troubleshoot/sql/admin/1450-and-665-errors-running-dbcc (estou começando a adicionar grupos de arquivos ao banco de dados para evitar esse erro, pois estou estou tendo de vez em quando nas grandes tabelas que fazem parte do grupo de arquivos primário.)
Então, devo fazer uma porcentagem personalizada para manutenção de índice em tabelas muito grandes? Ou deve ser bom?
Realmente depende de quão transacional são suas tabelas. Se eles estão sendo atualizados e inseridos com frequência, você definitivamente atingirá os 10%. Se você não está atingindo os 10%, então provavelmente não vale a pena baixar para 5% porque isso significa que suas mesas já estão bem desfragmentadas.
Eu trabalhei pessoalmente em um banco de dados de tamanho muito semelhante ao seu exemplo, também padrão SQL Server 2016, em um servidor que tinha apenas 16 GB de RAM. Nosso banco de dados era bastante transacional (adicionando cerca de 1.000 novos registros a cada poucos minutos) e estávamos atingindo o limite de 10% para reorganizações todas as noites. Como a operação era muito pesada e demorada, na verdade fiz o oposto e aumentei o limite de fragmentação para reorganizações para 20% para os índices de nossas tabelas maiores. Isso provou ser muito melhor para o nosso negócio porque a diferença no desempenho era insignificante e geralmente permitia que as mesas maiores não fossem reorganizadas até o fim de semana.
Preocupar-se com reorganizações de índice e, mais ainda, com reconstruções, está no limite inferior das coisas para otimizar. Até Brent Ozar diz para não se preocupar com isso. :)
Embora eu concorde com o que @BrentOzar diz, também concordo que esse é um cenário específico. A pergunta é pertinente porque você não costuma lidar com uma tabela de 700Gb.
Na minha opinião você deve:
Por isso acho sua pergunta muito pertinente. Acredito que estamos indo para um mundo onde cada vez mais bancos de dados terão, mais cedo ou mais tarde, terabytes de tabelas.
Os dados estão crescendo mais rápido do que nossa adaptação a eles e não temos as ferramentas para lidar com esse problema.