Eu tenho uma tabela com mais de 1 milhão de registros. Novos registros são criados e atualizados a cada dia cada vez que ocorre um evento para cada tipo de evento (que são muitos). Freqüentemente, preciso encontrar somas em muitos registros e o tempo para realizar essas consultas ficou cada vez mais lento, embora haja vários índices em alguns lugares. Como agora há alguns anos de armazenamento de dados, estou pensando em migrar registros com mais de 6 meses para uma tabela de "arquivo" separada e criar novos registros para cada tipo de evento que inclua os agregados mensais (ou seja, a soma das linhas nos 31 registros armazenados para janeiro de 2014 seriam armazenados em 1 registro). Esperamos que isso melhore a velocidade de pesquisa, mas existe uma estratégia melhor? Esse tipo de arquivamento é comum?
relate perguntas
-
Posso ativar o PITR depois que o banco de dados foi usado
-
Práticas recomendadas para executar a replicação atrasada do deslocamento de tempo
-
Os procedimentos armazenados impedem a injeção de SQL?
-
Sequências Biológicas do UniProt no PostgreSQL
-
Qual é a diferença entre a replicação do PostgreSQL 9.0 e o Slony-I?
é melhor usar particionamento, por exemplo, uma tabela por mês. Você pode então truncar as tabelas de arquivamento, que é uma operação instantânea que libera espaço em disco, ou movê-las para um tablespace em um dispositivo mais barato e/ou substituí-las por uma linha agregada em uma tabela agregada. A tabela visualizada pelo seu app normalmente será uma visualização da união das tabelas mensais. Você precisa de um design de índice cuidadoso.
Você também pode calcular uma soma contínua (cumulativa) em tempo real com um gatilho. Por outro lado, fazer exclusões e atualizações na mesma tabela não reduzirá o tamanho em disco do banco de dados e poderá afetar o desempenho. Mas se isso é um problema depende dos detalhes: gravações/seleções/atualizações/s, tamanho da linha, hardware da unidade, indexação, memória etc. Você não menciona nenhum detalhe.