Estou procurando maneiras de melhorar o desempenho do meu banco de dados para consultas analíticas pesadas e descobri que meu espaço de tabela temporário tem extensões de 1 milhão (padrão para espaço de tabela uniforme). Com meu uso normal de espaço de tabela temporário muito acima de 1 GB por consulta (as principais consultas com junções/classificações/grupos pesados podem consumir até 100 GB de espaço de tabela temporário), extensões de 1 milhão parecem muito baixas para mim. Vale a pena aumentar o tamanho da extensão para desempenho?
relate perguntas
-
Backups de banco de dados no Oracle - Exportar o banco de dados ou usar outras ferramentas?
-
ORDER BY usando prioridades personalizadas para colunas de texto
-
Interface sqlplus confortável? [fechado]
-
Como encontrar as instruções SQL mais recentes no banco de dados?
-
Como posso consultar nomes usando expressões regulares?
A menos que você tenha alguma evidência do AWR/ASH de que a alocação de extensões é uma parte particularmente demorada do tempo de execução da sua consulta, este é provavelmente o tipo de micro-otimização que você consideraria se estivesse tentando espremer a última fração de um por cento de desempenho fora do sistema.
Você está no ponto em que está razoavelmente confiante de que foi o mais longe possível com a pré-agregação de dados para sua carga de trabalho de consulta típica com visualizações materializadas, criou cubos OLAP etc.? A menos que a consulta que está consumindo 100 GB de espaço TEMP seja baseada em algum usuário fazendo alguma análise única que está agregando por algo que nenhuma outra consulta deseja agregar, meu palpite seria que há muito mais potencial para grandes- otimização de escala que produzirá retornos muito maiores.