Ao usar EXPLAIN, pode-se ver o custo de execução de uma consulta. O custo é em unidades artificiais, e são baseados em parâmetros pré-definidos. 1 é uma busca de disco e um ciclo de CPU é de 0,01 unidades, acredito. Minha pergunta é por que o PostgreSQL não executa automaticamente um teste na instalação para determinar os números reais com base no hardware? Não deveria ser uma óbvia vitória rápida?
Se os custos fossem constantes, poderia haver um ganho marginal. As unidades são necessariamente artificiais, pois os vários recursos não são intercambiáveis. Mesmo no mesmo sistema, os custos podem variar em momentos diferentes.
Depois que o banco de dados é criado, pode ser possível determinar métricas melhores do banco de dados. O uso das métricas atualizadas pode alterar as cargas de maneira a torná-las inválidas. Existem margens além das quais o comportamento se torna relativamente imprevisível e com probabilidade de se degradar seriamente.
O que você está se referindo é conhecido como System Statistics no Oracle; Não acho que o Postgres os suporte (ainda?).