Estou auditando o esquema de um banco de dados MySQL usado por um aplicativo de comércio eletrônico pronto para uso e encontrei isso como saída de SHOW CREATE TABLE thistable
:
CREATE TABLE `thistable`
(
`case_id` int(11) unsigned NOT NULL AUTO_INCREMENT,
`company_id` int(11) NOT NULL DEFAULT '0',
(...)
`timestamp` int(11) unsigned NOT NULL DEFAULT '0',
PRIMARY KEY (`case_id`),
KEY `idx_case_id` (`case_id`) USING BTREE
) ENGINE=InnoDB AUTO_INCREMENT=21688281 DEFAULT CHARSET=utf8
Ele adiciona explicitamente um índice em uma chave primária.
Isso é um erro do designer de banco de dados ou existe realmente uma razão para isso?
Vale a pena notar que esta tabela era de origem MyISAM.
Não, claramente não há uma boa razão.
Muito provavelmente, o índice continha originalmente outra coluna que foi descartada - pelo menos, esta é a única explicação do topo da minha mente.
Aqui estão alguns motivos pelos quais o SQL Server usará o índice em vez do índice clusterizado. (Sou um cara do SQL Server, então deixarei isso para uma pessoa do MySQL editar se houver uma sintaxe ligeiramente diferente para o MySQL.)
Aqui, o SQL Server escolhe usar o índice mais restrito em apenas case_id porque é mais rápido verificar isso do que verificar a tabela inteira (com todos os seus campos associados).
A mesma coisa acontece mesmo com uma consulta que não toca case_id:
Isso também usa o índice mais restrito disponível para a tabela, neste caso, aquele em case_id.
Ambos os exemplos servem não para mostrar boas práticas de código, mas apenas para mostrar cenários em que um mecanismo de banco de dados realmente optará por usar esse índice. No caso da segunda consulta, eu poderia contornar isso tendo um índice em qualquer outro campo (porque provavelmente preciso de um índice em uma coluna diferente de qualquer maneira).