Eu tenho uma tabela de banco de dados com mais de 900.000 linhas, 20 colunas, principalmente dados de string. Usando o MySQL Workbench, quero percorrer todo o conteúdo da tabela para ver exatamente o que foi inserido na tabela (estou revisando porque acredito que meu código de alguma forma acidentalmente carregou apenas parcialmente o conteúdo de um arquivo CSV e quero entender por que e onde o processo parou de carregar todo o arquivo CSV).
O problema é que, devido ao tamanho um tanto grande da tabela de banco de dados, executar uma consulta "SELECT * FROM..." com "Don't Limit" faz com que meu computador demore muito (mais de 10 minutos) para produzir um result na grade de resultados do MySQL Workbench e basicamente parece congelar.
Existe uma maneira de fazer com que a grade de resultados do MySQL Workbench carregue muito mais rápido? Ou devo usar outra ferramenta?
Eu sou um pouco noob, então é possível que eu esteja fazendo algo muito estúpido aqui. Desde já, obrigado!
A primeira sugestão foi usar o comando "pager less" - mas, como apontado, mesmo a 10 páginas por segundo, levaria 25 horas para passar por 900.000 registros.
Infelizmente, o comando "pager" não funciona no Windows. Foi então sugerido enviar a saída para um arquivo e percorrê-lo - procurando por uma desconexão entre a entrada .csv e a tabela final.
Então, isso foi proposto
Isso parece ter resolvido o problema para o OP.