AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / dba / Perguntas / 83125
Accepted
SBhojani
SBhojani
Asked: 2014-11-20 12:36:46 +0800 CST2014-11-20 12:36:46 +0800 CST 2014-11-20 12:36:46 +0800 CST

MySQL alguma maneira de importar um despejo sql enorme (32 GB) mais rápido?

  • 772

Eu tenho esse enorme dump SQL de 32 GB que preciso importar para o MySQL. Eu não tive que importar um dump SQL tão grande antes. fiz o normal:

mysql -uroot dbname < dbname.sql

Está demorando muito. Há uma tabela com cerca de 300 milhões de linhas, chegou a 1,5 milhão em cerca de 3 horas. Então, parece que a coisa toda levaria 600 horas (ou seja, 24 dias) e é impraticável. Então, minha pergunta é, existe uma maneira mais rápida de fazer isso?

Mais informações/descobertas

  1. As tabelas são todas InnoDB e não há chaves estrangeiras definidas. Existem, no entanto, muitos índices.
  2. Eu não tenho acesso ao servidor original e ao banco de dados, então não posso fazer um novo backup ou fazer uma cópia "quente" etc.
  3. A configuração innodb_flush_log_at_trx_commit = 2sugerida aqui parece não fazer nenhuma melhoria (claramente visível/exponencial).
  4. Estatísticas do servidor durante a importação (do MySQL Workbench): https://imgflip.com/gif/ed0c8 .
  5. A versão do MySQL é a comunidade 5.6.20.
  6. innodb_buffer_pool_size = 16M e innodb_log_buffer_size = 8M. Preciso aumentar estes?
mysql backup
  • 5 5 respostas
  • 176866 Views

5 respostas

  • Voted
  1. Best Answer
    RolandoMySQLDBA
    2014-11-23T19:04:48+08:002014-11-23T19:04:48+08:00

    Vadim Tkachenko da Percona fez esta bela representação pictórica do InnoDB

    Arquitetura InnoDB

    Você definitivamente precisa alterar o seguinte

    innodb_buffer_pool_size = 4G
    innodb_log_buffer_size = 256M
    innodb_log_file_size = 1G
    innodb_write_io_threads = 16
    innodb_flush_log_at_trx_commit = 0
    

    Por que essas configurações?

    • innodb_buffer_pool_size armazenará em cache os dados lidos com frequência
    • innodb_log_buffer_size : buffer maior reduz E/S de gravação para logs de transação
    • innodb_log_file_size : O arquivo de log maior reduz o checkpoint e a gravação de E/S
    • innodb_write_io_threads : Operações de gravação de serviço em .ibdarquivos. De acordo com a documentação do MySQL emConfiguring the Number of Background InnoDB I/O Threads , cada thread pode lidar com até 256 solicitações de E/S pendentes. O padrão para MySQL é 4, 8 para Percona Server. O máximo é 64.
    • innodb_flush_log_at_trx_commit
      • No caso de uma falha, 0 e 2 podem perder um segundo de dados.
      • A desvantagem é que 0 e 2 aumentam o desempenho de gravação.
      • Eu escolho 0 sobre 2 porque 0 libera o InnoDB Log Buffer para os logs de transações (ib_logfile0, ib_logfile1) uma vez por segundo, com ou sem um commit. A configuração 2 libera o InnoDB Log Buffer apenas na confirmação. Existem outras vantagens na configuração 0 mencionadas por @jynus, ex-instrutor de Percona .

    Reinicie o mysql assim

    service mysql restart --innodb-doublewrite=0
    

    Isso desabilita o buffer de gravação dupla do InnoDB

    Importe seus dados. Quando terminar, reinicie o mysql normalmente

    service mysql restart
    

    Isso reativa o buffer de gravação dupla do InnoDB

    De uma chance !!!

    NOTA LATERAL: Você deve atualizar para 5.6.21 para obter os patches de segurança mais recentes .

    • 149
  2. Bruno J. Araujo
    2016-07-06T12:29:41+08:002016-07-06T12:29:41+08:00

    Você realmente precisa que todo o banco de dados seja restaurado? Se você não fizer isso, meu 2c:

    Você pode extrair tabelas específicas para fazer sua restauração em "pedaços". Algo assim:

    zcat your-dump.gz.sql | sed -n -e '/DROP TABLE.*`TABLE_NAME`/,/UNLOCK TABLES/p' > table_name-dump.sql
    

    Eu fiz isso uma vez e demorou 10 minutos para extrair a tabela que eu precisava - minha restauração completa levou de 13 a 14 horas, com um despejo de 35 GB (gzipado).

    O /pattern/,/pattern/pcom o -nparâmetro faz uma fatia "entre os padrões" - incluindo-os.

    De qualquer forma, para restaurar os 35GB eu usei uma máquina AWS EC2 (c3.8xlarge), instalei o Percona via yum (Centos) e apenas adicionei/alterei as seguintes linhas em my.cnf:

    max_allowed_packet=256M
    wait_timeout=30000
    

    Eu acho que os números são muito altos, mas funcionou para a minha configuração.

    • 16
  3. Alex
    2014-11-21T09:01:12+08:002014-11-21T09:01:12+08:00

    A maneira mais rápida de importar seu banco de dados é copiar os arquivos ( .frm, .MYD, .MYI ) se MyISAM, diretamente para o /var/lib/mysql/"nome do banco de dados".

    Caso contrário, você pode tentar:mysql > use database_name; \. /path/to/file.sql

    Essa é outra maneira de importar seus dados.

    • 6
  4. pgee70
    2018-11-22T03:51:19+08:002018-11-22T03:51:19+08:00

    Uma maneira de ajudar a acelerar a importação é bloquear a tabela durante a importação. Use a opção --add-locks para mysqldump.

    mysqldump --add-drop-table --add-locks --database db > db.sql
    

    ou você pode ativar alguns parâmetros úteis com --opt isso ativa um monte de coisas úteis para o dump.

    mysqldump --opt --database db > db.sql
    

    Se você tiver outro dispositivo de armazenamento no servidor, use-o - copiar de um dispositivo para outro é uma maneira de acelerar as transferências.

    Você também pode filtrar as tabelas que não são necessárias com --ignore-table

    • 5
  5. Ahtisham
    2021-06-05T08:39:02+08:002021-06-05T08:39:02+08:00

    Veja como definir a configuração do RolandoMySQLDBA no linux:

    1. Abra o arquivo mysql conf em seu editor de texto favorito:

      sudo vi /etc/mysql/my.conf

    2. Digite a seguinte configuração no final do arquivo:

        [mysqld]
        innodb_buffer_pool_size = 4G
        innodb_log_buffer_size = 256M
        innodb_log_file_size = 1G
        innodb_write_io_threads = 16
        innodb_flush_log_at_trx_commit = 0
        innodb_doublewrite = 0
    
    1. Salve o arquivo e execute este comando no mysql:

      set global innodb_fast_shutdown = 0

      você pode ver a nova configuração com @@ seguido pelo comando no mysql:

      select @@innodb_buffer_pool_size;

      da mesma forma com outros comandos

    2. Reinicie o mysql:

      service mysql restart

    3. Restaure o estado do seu banco de dados:

      mysql -u username -p database_name < /path/to/file.sql

    Tive que importar 5.8GB de dados o que me levou 40min com a configuração do pc do inter corei5 2.5GHZ e 16gb ram

    • 1

relate perguntas

  • Existem ferramentas de benchmarking do MySQL? [fechado]

  • Onde posso encontrar o log lento do mysql?

  • Como posso otimizar um mysqldump de um banco de dados grande?

  • Quando é o momento certo para usar o MariaDB em vez do MySQL e por quê?

  • Como um grupo pode rastrear alterações no esquema do banco de dados?

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host

    • 12 respostas
  • Marko Smith

    Como fazer a saída do sqlplus aparecer em uma linha?

    • 3 respostas
  • Marko Smith

    Selecione qual tem data máxima ou data mais recente

    • 3 respostas
  • Marko Smith

    Como faço para listar todos os esquemas no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Listar todas as colunas de uma tabela especificada

    • 5 respostas
  • Marko Smith

    Como usar o sqlplus para se conectar a um banco de dados Oracle localizado em outro host sem modificar meu próprio tnsnames.ora

    • 4 respostas
  • Marko Smith

    Como você mysqldump tabela (s) específica (s)?

    • 4 respostas
  • Marko Smith

    Listar os privilégios do banco de dados usando o psql

    • 10 respostas
  • Marko Smith

    Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Como faço para listar todos os bancos de dados e tabelas usando o psql?

    • 7 respostas
  • Martin Hope
    Jin conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host 2014-12-02 02:54:58 +0800 CST
  • Martin Hope
    Stéphane Como faço para listar todos os esquemas no PostgreSQL? 2013-04-16 11:19:16 +0800 CST
  • Martin Hope
    Mike Walsh Por que o log de transações continua crescendo ou fica sem espaço? 2012-12-05 18:11:22 +0800 CST
  • Martin Hope
    Stephane Rolland Listar todas as colunas de uma tabela especificada 2012-08-14 04:44:44 +0800 CST
  • Martin Hope
    haxney O MySQL pode realizar consultas razoavelmente em bilhões de linhas? 2012-07-03 11:36:13 +0800 CST
  • Martin Hope
    qazwsx Como posso monitorar o andamento de uma importação de um arquivo .sql grande? 2012-05-03 08:54:41 +0800 CST
  • Martin Hope
    markdorison Como você mysqldump tabela (s) específica (s)? 2011-12-17 12:39:37 +0800 CST
  • Martin Hope
    Jonas Como posso cronometrar consultas SQL usando psql? 2011-06-04 02:22:54 +0800 CST
  • Martin Hope
    Jonas Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL? 2011-05-28 00:33:05 +0800 CST
  • Martin Hope
    Jonas Como faço para listar todos os bancos de dados e tabelas usando o psql? 2011-02-18 00:45:49 +0800 CST

Hot tag

sql-server mysql postgresql sql-server-2014 sql-server-2016 oracle sql-server-2008 database-design query-performance sql-server-2017

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve