AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / user-105575

TheDataGuy's questions

Martin Hope
TheDataGuy
Asked: 2022-12-19 02:16:52 +0800 CST

Processo de replicação lógica

  • 7

Embora compreenda o processo de replicação lógica, uma coisa ainda não está clara para mim.

Quando o processo de decodificação será iniciado?

O que entendi é: digamos que eu tenha uma publicação e um slot. Mas sem assinantes. Nesse caso, os slots manterão apenas as informações do wal necessárias para a sincronização, mas os dados reais do wal não serão decodificados até que um assinante seja iniciado.

Depois que o assinante for ativado, o slot informará de qual wal lsn e o processamento de decodificação real será iniciado.

Por favor, corrija se a afirmação estiver errada.

postgresql
  • 2 respostas
  • 38 Views
Martin Hope
TheDataGuy
Asked: 2022-12-17 23:10:24 +0800 CST

Pergunta sobre o comportamento de replicação lógica do PostgreSQL

  • 5

Geralmente, quando uma transação é confirmada no PostgreSQL, imediatamente o processo de decodificação lógica será iniciado e converterá os dados do WAL em fluxo de dados para os consumidores. meu entendimento é

Commit » WAL » Processo de decodificação » Publicação para filtrar as tabelas » Slots para armazenar os dados

O que estou tentando entender é:

  1. Processo de decodificação - Isso decodificará o WAL, independentemente de seu consumidor estar ativo ou inativo, apenas decodifique e empurre-o para Slots. OU se estiver errado, o PostgreSQL não fará a decodificação e aguardará até que o consumidor seja ativado.
  2. Os slots são a área de armazenamento que contém os dados decodificados OU apenas manterá o estado.
  3. Processo de decodificação - habilitei a replicação lógica para uma tabela específica. Mas na outra mesa, fiz um bulk commit. Essa alteração também deve fazer parte do processo de decodificação, ele irá decodificar os dados e depois verificará na publicação. Se a tabela não estiver lá, simplesmente deixe-a e decodifique o próximo evento. Está correto?
postgresql
  • 1 respostas
  • 31 Views
Martin Hope
TheDataGuy
Asked: 2021-02-18 03:16:49 +0800 CST

PostgreSQL - Removendo o índice não utilizado na coluna Check Constraint

  • 0

Usei o script deste blog para identificar o índice não utilizado no meu banco de dados. Ele retorna um índice que está em uma coluna chamada resultonde eu tenho uma restrição de verificação nessa coluna.

Portanto, a remoção desse índice afetará o desempenho da restrição de verificação?

postgresql index
  • 1 respostas
  • 47 Views
Martin Hope
TheDataGuy
Asked: 2020-12-02 03:15:21 +0800 CST

Postgres COPY com vários pequenos pedaços

  • 2

No postgres, podemos fazer COPY para exportar os dados para o arquivo. Mas todos os dados serão salvos em um arquivo. Mas eu quero dividir esse arquivo em arquivos pequenos. Podemos fazer isso após a exportação.

Mas existe uma maneira de exportá-lo durante o processo de CÓPIA?

OU em psycopg2 podemos fazer isso?

postgresql copy
  • 3 respostas
  • 1835 Views
Martin Hope
TheDataGuy
Asked: 2020-11-28 02:49:26 +0800 CST

Usando COPY no Postgres

  • 0

Eu sei que COPY é o melhor utilitário para exportar os dados de uma tabela ou uma consulta para arquivos de saída. Mas se estamos fazendo uma exportação como

\COPY (select * from table) to '/tmp/file.csv' WITH CSV;

Como é diferente de executar a consulta de seleção e salvar os resultados posteriormente (como em uma ferramenta GUI) oupsql -c'select * from table'> output.csv

Alguma vantagem de usar COPY em termos de desempenho e cache?

A ideia geral é que estou tentando entender os benefícios de desempenho de exportar os dados via leitura de select vs COPY de pythonpsycopg

postgresql copy
  • 2 respostas
  • 153 Views
Martin Hope
TheDataGuy
Asked: 2020-09-11 21:47:10 +0800 CST

pgBouncer - vários servidores com o mesmo nome de usuário, mas senha diferente

  • 0

Eu tenho uma configuração ativa do pgBouncer com um servidor PostgreSQL.

Estamos planejando adicionar mais um servidor PostgreSQL ao mesmo pgBouncer. Mas o problema é que ambos os servidores de banco de dados têm o mesmo nome de usuário, mas com senhas diferentes.

Servidor1:

  • usuário: administrador
  • senha: admin123

Servidor2:

  • usuário: administrador
  • senha: admin@213

Esse recurso já é solicitado aqui , alguém pode me ajudar com alguma possível solução?

postgresql authentication
  • 1 respostas
  • 718 Views
Martin Hope
TheDataGuy
Asked: 2020-08-26 03:18:21 +0800 CST

Declarações preparadas com pgBouncer

  • 1

Eu tenho um servidor PostgreSQL com pgBouncer como pool de conexões.

Meu aplicativo está sendo executado no Elixir.

Este é o meu arquivo de configuração para pgBouncer:

* = host=X.X.X.X  port=5432
logfile = /var/log/postgresql/pgbouncer.log
pidfile = /var/run/postgresql/pgbouncer.pid
listen_addr = 0.0.0.0
listen_port = 6432
unix_socket_dir = /var/run/postgresql
auth_type = trust
auth_file = /etc/pgbouncer/userlist.txt
admin_users = admin
pool_mode = transaction
ignore_startup_parameters = extra_float_digits
server_check_query = select 1
server_check_delay = 30
max_client_conn = 10000
default_pool_size = 5
min_pool_size = 3
reserve_pool_size = 3
server_reset_query = DEALLOCATE ALL;

Quando eu uso o pool de transações , estou recebendo este erro:

ERROR 08P01 (protocol_violation) bind message supplies 4 parameters, but prepared statement "ecto_323" requires 2

Então eu mudei para o modo de pool de sessão . Desta vez estou recebendo este erro:

ERROR 26000 (invalid_sql_statement_name) prepared statement "ecto_83" does not exist

Como faço para corrigir isso do pgBouncer?

Quando conecto o banco de dados diretamente, não vi nenhum erro. Estava rodando mais de um ano sem nenhum proxy. Estamos implementando o pgBouncer agora.

postgresql prepared-statement
  • 2 respostas
  • 1220 Views
Martin Hope
TheDataGuy
Asked: 2020-07-06 22:52:57 +0800 CST

PostgreSQL Gera criar chaves estrangeiras de information_schema ou pg_constraint

  • 1

Recentemente, em uma infraestrutura de testes, para restaurar várias tabelas (via copycomando), soltei todas as chaves estrangeiras. Eu restaurei esse despejo de esquema de banco de dados em um banco de dados diferente antes de descartar o FK.

Existe alguma maneira de gerar o FK de criação de information_schemaou pg_constraint?

Eu tentei obtê-lo de um arquivo de despejo, mas a create tableprópria instrução com o FK (não uma instrução de tabela Alter).

Alguma sugestão?

postgresql foreign-key
  • 1 respostas
  • 236 Views
Martin Hope
TheDataGuy
Asked: 2020-05-08 09:15:47 +0800 CST

Golden gate da Oracle para o BigQuery

  • 0

Estou tentando configurar o Golden Gate para sincronizar os dados com o BigQuery. Quando eu começo a empurrar a carga inicial, meu extrator exportou todos os dados e até mesmo das estatísticas de replicação eu consigo ver que os registros são recebidos, mas não são enviados para o Bigquery.

Extrator

GGSCI (bhuvi-oracle) 12> info extract load1

EXTRACT    LOAD1     Last Started 2020-05-07 16:52   Status STOPPED
Checkpoint Lag       Not Available
Log Read Checkpoint  Table HR.TEST
                     2020-05-07 16:52:41  Record 32768
Task                 SOURCEISTABLE

Estatísticas de replicação

GGSCI (bhuvi-1) 1> stats bq

Sending STATS request to REPLICAT BQ ...
gg.handlerlist=bigquery

Start of Statistics at 2020-05-07 16:53:33.

Replicating from HR.TEST to bhuvi_orcl.test:

*** Total statistics since 2020-05-07 16:52:42 ***
        Total inserts                                  32768.00
        Total updates                                      0.00
        Total deletes                                      0.00
        Total discards                                     0.00
        Total operations                               32768.00

Arquivo de log no BigData Golen Gate:

2020-05-07T16:59:04.895+0000  INFO    OGG-00987  Oracle GoldenGate Command Interpreter:  GGSCI command (root): start bq.
2020-05-07T16:59:04.904+0000  INFO    OGG-00963  Oracle GoldenGate Manager, mgr.prm:  Command received from GGSCI on host [10.18.0.61]:42130 (START REPLICAT BQ ).
2020-05-07T16:59:04.905+0000  INFO    OGG-00975  Oracle GoldenGate Manager, mgr.prm:  REPLICAT BQ starting.
2020-05-07T16:59:04.964+0000  INFO    OGG-00995  Oracle GoldenGate Delivery, bq.prm:  REPLICAT BQ starting.
2020-05-07T16:59:04.967+0000  INFO    OGG-03059  Oracle GoldenGate Delivery, bq.prm:  Operating system character set identified as UTF-8.
2020-05-07T16:59:04.967+0000  INFO    OGG-02695  Oracle GoldenGate Delivery, bq.prm:  ANSI SQL parameter syntax is used for parameter parsing.
2020-05-07T16:59:05.173+0000  INFO    OGG-15052  Oracle GoldenGate Delivery, bq.prm:  Using Java class path: .:ggjava/ggjava.jar:ggjava/resources/lib/optional/log4j-api-2.9.1.jar:ggjava/resources/lib/optional/log4j-core-2.9.1.jar:ggjava/resources/lib/optional/log4j-slf4j-impl-2.9.1.jar.
2020-05-07T16:59:10.243+0000  INFO    OGG-01815  Oracle GoldenGate Delivery, bq.prm:  Virtual Memory Facilities for: COM
                                  anon alloc: mmap(MAP_ANON)  anon free: munmap
                                  file alloc: mmap(MAP_SHARED)  file free: munmap
                                  target directories:
                                  /opt/ogg/dirtmp.
2020-05-07T16:59:10.243+0000  INFO    OGG-00996  Oracle GoldenGate Delivery, bq.prm:  REPLICAT BQ started.
2020-05-07T16:59:10.251+0000  INFO    OGG-02243  Oracle GoldenGate Delivery, bq.prm:  Opened trail file /opt/ogg/dirdat/oo000000 at 2020-05-07 16:59:10.249063.
2020-05-07T16:59:10.251+0000  INFO    OGG-03506  Oracle GoldenGate Delivery, bq.prm:  The source database character set, as determined from the trail file, is UTF-8.
2020-05-07T16:59:10.253+0000  INFO    OGG-06505  Oracle GoldenGate Delivery, bq.prm:  MAP resolved (entry HR.TEST): MAP "HR"."TEST", TARGET bhuvi_orcl.test.
2020-05-07T16:59:10.253+0000  INFO    OGG-02756  Oracle GoldenGate Delivery, bq.prm:  The definition for table HR.TEST is obtained from the trail file.
2020-05-07T16:59:10.253+0000  INFO    OGG-06511  Oracle GoldenGate Delivery, bq.prm:  Using following columns in default map by name: ID.
2020-05-07T16:59:10.253+0000  INFO    OGG-06510  Oracle GoldenGate Delivery, bq.prm:  Using the following key columns for target table bhuvi_orcl.test: ID.
oracle oracle-12c
  • 1 respostas
  • 150 Views
Martin Hope
TheDataGuy
Asked: 2019-11-26 01:25:24 +0800 CST

A fragmentação do MongoDB afeta o desempenho no WiredTiger

  • 0

Estou usando o MongoDB 3.6, tenho um grande número de fragmentação em minhas coleções. 300+ GB em uma coleção. WiredTiger é o mecanismo de armazenamento.

Eu sei que é ruim para o sistema operacional e muito espaço desperdiçado. Isso afeta a memória também se usarmos o mecanismo MMAP. Mas não sei como a fragmentação afeta o WiredTiger?

mongodb fragmentation
  • 1 respostas
  • 420 Views
Martin Hope
TheDataGuy
Asked: 2019-11-14 09:39:31 +0800 CST

Comando COPY ... FROM STDIN falhando em valores nulos exportados como "\N"

  • -1

Eu iniciei um dump de tabela e onde quer que venha o valor NULL, o arquivo dump tem \Npara isso.

Durante a restauração estou recebendo este erro.

comando inválido \N

A codificação do banco de dados é UTF8.

Fiz o dump e tentei restaurar no mesmo servidor, mas o banco de dados diferente. Existem algumas soluções para isso. Mas ainda estou tentando corrigi-lo sem fazer mais alterações na codificação do banco de dados.

Estrutura da Mesa:

CREATE TABLE person.person (
    businessentityid integer NOT NULL,
    persontype character(2) NOT NULL,
    namestyle public."NameStyle" DEFAULT false NOT NULL,
    title character varying(8),
    firstname public."Name" NOT NULL,
    middlename public."Name",
    lastname public."Name" NOT NULL,
    suffix character varying(10),
    emailpromotion integer DEFAULT 0 NOT NULL,
    additionalcontactinfo xml,
    demographics xml,
    rowguid uuid DEFAULT public.uuid_generate_v1() NOT NULL,
    modifieddate timestamp without time zone DEFAULT now() NOT NULL,
    CONSTRAINT "CK_Person_EmailPromotion" CHECK (((emailpromotion >= 0) AND (emailpromotion <= 2))),
    CONSTRAINT "CK_Person_PersonType" CHECK (((persontype IS NULL) OR (upper((persontype)::text) = ANY (ARRAY['SC'::text, 'VC'::text, 'IN'::text, 'EM'::text, 'SP'::text, 'GC'::text]))))
);

Linha de erro

COPY person.person (businessentityid, persontype, namestyle, title, firstname, middlename, lastname, suffix, emailpromotion, additionalcontactinfo, demographics, rowguid, modifieddate) FROM stdin;
1       EM      f       \N      Ken     J       Sánchez \N      0       \N      <IndividualSurvey xmlns="http://schemas.microsoft.com/sqlserver/2004/07/adventure-works/IndividualSurvey"><TotalPurchaseYTD>0</TotalPurchaseYTD></IndividualSurvey>     92c4279f-1207-48a3-8448-4636514eb7e2    2009-01-07 00:00:00
postgresql psql
  • 1 respostas
  • 1038 Views
Martin Hope
TheDataGuy
Asked: 2019-10-10 09:00:22 +0800 CST

MongoDB - Posso criar índice TTL com método de rolagem

  • 0

Estou ficando preso ao arquivar uma enorme quantidade de dados no MongoDB 3.6

Quero excluir 506 milhões de registros em uma coleção. Eu tentei remover usando bulk.remove(), mas isso também é lento. 50 registros estão sendo removidos por segundo.

Mas em algum lugar eu leio, índice TTL e faço intervalo de varredura a cada 1 hora. Então ele vai remover de forma mais rápida.

Mas se eu criar esse índice em primeiro plano, ele bloqueará a coleção. Então estou pensando em fazer com o método de criação de índice de rolamento.

Se fizer assim, digamos, em um conjunto de réplicas de 3 nós, desanexe o node3 e, em seguida, crie o índice. Uma vez criado, ele começará a remover automaticamente os dados. Então, uma vez que eu adiciono o nó de volta ao conjunto de réplicas, talvez o primário faça a exclusão depois de criar o índice, dessa vez ele tentará replicar, na pior das hipóteses, os dados já foram removidos desse nó, então ele vai quebrar a replicação?

mongodb archive
  • 1 respostas
  • 1297 Views
Martin Hope
TheDataGuy
Asked: 2019-10-09 16:33:04 +0800 CST

Mongodb - O Bulk.find.remove() bloqueará a coleção

  • 2

Estou planejando correr Bulk.find.remove()em uma coleção muito grande. (1,2 TB).

Ele bloqueará a inserção ou atualização de outros registros (que não fazem parte dos itens acima find)?

mongodb delete
  • 1 respostas
  • 1286 Views
Martin Hope
TheDataGuy
Asked: 2019-10-06 04:47:20 +0800 CST

plpgsql - procedimento armazenado Valores separados por vírgula nos parâmetros

  • 0

Estou escrevendo um procedimento armazenado para obter nomes de banco de dados e tabelas em variáveis ​​e, em seguida, enviarei esses valores para a cláusula IN.

CREATE OR REPLACE PROCEDURE bhuvi(db varchar(100), tbls varchar(100))
 LANGUAGE plpgsql
 AS $$
 DECLARE
   rec RECORD;
    v timestamp;
   tables_s varchar(100);

 BEGIN
 select '''' + REPLACE(tbls, ',', ''',''') + '''' into tables_s;
    FOR rec IN select table_schema, table_name from information_schema.tables where table_catalog in (db) and table_type='BASE TABLE' and table_schema not in ('pg_catalog','information_schema')  and table_name in (tables_s)
   LOOP
   select now() into v;
     RAISE INFO ' % printing... schema = % and table = %',v, rec.table_schema, rec.table_name;
 END LOOP;
 END;
 $$;    

Se eu chamar este procedimento, está apenas mostrando CALL. Sem resultados.

Mas no meu FOR LOOP, se eu remover o and table_name in (tables_s), consigo imprimir todos os nomes de tabelas e esquemas.

Mas algo errado com os vários nomes de tabela na variável. Sem isso está funcionando.

Alguém pode me ajudar a descobrir o que estava errado no meu script?

postgresql plpgsql
  • 1 respostas
  • 1397 Views
Martin Hope
TheDataGuy
Asked: 2019-08-27 04:22:45 +0800 CST

Combinar consulta SQL com variável

  • 0

O Redshift suporta dados de exportação para CSV executando esta consulta SQL.

unload ('select * from bhuvi') 
to 's3://bhuvi-bucket/folder//user-data.csv' 
iam_role 'arn:aws:iam::1111111:role/myredshiftrole' 
delimiter '|'  GZIP";

Eu tenho tabelas diferentes e preciso exportá-las para locais diferentes. Então eu tenho um procedimento armazenado como abaixo. para que eu possa passar os locais em uma variável no futuro.

CREATE OR REPLACE PROCEDURE test_variable()
 LANGUAGE plpgsql AS
$$
DECLARE
   sql text;
   s3_loc text;
   role text;
   deli text;
   query text;
BEGIN
   sql:='select * from bhuvi';
   s3_loc:='s3://bhuvi-bucket/folder/';
   role:='arn:aws:iam::1111111:role/myredshiftrole';
   deli:='|';
   query := "unload (sql) to 's3_loc/user-data.csv' iam_role 'role';
   execute query;
END
$$;

mas em algum lugar a sintaxe está errada. Eu não consigo encontrar isso. Quando eu chamo este procedimento, estou recebendo este erro abaixo.

test=# call test_variable();
ERROR:  column "unload (sql) to 's3_loc/user-data.csv' iam_role 'role' " does not exist
CONTEXT:  SQL statement "SELECT  "unload (sql) to 's3_loc/user-data.csv' iam_role 'role' ""
PL/pgSQL function "test_variable" line 12 at assignment
test=#
redshift plpgsql
  • 1 respostas
  • 829 Views
Martin Hope
TheDataGuy
Asked: 2018-10-17 02:39:29 +0800 CST

MySQL - Excluir com cláusula IN levando mais tempo

  • 4

No MySQL 5.6 eu tenho cerca de 60 milhões de linhas. Eu queria remover linhas com base no ID. Aqui Id é a chave primária.

Um comportamento estranho que tive hoje.

delete from tbl where id=1;

É executado em milissegundos.

Então eu fiz isso.

CREATE TEMPORARY TABLE DELETE_ID (ID int);
Insert into DELETE_ID select id from (subery1(subquery2(subquery3)));

O DELETE_ID tem cerca de 150 IDs.

Delete from tbl where id in (select id from DELETE_ID);

Está demorando mais de 30 minutos, mas excluindo uma única linha.

Não houve bloqueios ou impasses.

Em innodb_trx o status às vezes era às fetching rowsvezes unlocking rows.

Alguém pode me ajudar a entender porque isso está acontecendo?

mysql innodb
  • 2 respostas
  • 1965 Views
Martin Hope
TheDataGuy
Asked: 2018-09-16 00:49:12 +0800 CST

mysql - arquivos binlog de 35 GB são armazenados em cache no cache do SO

  • 0

Eu tenho um banco de dados mysql com 5.6.

  • Os logs binários estão habilitados e possui 5 escravos.

  • Modo GTID ativado.

  • O tamanho máximo do arquivo de log binário é de 1 GB.

  • sync_binlog = 0

Quando eu verifico ofree -gh

              total        used        free      shared  buff/cache   available
Mem:           117G         79G        1.4G         25M         37G         37G
Swap:            0B          0B          0B

37 GB em Cache.

Eu queria verificar o que estão todos relacionados ao Mysql. Então eu usei fincoree pude ver mysql-bin.000557que mysql-bin.000590estão no cache do sistema operacional.

O cache total do log binário é de 35 GB.

Esse é o comportamento esperado?

Não há atraso de replicação no escravo. Então, por que o mysql precisa armazenar em cache os logs binários antigos no Cache?

mysql linux
  • 1 respostas
  • 393 Views
Martin Hope
TheDataGuy
Asked: 2018-08-15 09:23:51 +0800 CST

Restauração do Mysql - ERRO 1227 (42000) na linha 30908: Acesso negado problema DEFINER

  • 0

Estou tentando restaurar o dump do banco de dados que tem o DEFINER= test@ %.

O arquivo de backup é de 50 GB.

SO - CentOS 7.5

Ao restaurar isso, recebi o erro abaixo.

ERROR 1227 (42000) at line 30908: Access denied; you need (at least one of) the SUPER privilege(s) for this operation

A linha 30908 é,

CREATE DEFINER=`test`@`%` PROCEDURE `myprod`(IN id INT)

Então eu tentei remover o definidor usando perl.

perl -p -i.bak -e "s/DEFINER=\`\w.*\`@\`\d[0-3].*[0-3]\`//g" my_dump_file.sql

É executado, mas depois disso também, recebi o mesmo problema e não foi alterado no arquivo.

Então eu tentei,

sed -e 's/DEFINER[ ]*=[ ]*[^*]*\*/\*/' < my_dump_file.sql > my_dump_file.new

Isso também é executado e tentou restaurar my_dump_file.new, mas ainda o mesmo problema na mesma linha.

Então, finalmente, tentei criar um usuário no MySQL.

create user `test`@`%` identified by 'test';
grant all on *.* to `test`@`%`;
flush privileges;

Novamente, estou recebendo o mesmo problema.

Alguém pode me ajudar a consertar isso?

mysql restore
  • 1 respostas
  • 4004 Views
Martin Hope
TheDataGuy
Asked: 2018-03-10 01:51:49 +0800 CST

mariadb Variável de sistema desconhecida 'server_uuid'

  • 2

Estou tentando configurar a replicação entre mariadb(10.1.31-MariaDB - MASTER)e mysql(5.7.12-log - SLAVE). Após executar o start slave, recebi o erro abaixo.

Erro fatal: O encadeamento de E/S escravo para porque um erro fatal é encontrado ao tentar obter o valor da variável SERVER_UUID do mestre.

Então tentei pegar o valor de master_uuid.

MariaDB [(none)]> show variables like '%server_uuid%';
Empty set (0.00 sec)

Em seguida, tentei configurar isso no prompt do mysql.

MariaDB [(none)]> set global  server_uuid = 11123c25-cac0-3523-8089-4c54d9b46f33;
ERROR 1193 (HY000): Unknown system variable 'server_uuid'

E também tentei configurar o auto.cnf no diretório de dados.

[auto]
server_uuid = 11123c25-cac0-3523-8089-4c54d9b46f33

chmod 644 auto.cnf

Mas ainda estou recebendo ofatal error is encountered when it tries to get the value of SERVER_UUID variable from master.

mysql replication
  • 1 respostas
  • 2739 Views
Martin Hope
TheDataGuy
Asked: 2017-11-06 09:27:04 +0800 CST

Percona - Não é possível iniciar o mysql após a reinicialização

  • 2

Acabei de configurar um cluster percona xtradb no Ubuntu com 2 nós.

Isto é o que eu fiz.

  1. lançou 2 novos servidores.
  2. Cluster percona instalado em ambos os nós.
  3. Parou o mysql em ambos os nós.

No servidor1:

/etc/mysql/percona-xtradb-cluster.conf.d/wsrep.cnf
wsrep_cluster_address=gcomm://172.31.5.172,172.31.13.81
binlog_format=ROW
wsrep_slave_threads= 8
wsrep_log_conflicts
innodb_autoinc_lock_mode=2
wsrep_node_address=172.31.5.172
wsrep_cluster_name=pxc-cluster
pxc_strict_mode=DISABLED
wsrep_sst_method=xtrabackup-v2
wsrep_sst_auth="sstuser:s3cretPass"

No Servidor 2:

/etc/mysql/percona-xtradb-cluster.conf.d/wsrep.cnf
wsrep_cluster_address=gcomm://172.31.5.172,172.31.13.81
binlog_format=ROW
wsrep_slave_threads= 8
wsrep_log_conflicts
innodb_autoinc_lock_mode=2
wsrep_node_address=172.31.13.81
wsrep_cluster_name=pxc-cluster
pxc_strict_mode=DISABLED
wsrep_sst_method=xtrabackup-v2
wsrep_sst_auth="sstuser:s3cretPass"

No server1: /etc/init.d/mysql bootstrap-pxc Então o mysql foi iniciado.

CREATE USER 'sstuser'@'localhost' IDENTIFIED BY 's3cretPass';
GRANT PROCESS, RELOAD, LOCK TABLES, REPLICATION CLIENT ON *.* TO 'sstuser'@'localhost';
FLUSH PRIVILEGES;

No Servidor 2:

service mysql start

A partir de agora sem problemas, testei a replicatina. Então eu reiniciei os dois nós.

Depois disso o mysql não inicia.

Servidor1:

2017-11-05T17:22:03.505946Z mysqld_safe Logging to '/var/log/mysqld.log'.
2017-11-05T17:22:03.515607Z mysqld_safe Starting mysqld daemon with databases from /var/lib/mysql
2017-11-05T17:22:03.520623Z mysqld_safe Skipping wsrep-recover for cc6a7fb6-c24b-11e7-bd13-ba1518e34f61:0 pair
2017-11-05T17:22:03.521158Z mysqld_safe Assigning cc6a7fb6-c24b-11e7-bd13-ba1518e34f61:0 to wsrep_start_position
2017-11-05T17:22:03.706708Z 0 [Warning] TIMESTAMP with implicit DEFAULT value is deprecated. Please use --explicit_defaults_for_timestamp server option (see documentation for more details).
2017-11-05T17:22:03.708134Z 0 [Note] /usr/sbin/mysqld (mysqld 5.7.19-17-57-log) starting as process 11089 ...
2017-11-05T17:22:03.709661Z 0 [Warning] No argument was provided to --log-bin, and --log-bin-index was not used; so replication may break when this MySQL server acts as a master and has his hostname changed!! Please use '--log-bin=ip-172-31-5-172-bin' to avoid this problem.
2017-11-05T17:22:03.709964Z 0 [Note] WSREP: Setting wsrep_ready to false
2017-11-05T17:22:03.709977Z 0 [Note] WSREP: No pre-stored wsrep-start position found. Skipping position initialization.
2017-11-05T17:22:03.709982Z 0 [Note] WSREP: wsrep_load(): loading provider library '/usr/lib/galera3/libgalera_smm.so'
2017-11-05T17:22:03.712249Z 0 [Note] WSREP: wsrep_load(): Galera 3.22(r8678538) by Codership Oy <[email protected]> loaded successfully.
2017-11-05T17:22:03.712290Z 0 [Note] WSREP: CRC-32C: using hardware acceleration.
2017-11-05T17:22:03.712549Z 0 [Note] WSREP: Found saved state: cc6a7fb6-c24b-11e7-bd13-ba1518e34f61:0, safe_to_bootsrap: 1
2017-11-05T17:22:03.713823Z 0 [Note] WSREP: Passing config to GCS: base_dir = /var/lib/mysql/; base_host = 172.31.5.172; base_port = 4567; cert.log_conflicts = no; debug = no; evs.auto_evict = 0; evs.delay_margin = PT1S; evs.delayed_keep_period = PT30S; evs.inactive_check_period = PT0.5S; evs.inactive_timeout = PT15S; evs.join_retrans_period = PT1S; evs.max_install_timeouts = 3; evs.send_window = 10; evs.stats_report_period = PT1M; evs.suspect_timeout = PT5S; evs.user_send_window = 4; evs.view_forget_timeout = PT24H; gcache.dir = /var/lib/mysql/; gcache.keep_pages_count = 0; gcache.keep_pages_size = 0; gcache.mem_size = 0; gcache.name = /var/lib/mysql//galera.cache; gcache.page_size = 128M; gcache.recover = no; gcache.size = 128M; gcomm.thread_prio = ; gcs.fc_debug = 0; gcs.fc_factor = 1; gcs.fc_limit = 100; gcs.fc_master_slave = no; gcs.max_packet_size = 64500; gcs.max_throttle = 0.25; gcs.recv_q_hard_limit = 9223372036854775807; gcs.recv_q_soft_limit = 0.25; gcs.sync_donor = no; gmcast.segment = 0; gmcast.version = 0; pc.announce_timeout = PT3S; pc.checksum = false; pc.ignore_quorum = false; pc.ignore_sb = false; pc.npvo = false; pc.recovery = 1; pc.version = 0; pc.wait_prim = true; pc.wait_prim_timeout = PT30S; pc.weight = 1; protonet.backend = asio; protonet.version = 0; repl.causal_read_timeout = PT30S; repl.commit_order = 3; repl.key_format = FLAT8; repl.max_ws_size = 2147483647; repl.proto_max = 7; socket.checksum = 2; socket.recv_buf_size = 212992;
2017-11-05T17:22:03.727615Z 0 [Note] WSREP: Assign initial position for certification: 0, protocol version: -1
2017-11-05T17:22:03.727630Z 0 [Note] WSREP: Preparing to initiate SST/IST
2017-11-05T17:22:03.727634Z 0 [Note] WSREP: Starting replication
2017-11-05T17:22:03.727640Z 0 [Note] WSREP: Setting initial position to cc6a7fb6-c24b-11e7-bd13-ba1518e34f61:0
2017-11-05T17:22:03.727741Z 0 [Note] WSREP: Using CRC-32C for message checksums.
2017-11-05T17:22:03.727792Z 0 [Note] WSREP: gcomm thread scheduling priority set to other:0
2017-11-05T17:22:03.727852Z 0 [Warning] WSREP: Fail to access the file (/var/lib/mysql//gvwstate.dat) error (No such file or directory). It is possible if node is booting for first time or re-booting after a graceful shutdown
2017-11-05T17:22:03.727859Z 0 [Note] WSREP: Restoring primary-component from disk failed. Either node is booting for first time or re-booting after a graceful shutdown
2017-11-05T17:22:03.728266Z 0 [Note] WSREP: GMCast version 0
2017-11-05T17:22:03.728398Z 0 [Note] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') listening at tcp://0.0.0.0:4567
2017-11-05T17:22:03.728405Z 0 [Note] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') multicast: , ttl: 1
2017-11-05T17:22:03.728686Z 0 [Note] WSREP: EVS version 0
2017-11-05T17:22:03.728771Z 0 [Note] WSREP: gcomm: connecting to group 'pxc-cluster', peer '172.31.5.172:,172.31.13.81:'
2017-11-05T17:22:03.728686Z 0 [Note] WSREP: EVS version 0
2017-11-05T17:22:03.728771Z 0 [Note] WSREP: gcomm: connecting to group 'pxc-cluster', peer '172.31.5.172:,172.31.13.81:'
2017-11-05T17:22:03.729595Z 0 [Note] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') connection established to d73a400b tcp://172.31.5.172:4567
2017-11-05T17:22:03.729609Z 0 [Warning] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') address 'tcp://172.31.5.172:4567' points to own listening address, blacklisting
2017-11-05T17:22:06.729830Z 0 [Note] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') connection to peer 00000000 with addr tcp://172.31.13.81:4567 timed out, no messages seen in PT3S
2017-11-05T17:22:06.729954Z 0 [Note] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') connection to peer d73a400b with addr tcp://172.31.5.172:4567 timed out, no messages seen in PT3S
2017-11-05T17:22:06.730072Z 0 [Warning] WSREP: no nodes coming from prim view, prim not possible
2017-11-05T17:22:06.730101Z 0 [Note] WSREP: Current view of cluster as seen by this node
view (view_id(NON_PRIM,d73a400b,1)
memb {
        d73a400b,0
        }
joined {
        }
left {
        }
partitioned {
        }
)
2017-11-05T17:22:07.230228Z 0 [Warning] WSREP: last inactive check more than PT1.5S ago (PT3.50154S), skipping check
2017-11-05T17:22:10.730540Z 0 [Note] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') connection to peer 00000000 with addr tcp://172.31.13.81:4567 timed out, no messages seen in PT3S
2017-11-05T17:22:14.731257Z 0 [Note] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') connection to peer 00000000 with addr tcp://172.31.13.81:4567 timed out, no messages seen in PT3S
2017-11-05T17:22:16.154486Z 0 [Note] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') connection established to de905d70 tcp://172.31.13.81:4567
2017-11-05T17:22:16.154851Z 0 [Note] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') turning message relay requesting on, nonlive peers:
2017-11-05T17:22:16.654815Z 0 [Note] WSREP: declaring de905d70 at tcp://172.31.13.81:4567 stable
2017-11-05T17:22:16.655411Z 0 [Warning] WSREP: no nodes coming from prim view, prim not possible
2017-11-05T17:22:16.655466Z 0 [Note] WSREP: Current view of cluster as seen by this node
view (view_id(NON_PRIM,d73a400b,2)
memb {
        d73a400b,0
        de905d70,0
        }
joined {
        }
left {
        }
partitioned {
        }
)
2017-11-05T17:22:19.232193Z 0 [Note] WSREP: (d73a400b, 'tcp://0.0.0.0:4567') turning message relay requesting off

Servidor2:

2017-11-05T17:22:15.979415Z 0 [Warning] TIMESTAMP with implicit DEFAULT value is deprecated. Please use --explicit_defaults_for_timestamp server option (see documentation for more details).
2017-11-05T17:22:15.981265Z 0 [Note] mysqld (mysqld 5.7.19-17-57-log) starting as process 1325 ...
2017-11-05T17:22:15.983852Z 0 [Warning] No argument was provided to --log-bin, and --log-bin-index was not used; so replication may break when this MySQL server acts as a master and has his hostname changed!! Please use '--log-bin=ip-172-31-13-81-bin' to avoid this problem.
2017-11-05T17:22:15.984031Z 0 [Note] WSREP: Setting wsrep_ready to false
2017-11-05T17:22:15.984043Z 0 [Note] WSREP: No pre-stored wsrep-start position found. Skipping position initialization.
2017-11-05T17:22:15.984047Z 0 [Note] WSREP: wsrep_load(): loading provider library '/usr/lib/galera3/libgalera_smm.so'
2017-11-05T17:22:16.013201Z 0 [Note] WSREP: wsrep_load(): Galera 3.22(r8678538) by Codership Oy <[email protected]> loaded successfully.
2017-11-05T17:22:16.013252Z 0 [Note] WSREP: CRC-32C: using hardware acceleration.
2017-11-05T17:22:16.015682Z 0 [Note] WSREP: Found saved state: 00000000-0000-0000-0000-000000000000:-1, safe_to_bootsrap: 0
2017-11-05T17:22:16.019709Z 0 [Note] WSREP: Passing config to GCS: base_dir = /var/lib/mysql/; base_host = 172.31.13.81; base_port = 4567; cert.log_conflicts = no; debug = no; evs.auto_evict = 0; evs.delay_margin = PT1S; evs.delayed_keep_period = PT30S; evs.inactive_check_period = PT0.5S; evs.inactive_timeout = PT15S; evs.join_retrans_period = PT1S; evs.max_install_timeouts = 3; evs.send_window = 10; evs.stats_report_period = PT1M; evs.suspect_timeout = PT5S; evs.user_send_window = 4; evs.view_forget_timeout = PT24H; gcache.dir = /var/lib/mysql/; gcache.keep_pages_count = 0; gcache.keep_pages_size = 0; gcache.mem_size = 0; gcache.name = /var/lib/mysql//galera.cache; gcache.page_size = 128M; gcache.recover = no; gcache.size = 128M; gcomm.thread_prio = ; gcs.fc_debug = 0; gcs.fc_factor = 1; gcs.fc_limit = 100; gcs.fc_master_slave = no; gcs.max_packet_size = 64500; gcs.max_throttle = 0.25; gcs.recv_q_hard_limit = 9223372036854775807; gcs.recv_q_soft_limit = 0.25; gcs.sync_donor = no; gmcast.segment = 0; gmcast.version = 0; pc.announce_timeout = PT3S; pc.checksum = false; pc.ignore_quorum = false; pc.ignore_sb = false; pc.npvo = false; pc.recovery = 1; pc.version = 0; pc.wait_prim = true; pc.wait_prim_timeout = PT30S; pc.weight = 1; protonet.backend = asio; protonet.version = 0; repl.causal_read_timeout = PT30S; repl.commit_order = 3; repl.key_format = FLAT8; repl.max_ws_size = 2147483647; repl.proto_max = 7; socket.checksum = 2; socket.recv_buf_size = 212992;
2017-11-05T17:22:16.034431Z 0 [Note] WSREP: GCache history reset: cc6a7fb6-c24b-11e7-bd13-ba1518e34f61:0 -> 00000000-0000-0000-0000-000000000000:-1
2017-11-05T17:22:16.035026Z 0 [Note] WSREP: Assign initial position for certification: -1, protocol version: -1
2017-11-05T17:22:16.035038Z 0 [Note] WSREP: Preparing to initiate SST/IST
2017-11-05T17:22:16.035041Z 0 [Note] WSREP: Starting replication
2017-11-05T17:22:16.035048Z 0 [Note] WSREP: Setting initial position to 00000000-0000-0000-0000-000000000000:-1
2017-11-05T17:22:16.035159Z 0 [Note] WSREP: Using CRC-32C for message checksums.
2017-11-05T17:22:16.035214Z 0 [Note] WSREP: gcomm thread scheduling priority set to other:0
2017-11-05T17:22:16.036228Z 0 [Warning] WSREP: Fail to access the file (/var/lib/mysql//gvwstate.dat) error (No such file or directory). It is possible if node is booting for first time or re-booting after a graceful shutdown
2017-11-05T17:22:16.036250Z 0 [Note] WSREP: Restoring primary-component from disk failed. Either node is booting for first time or re-booting after a graceful shutdown
2017-11-05T17:22:16.036685Z 0 [Note] WSREP: GMCast version 0
2017-11-05T17:22:16.036828Z 0 [Note] WSREP: (de905d70, 'tcp://0.0.0.0:4567') listening at tcp://0.0.0.0:4567
2017-11-05T17:22:16.036836Z 0 [Note] WSREP: (de905d70, 'tcp://0.0.0.0:4567') multicast: , ttl: 1
2017-11-05T17:22:16.037997Z 0 [Note] WSREP: EVS version 0
2017-11-05T17:22:16.038072Z 0 [Note] WSREP: gcomm: connecting to group 'pxc-cluster', peer '172.31.5.172:,172.31.13.81:'
2017-11-05T17:22:16.039496Z 0 [Note] WSREP: (de905d70, 'tcp://0.0.0.0:4567') connection established to de905d70 tcp://172.31.13.81:4567
2017-11-05T17:22:16.039513Z 0 [Warning] WSREP: (de905d70, 'tcp://0.0.0.0:4567') address 'tcp://172.31.13.81:4567' points to own listening address, blacklisting
2017-11-05T17:22:16.039960Z 0 [Note] WSREP: (de905d70, 'tcp://0.0.0.0:4567') connection established to d73a400b tcp://172.31.5.172:4567
2017-11-05T17:22:16.040014Z 0 [Note] WSREP: (de905d70, 'tcp://0.0.0.0:4567') turning message relay requesting on, nonlive peers:
2017-11-05T17:22:16.540329Z 0 [Note] WSREP: declaring d73a400b at tcp://172.31.5.172:4567 stable
2017-11-05T17:22:16.540836Z 0 [Warning] WSREP: no nodes coming from prim view, prim not possible
2017-11-05T17:22:16.540862Z 0 [Note] WSREP: Current view of cluster as seen by this node
view (view_id(NON_PRIM,d73a400b,2)
memb {
        d73a400b,0
        de905d70,0
        }
joined {
        }
left {
        }
partitioned {
        }
)
2017-11-05T17:22:19.039641Z 0 [Note] WSREP: (de905d70, 'tcp://0.0.0.0:4567') connection to peer de905d70 with addr tcp://172.31.13.81:4567 timed out, no messages seen in PT3S
2017-11-05T17:22:19.539775Z 0 [Note] WSREP: (de905d70, 'tcp://0.0.0.0:4567') turning message relay requesting off
2017-11-05T17:22:37.061048Z 0 [Note] WSREP: (de905d70, 'tcp://0.0.0.0:4567') turning message relay requesting on, nonlive peers: tcp://172.31.5.172:4567
2017-11-05T17:22:38.061306Z 0 [Note] WSREP: (de905d70, 'tcp://0.0.0.0:4567') reconnecting to d73a400b (tcp://172.31.5.172:4567), attempt 0
2017-11-05T17:22:41.562259Z 0 [Note] WSREP: evs::proto(de905d70, OPERATIONAL, view_id(REG,d73a400b,2)) suspecting node: d73a400b
2017-11-05T17:22:41.562325Z 0 [Note] WSREP: evs::proto(de905d70, OPERATIONAL, view_id(REG,d73a400b,2)) suspected node without join message, declaring inactive
2017-11-05T17:22:42.562445Z 0 [Note] WSREP: Current view of cluster as seen by this node
view (view_id(NON_PRIM,d73a400b,2)
memb {
        de905d70,0
        }
joined {
        }
left {
        }
partitioned {
        d73a400b,0
        }
)
2017-11-05T17:22:42.562525Z 0 [Warning] WSREP: no nodes coming from prim view, prim not possible
2017-11-05T17:22:42.562550Z 0 [Note] WSREP: Current view of cluster as seen by this node
view (view_id(NON_PRIM,de905d70,3)
memb {
        de905d70,0
        }
joined {
        }
left {
        }
partitioned {
        d73a400b,0
        }
)
2017-11-05T17:22:47.071058Z 0 [Note] WSREP: Current view of cluster as seen by this node
view ((empty))
2017-11-05T17:22:47.071334Z 0 [ERROR] WSREP: failed to open gcomm backend connection: 110: failed to reach primary view: 110 (Connection timed out)
         at gcomm/src/pc.cpp:connect():158
2017-11-05T17:22:47.071356Z 0 [ERROR] WSREP: gcs/src/gcs_core.cpp:gcs_core_open():208: Failed to open backend connection: -110 (Connection timed out)
2017-11-05T17:22:47.071412Z 0 [ERROR] WSREP: gcs/src/gcs.cpp:gcs_open():1513: Failed to open channel 'pxc-cluster' at 'gcomm://172.31.5.172,172.31.13.81': -110 (Connection timed out)
2017-11-05T17:22:47.071421Z 0 [ERROR] WSREP: gcs connect failed: Connection timed out
2017-11-05T17:22:47.071426Z 0 [ERROR] WSREP: Provider/Node (gcomm://172.31.5.172,172.31.13.81) failed to establish connection with cluster (reason: 7)
2017-11-05T17:22:47.071430Z 0 [ERROR] Aborting

2017-11-05T17:22:47.071433Z 0 [Note] Giving 0 client threads a chance to die gracefully
2017-11-05T17:22:47.071437Z 0 [Note] WSREP: Waiting for active wsrep applier to exit
2017-11-05T17:22:47.071440Z 0 [Note] WSREP: Service disconnected.
2017-11-05T17:22:47.071443Z 0 [Note] WSREP: Waiting to close threads......
2017-11-05T17:22:52.072202Z 0 [Note] WSREP: Some threads may fail to exit.
2017-11-05T17:22:52.072285Z 0 [Note] Binlog end
2017-11-05T17:22:52.072905Z 0 [Note] mysqld: Shutdown complete

2017-11-05T17:22:52.322273Z 0 [Warning] TIMESTAMP with implicit DEFAULT value is deprecated. Please use --explicit_defaults_for_timestamp server option (see documentation for more details).
2017-11-05T17:22:52.325253Z 0 [Warning] No argument was provided to --log-bin, and --log-bin-index was not used; so replication may break when this MySQL server acts as a master and has his hostname changed!! Please use '--log-bin=ip-172-31-13-81-bin' to avoid this problem.
2017-11-05T17:22:52.344397Z 0 [Warning] WSREP: Fail to access the file (/var/lib/mysql//gvwstate.dat) error (No such file or directory). It is possible if node is booting for first time or re-booting after a graceful shutdown
2017-11-05T17:22:52.346176Z 0 [Warning] WSREP: (f4348c81, 'tcp://0.0.0.0:4567') address 'tcp://172.31.13.81:4567' points to own listening address, blacklisting
2017-11-05T17:22:52.847728Z 0 [Warning] WSREP: no nodes coming from prim view, prim not possible
2017-11-05T17:23:22.856010Z 0 [ERROR] WSREP: failed to open gcomm backend connection: 110: failed to reach primary view: 110 (Connection timed out)
         at gcomm/src/pc.cpp:connect():158
2017-11-05T17:23:22.856051Z 0 [ERROR] WSREP: gcs/src/gcs_core.cpp:gcs_core_open():208: Failed to open backend connection: -110 (Connection timed out)
2017-11-05T17:23:22.856128Z 0 [ERROR] WSREP: gcs/src/gcs.cpp:gcs_open():1513: Failed to open channel 'pxc-cluster' at 'gcomm://172.31.5.172,172.31.13.81': -110 (Connection timed out)
2017-11-05T17:23:22.856140Z 0 [ERROR] WSREP: gcs connect failed: Connection timed out
2017-11-05T17:23:22.856147Z 0 [ERROR] WSREP: Provider/Node (gcomm://172.31.5.172,172.31.13.81) failed to establish connection with cluster (reason: 7)
2017-11-05T17:23:22.856151Z 0 [ERROR] Aborting
mysql percona
  • 2 respostas
  • 9150 Views

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host

    • 12 respostas
  • Marko Smith

    Como fazer a saída do sqlplus aparecer em uma linha?

    • 3 respostas
  • Marko Smith

    Selecione qual tem data máxima ou data mais recente

    • 3 respostas
  • Marko Smith

    Como faço para listar todos os esquemas no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Listar todas as colunas de uma tabela especificada

    • 5 respostas
  • Marko Smith

    Como usar o sqlplus para se conectar a um banco de dados Oracle localizado em outro host sem modificar meu próprio tnsnames.ora

    • 4 respostas
  • Marko Smith

    Como você mysqldump tabela (s) específica (s)?

    • 4 respostas
  • Marko Smith

    Listar os privilégios do banco de dados usando o psql

    • 10 respostas
  • Marko Smith

    Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Como faço para listar todos os bancos de dados e tabelas usando o psql?

    • 7 respostas
  • Martin Hope
    Jin conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host 2014-12-02 02:54:58 +0800 CST
  • Martin Hope
    Stéphane Como faço para listar todos os esquemas no PostgreSQL? 2013-04-16 11:19:16 +0800 CST
  • Martin Hope
    Mike Walsh Por que o log de transações continua crescendo ou fica sem espaço? 2012-12-05 18:11:22 +0800 CST
  • Martin Hope
    Stephane Rolland Listar todas as colunas de uma tabela especificada 2012-08-14 04:44:44 +0800 CST
  • Martin Hope
    haxney O MySQL pode realizar consultas razoavelmente em bilhões de linhas? 2012-07-03 11:36:13 +0800 CST
  • Martin Hope
    qazwsx Como posso monitorar o andamento de uma importação de um arquivo .sql grande? 2012-05-03 08:54:41 +0800 CST
  • Martin Hope
    markdorison Como você mysqldump tabela (s) específica (s)? 2011-12-17 12:39:37 +0800 CST
  • Martin Hope
    Jonas Como posso cronometrar consultas SQL usando psql? 2011-06-04 02:22:54 +0800 CST
  • Martin Hope
    Jonas Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL? 2011-05-28 00:33:05 +0800 CST
  • Martin Hope
    Jonas Como faço para listar todos os bancos de dados e tabelas usando o psql? 2011-02-18 00:45:49 +0800 CST

Hot tag

sql-server mysql postgresql sql-server-2014 sql-server-2016 oracle sql-server-2008 database-design query-performance sql-server-2017

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve