AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / dba / 问题

All perguntas(dba)

Martin Hope
robkuz
Asked: 2024-04-04 02:05:13 +0800 CST

Tipo definido pelo usuário ausente na importação de um backup com PGAdmin

  • 5

Eu tenho um erro estranho ao importar um banco de dados com backup do meu ambiente de produção para o meu ambiente de desenvolvimento.

o cenário é o seguinte:

  • Postgres 13.x
  • PGAdmin 4
  • os arquivos de migração são gerados pelo dbmate e criam as mesmas tabelas em ambos os ambientes. Pelo menos é o que penso e espero.
  • o backup é feito via PGAdmin exportando SOMENTE os dados (sem esquema, sem nada)

OK, essa foi a parte fácil.

Minha importação usando o PgAdmin funciona quase bem com uma única exceção em uma tabela específica. Essa tabela usa um tipo definido pelo usuário para uma de suas colunas e define uma restrição que usa esse tipo definido pelo usuário dentro de uma função quando a restrição é verificada.

A coisa toda se parece mais ou menos com isto:

CREATE TYPE status AS ENUM ('ACTIVE','DEACTIVE');

CREATE TABLE my_table (
    id          varchar(36) NOT NULL PRIMARY KEY,
    created_at  timestamp NOT NULL,
    updated_at  timestamp NOT NULL,

    ...

    total       decimal NOT NULL,
    value       JSONB NOT NULL,
    state       status
);

CREATE OR REPLACE FUNCTION complex_constraint_function(value JSONB, total decimal, state status)
RETURNS boolean AS $$
DECLARE
    result boolean default false;
BEGIN
    IF state = 'ACTIVE'::status THEN
        BEGIN
            --do some complex JSONB stuff
            -- return true if everything is fine
            RETURN true;
        END;
    ELSE
        RETURN false;
    END IF;
END;
$$ LANGUAGE plpgsql;

ALTER TABLE my_table 
    ADD CONSTRAINT check_complex_constraint
        CHECK (complex_constraint_function(value, total, state));

Estou usando vários tipos definidos pelo usuário em meu banco de dados e todos funcionam bem. E estou usando várias restrições que usam funções e todas funcionam bem. Mas esta tabela em particular está me dando dor de cabeça.

Ao importar o backup via PGAdmin para o ambiente de desenvolvimento, recebo o seguinte erro quando a restrição está sendo verificada

pg_restore: error: COPY failed for table "my_table": ERROR: type "status" does not exist
LINE 1: state = 'ACTIVE'::status
^
QUERY: state = 'ACTIVE'::status
CONTEXT: PL/pgSQL function public.complex_constraint_function(jsonb,numeric,public.status) line 6 at IF

Eu verifiquei duas vezes e três vezes se esse tipo ENUM existe em ambos os bancos de dados (e honestamente não há outra maneira, já que o banco de dados de desenvolvimento é reconstruído regularmente usando dbmate). Sinceramente, não tenho ideia de como isso pode ser. Como ao executar meus casos de teste com o dev-db, essa restrição existe (estou testando isso explicitamente).

Alguém já viu algo assim? Ou alguma idéia de como depurar isso (exceto eliminar a restrição)?

Obrigado

postgresql
  • 1 respostas
  • 13 Views
Martin Hope
umarkaa
Asked: 2024-04-03 23:53:14 +0800 CST

relacionamento um para um em tabelas

  • 6

Estou criando 2 tabelas como abaixo, quero que essas duas tabelas tenham um relacionamento um para um e sempre que eu inserir uma linha Userquero que o mesmo PK seja inserido na outra tabela também. Isso funcionaria apenas INSERT INTOem 1 tabela Userpara que a mesma fosse inserida pointstambém.

CREATE TABLE if not exists User (
    id bigint AUTO_INCREMENT,
    country VARCHAR(128),
    PRIMARY KEY (id)
);

CREATE TABLE if not exists points (
    userid bigint UNIQUE NOT NULL,
    points bigint
);

ALTER TABLE ['points'] ADD CONSTRAINT FK FOREIGN KEY([userid])  REFERENCES [User]([id]);

Também estou usando o mysql 8.0.28, ALTER TABLE ['points'] ADD CONSTRAINT FK FOREIGN KEY([userid]) REFERENCES [User]([id]);esta instrução retorna erro de sintaxe em[]

Qual é a maneira correta de implementar? Também por curiosidade, como posso definir a chave estrangeira na criação da tabela?

mysql
  • 1 respostas
  • 13 Views
Martin Hope
0xC0DEGURU
Asked: 2024-04-03 23:18:00 +0800 CST

Como excluir em massa de uma tabela InnoDB muito grande, evitando erro de tamanho do buffer de bloqueio excedido?

  • 6

Eu tenho uma tabela InnoDB muito grande que atualmente armazena cerca de 260 milhões de linhas e 40 GB de tamanho.

mysql> SELECT * FROM  INFORMATION_SCHEMA.PARTITIONS WHERE TABLE_SCHEMA = 'db' AND   TABLE_NAME   = 'objects';
+---------------+--------------+------------+----------------+-------------------+----------------------------+-------------------------------+------------------+---------------------+----------------------+-------------------------+-----------------------+------------+----------------+-------------+-----------------+--------------+-----------+---------------------+-------------+------------+----------+-------------------+-----------+-----------------+
| TABLE_CATALOG | TABLE_SCHEMA | TABLE_NAME | PARTITION_NAME | SUBPARTITION_NAME | PARTITION_ORDINAL_POSITION | SUBPARTITION_ORDINAL_POSITION | PARTITION_METHOD | SUBPARTITION_METHOD | PARTITION_EXPRESSION | SUBPARTITION_EXPRESSION | PARTITION_DESCRIPTION | TABLE_ROWS | AVG_ROW_LENGTH | DATA_LENGTH | MAX_DATA_LENGTH | INDEX_LENGTH | DATA_FREE | CREATE_TIME         | UPDATE_TIME | CHECK_TIME | CHECKSUM | PARTITION_COMMENT | NODEGROUP | TABLESPACE_NAME |
+---------------+--------------+------------+----------------+-------------------+----------------------------+-------------------------------+------------------+---------------------+----------------------+-------------------------+-----------------------+------------+----------------+-------------+-----------------+--------------+-----------+---------------------+-------------+------------+----------+-------------------+-----------+-----------------+
| def           | db           | objects    | NULL           | NULL              |                       NULL |                          NULL | NULL             | NULL                | NULL                 | NULL                    | NULL                  |  225970904 |            171 | 38667747328 |            NULL |   8046510080 |         0 | 2024-04-02 12:08:15 | NULL        | NULL       |     NULL |                   |           | NULL            |
+---------------+--------------+------------+----------------+-------------------+----------------------------+-------------------------------+------------------+---------------------+----------------------+-------------------------+-----------------------+------------+----------------+-------------+-----------------+--------------+-----------+---------------------+-------------+------------+----------+-------------------+-----------+-----------------+
1 row in set (0.04 sec)

Para evitar o crescimento infinito da tabela, pretendo excluir as linhas com mais de 2 anos durante os horários em que o banco de dados está menos ocupado todos os dias. Eu tentei a seguinte consulta.

DELETE FROM objects WHERE DATEDIFF(NOW(), timestamp ) >= 731;

Mas isso me dá erro:

Error 1206: The total number of locks exceeds the lock table size

O tamanho innodb_buffer_pool_sizeé de 128 MB, o que acho que é muito baixo. Infelizmente, a máquina host não possui mais de 300 MB de RAM livre. Ainda não tentei aumentar o tamanho do innodb_buffer_pool_sizebuffer, mas suponho que algumas centenas de MB não serão suficientes e não há mais espaço para aumentá-lo. A consulta é muito lenta, a máquina host tem pouca memória RAM, o banco de dados está atendendo ativamente aos clientes e há um aplicativo em execução que insere dados de forma consistente no banco de dados. Tem outro cara que opera com essa aplicação e se quiser reiniciar o banco de dados tenho que pedir para ele primeiro parar aquela aplicação. Portanto, definir innodb_buffer_pool_sizepor tentativa e erro é uma tarefa complicada. Você pode me sugerir como calcular aproximadamente o tamanho mínimo innodb_buffer_pool_sizepara evitar esse erro?

Outra abordagem que não tentei sim - como a tabela possui colunas timestampe objectIDe é indexada por essas colunas as linhas expiradas podem ser excluídas objeto por objeto. Primeiro, vamos coletar todos os IDs de objetos exclusivos:

SELECT DISTINCT objectID FROM objects;

Demora cerca de 30-40 segundos. Em seguida, exclua por objectID:

DELETE FROM objects WHERE objectID = ... DATEDIFF(NOW(), timestamp ) >= 731;

Mas como unir as duas consultas em uma só?

DELETE FROM objects WHERE objectID IN (SELECT DISTINCT objectID FROM objects) AND DATEDIFF(NOW(), timestamp ) >= 731;

dá um erro

ERROR 1093 (HY000): You can't specify target table 'objects' for update in FROM clause
Description:    Ubuntu 12.04.1 LTS

mysql> select version();
+-----------------------------------+
| version()                         |
+-----------------------------------+
| 5.6.14-1+debphp.org~precise+1-log |
+-----------------------------------+

mysql
  • 2 respostas
  • 48 Views
Martin Hope
umarkaa
Asked: 2024-04-03 22:34:32 +0800 CST

Definir o valor cte_max_recursion_profundidade não tem efeito

  • 6

Estou usando o MySQL 8.0.36, tenho uma consulta recursiva para inserir 5 milhões de linhas em uma tabela. eu recebo o erro

ERROR 3636 (HY000): Recursive query aborted after 1001 iterations. Try increasing @@cte_max_recursion_depth to a larger value.

então executei a consulta. SET GLOBAL cte_max_recursion_depth=10000000;No entanto, parecia não ter efeito. Qual é o problema?

mysql
  • 1 respostas
  • 10 Views
Martin Hope
Simas Joneliunas
Asked: 2024-04-03 19:13:39 +0800 CST

Como configurar o component_keyring_file no MySql 8.3

  • 5

Estou tentando configurar a criptografia do espaço de tabela no MySQL 8.3 e consigo ativar o keyring-fileplugin. O plugin, no entanto, lança um aviso de descontinuação sugerindo a migração para o component_keyring_file. Tentei configurá-lo dessa forma, mas falhei com um erro genérico, sem mais dicas do que fiz de errado.

O componente component_keyring_file relatou: 'O componente não foi inicializado corretamente. Certifique-se de que a configuração esteja correta e use ALTER INSTANCE RELOAD KEYRING para reinicializar o componente.'

Algum dos especialistas aqui conseguiu configurar o plugin com sucesso, alternativamente - é possível obter um erro mais profundo do MySQL, já que os logs de nível de nota também não ajudam? Tentei consultar os documentos oficiais aqui e aqui , mas não consegui encontrar o que estou fazendo de errado.

Arquivo Docker:

FROM mysql:latest

RUN mkdir -p /var/lib/mysql-keyring/component_keyring_file

COPY ./conf/mysqld.my /usr/sbin/mysqld.my

COPY ./conf/component_keyring_file.cnf /usr/lib64/mysql/plugin/component_keyring_file.cnf

RUN /bin/bash -c 'chown root:mysql /usr/sbin/mysqld.my ; chmod 644 /usr/sbin/mysqld.my'

arquivo mysqld.my:

{ "components": "file://component_keyring_file" }

arquivo componente_keyring_file.cnf

{"path": "/var/lib/mysql-keyring/component_keyring_file", "read_only": false }

arquivo docker-compose

version: '3.8'

services:
  mysql:
    image: mysql:latest
    build:
      context: .
      dockerfile: Dockerfile
    container_name: mysql_test
    restart: always
    environment:
      MYSQL_ROOT_PASSWORD: root
      MYSQL_DATABASE: db1
      MYSQL_USER: user
      MYSQL_PASSWORD: password
    ports:
      - "3306:3306"
mysql
  • 1 respostas
  • 140 Views
Martin Hope
Erik Darling
Asked: 2024-04-03 03:05:09 +0800 CST

A consulta XML continua convertendo < para < e > para >

  • 12

bigxml4u

Alguns planos de consulta são muito grandes para serem armazenados adequadamente como XML. Você recebe o erro:XML datatype instance has too many levels of nested nodes. Maximum allowed depth is 128 levels.

O que está bem. Tudo precisa de limitações para evitar o uso indevido. Quem sabe o que aconteceria em 129 níveis aninhados.

Obviamente, com planos de consulta, você pode salvar o XML do formato de texto como um arquivo .sqlplan e reabri-lo como um plano de execução gráfico.

O problema que estou tendo com minha consulta é que quando tento exibir isso, <é alterado para &lt;e >para &gt;. Isso adiciona duas etapas extras antes que você possa salvar o arquivo como um .sqlplan válido, que pode ser reaberto.

No momento, minha consulta faz o seguinte:

    query_plan = 
         CASE
             WHEN TRY_CAST(qsp.query_plan AS XML) IS NOT NULL
             THEN TRY_CAST(qsp.query_plan AS XML)
             WHEN TRY_CAST(qsp.query_plan AS XML) IS NULL
             THEN 
                 (
                     SELECT
                         (
                             SELECT
                                 N''-- '' + NCHAR(13) + NCHAR(10) +
                                 N''-- This is a huge query plan.'' + NCHAR(13) + NCHAR(10) +
                                 N''-- Remove the headers and footers, save it as a .sqlplan file, and re-open it.'' + NCHAR(13) + NCHAR(10) +
                                 N''-- Depending on local factors, you may need to replace "<" and ">" too.'' + NCHAR(13) + NCHAR(10) +
                                 N''-- '' + NCHAR(13) + NCHAR(10) +
                                 REPLACE(qsp.query_plan, N''<RelOp'', NCHAR(13) + NCHAR(10) + N''<RelOp'') +
                                 NCHAR(13) + NCHAR(10) + N''--'' COLLATE Latin1_General_Bin2 AS [processing-instruction(query_plan)]
                         )
                         FOR XML PATH(N''''), 
                                 TYPE
                 )
         END,

Normalmente, eu seguiria meu próprio conselho e adicionaria isso ao final, mas isso me traz de volta ao erro XML original sobre nós e aninhamento e 128, etc.

.value
     (
         './text()[1]', 
         'nvarchar(max)'
     );

Tentei adicionar REPLACEseleções internas e externas para tentar consertar as coisas, mas o blob parece imune aos meus encantos.

Existe uma maneira de impedir ou contornar a conversão desses caracteres para facilitar um pouco mais o salvamento do arquivo?

Se você tiver uma cópia do banco de dados StackOverflow localmente, poderá gerar um plano de consulta que termina nulo em TRY_CASTe gera um erro quando tratado como XML com esta consulta:

WITH
    p0 AS (SELECT pt.* FROM dbo.PostTypes AS pt),
    p1 AS (SELECT pp.* FROM p0 AS p CROSS JOIN p0 AS pp),
    p2 AS (SELECT pp.* FROM p1 AS p CROSS JOIN p1 AS pp),
    p3 AS (SELECT pp.* FROM p2 AS p CROSS JOIN p2 AS pp),
    p4 AS (SELECT pp.* FROM p3 AS p CROSS JOIN p3 AS pp),
    p5 AS (SELECT pp.* FROM p4 AS p CROSS JOIN p4 AS pp),
    p6 AS (SELECT pp.* FROM p5 AS p CROSS JOIN p5 AS pp),
    p7 AS (SELECT pp.* FROM p6 AS p CROSS JOIN p6 AS pp),
    p8 AS (SELECT pp.* FROM p7 AS p CROSS JOIN p7 AS pp),
    p9 AS (SELECT pp.* FROM p8 AS p CROSS JOIN p8 AS pp)
SELECT
    c = COUNT_BIG(*)
FROM p9 AS p
OPTION(RECOMPILE);

Se você quiser apenas ver o absurdo gerado, você pode usar este link principal do GitHub .

sql-server
  • 1 respostas
  • 528 Views
Martin Hope
Andy
Asked: 2024-04-02 17:25:40 +0800 CST

Evite que o arquivo de log fique muito grande no SQL Server

  • 5

Eu tenho um procedimento armazenado do SQL Server que essencialmente 'nivela' um banco de dados complexo em uma tabela única e simplificada em um banco de dados separado para permitir que os usuários consultem os dados sem precisar entender a estrutura do banco de dados. O SP trunca a tabela de destino, insere a chave primária e outros campos e, em seguida, executa uma série de atualizações para preencher todos os outros campos da tabela usando funções de usuário e diversas consultas para formatar os dados. Existem aprox. 9 milhões de linhas na tabela e o SP levam cerca de 2,5 horas para ser executado e durante esse tempo o arquivo de log cresce para mais de 30 GB. O banco de dados está em um servidor Azure com espaço em disco limitado e recentemente o SP travou porque o arquivo de log ficou sem espaço.

O banco de dados de destino está no modo de recuperação simples e o SP é executado durante um fim de semana, portanto, não há outros processos ou usuários utilizando-o. O SP não contém nenhuma transação ou commit e não fragmenta o trabalho, apenas executa do início ao fim, inserindo, atualizando (e ocasionalmente excluindo) as linhas. Como posso torná-lo mais eficiente e usar menos espaço no arquivo de log? Deveria usar transações, confirmar ou reduzir o arquivo de log à medida que ele é executado? Ou alguma outra coisa?

sql-server-2017
  • 1 respostas
  • 38 Views
Martin Hope
Chris Harrington
Asked: 2024-04-02 01:41:29 +0800 CST

Consulta para adicionar registros para linhas pai que estão faltando nos detalhes

  • 7

Eu tenho essas duas tabelas

DECLARE @Site TABLE (
  SiteCode varchar(4) NOT NULL
);

INSERT INTO @Site (SiteCode)
VALUES 
('S1'),
('S2'),
('S3'),
('S4')

DECLARE @SiteStatus TABLE (
  SiteCode varchar(4) NOT NULL,
  Year int NOT NULL,
  Month varchar(10) NOT NULL,
  UploadCount int NOT NULL
);

INSERT INTO @SiteStatus (SiteCode, Year, Month, UploadCount)
VALUES 
('S1', 2024, 'March', 1),
('S1', 2024, 'April', 1),
('S1', 2024, 'May', 1),
('S1', 2024, 'June', 1),
('S2', 2024, 'March', 1),
('S2', 2024, 'April', 1),
('S2', 2024, 'May', 0),
('S2', 2024, 'June', 0),
('S3', 2024, 'March', 1),
('S3', 2024, 'April', 0)

E eu quero escrever uma consulta que retornará o seguinte

SELECT ... ?

'S1', 2024, 'March', 1
'S1', 2024, 'April', 1
'S1', 2024, 'May', 1
'S1', 2024, 'June', 1

'S2', 2024, 'March', 1
'S2', 2024, 'April', 1
'S2', 2024, 'May', 0
'S2', 2024, 'June', 0

'S3', 2024, 'March', 1
'S3', 2024, 'April', 0
'S3', 2024, 'May', 0
'S3', 2024, 'June', 0

'S4', 2024, 'March', 0
'S4', 2024, 'April', 0
'S4', 2024, 'May', 0
'S4', 2024, 'June', 0

Basicamente, adicione zero registros para todos os combos de data do site ausentes no SiteStatus.

Obrigado!

sql-server
  • 2 respostas
  • 390 Views
Martin Hope
Furkan YIlmaZ
Asked: 2024-04-01 16:56:25 +0800 CST

Cluster fragmentado – Por que meus dados não são divididos entre nós?

  • 5

Criei um cluster com dois fragmentos. Ou assim pensei. No meu projeto, o primeiro servidor possui mongos_router shard1 (3 nós) e servidores de configuração. O segundo servidor possui apenas 2 nós de fragmento. Depois de configurar os shards, habilitei o sharding para cada banco de dados. E quando olho a saída de sh.status() vejo a saída abaixo:

...
  {
    database: {
      _id: 'wins_emission',
      primary: 'shard1rs',
      partitioned: false,
      version: {
        uuid: UUID('aebf94cf-6069-41ba-9a91-f91a944071b1'),
        timestamp: Timestamp({ t: 1711952615, i: 3000 }),
        lastMod: 1
      }
    },
    collections: {}
  },
  {
    database: {
      _id: 'wins_healthcheck',
      primary: 'shard2rs',
      partitioned: false,
      version: {
        uuid: UUID('663cb5f7-b7b3-4f40-9f52-2c3d1969fb65'),
        timestamp: Timestamp({ t: 1711952305, i: 4 }),
        lastMod: 1
      }
    },
...

Eu entendi isso porque os bancos de dados serão distribuídos entre os fragmentos. E eu esperava que os dados entre os nós não fossem iguais. Por exemplo, a tabela de notificações tem 17,7 mil documentos. E espero que esses documentos sejam compartilhados entre os nós. Como o primeiro nó do shard1 tem 4k, o nó do segundo shard1 tem 4k etc. Cada nó em cada fragmento tem a mesma quantidade de 17,7k. Posso estar sendo mal interpretado.

Tentei fragmentar no nível da coleção para a tabela de notificações. Eu criei uma chave de fragmento com hash. E então executou sh.shardCollection()o comando. E agora meu primeiro shard tem 4,7 mil documentos entre seus próprios nós, enquanto o shard2 tem 12,9 mil em si. Agora, isso me fez pensar nessas questões.

  1. Preciso fragmentar todas as coleções para usar um cluster fragmentado?
  2. Devo fragmentar todas as coleções ou apenas aquelas que contêm grandes dados, como logs.
  3. Por que todos os nós em um fragmento têm a mesma quantidade de documentos? Eles não deveriam distribuir os dados por si só?

Qualquer ajuda é apreciada.

Edição 1: Saída do getShardDistribution de uma coleção específica;

{
  data: '382.25MiB',
  docs: 7006,
  chunks: 3,
  'estimated data per chunk': '127.41MiB',
  'estimated docs per chunk': 2335
}
---
Shard shard2rs at shard2rs/172.16.114.129:27020,172.16.114.129:27021,172.16.114.129:27022
{
  data: '579.78MiB',
  docs: 10578,
  chunks: 1,
  'estimated data per chunk': '579.78MiB',
  'estimated docs per chunk': 10578
}
---
Totals
{
  data: '962.03MiB',
  docs: 17584,
  chunks: 4,
  'Shard shard1rs': [
    '39.73 % data',
    '39.84 % docs in cluster',
    '55KiB avg obj size on shard'
  ],
  'Shard shard2rs': [
    '60.26 % data',
    '60.15 % docs in cluster',
    '56KiB avg obj size on shard'
  ]
}


replication
  • 1 respostas
  • 27 Views
Martin Hope
Paku
Asked: 2024-04-01 16:02:33 +0800 CST

PostgreSQL "TODOS" vs "TODOS OS PRIVILÉGIOS"

  • 5

No PostgreSQL qual é a diferença entre

REVOKE ALL PRIVILEGES FROM SCHEMA public;

contra

REVOKE ALL FROM SCHEMA public;
postgresql
  • 1 respostas
  • 23 Views
Prev
Próximo

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host

    • 12 respostas
  • Marko Smith

    Como fazer a saída do sqlplus aparecer em uma linha?

    • 3 respostas
  • Marko Smith

    Selecione qual tem data máxima ou data mais recente

    • 3 respostas
  • Marko Smith

    Como faço para listar todos os esquemas no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Listar todas as colunas de uma tabela especificada

    • 5 respostas
  • Marko Smith

    Como usar o sqlplus para se conectar a um banco de dados Oracle localizado em outro host sem modificar meu próprio tnsnames.ora

    • 4 respostas
  • Marko Smith

    Como você mysqldump tabela (s) específica (s)?

    • 4 respostas
  • Marko Smith

    Listar os privilégios do banco de dados usando o psql

    • 10 respostas
  • Marko Smith

    Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Como faço para listar todos os bancos de dados e tabelas usando o psql?

    • 7 respostas
  • Martin Hope
    Jin conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host 2014-12-02 02:54:58 +0800 CST
  • Martin Hope
    Stéphane Como faço para listar todos os esquemas no PostgreSQL? 2013-04-16 11:19:16 +0800 CST
  • Martin Hope
    Mike Walsh Por que o log de transações continua crescendo ou fica sem espaço? 2012-12-05 18:11:22 +0800 CST
  • Martin Hope
    Stephane Rolland Listar todas as colunas de uma tabela especificada 2012-08-14 04:44:44 +0800 CST
  • Martin Hope
    haxney O MySQL pode realizar consultas razoavelmente em bilhões de linhas? 2012-07-03 11:36:13 +0800 CST
  • Martin Hope
    qazwsx Como posso monitorar o andamento de uma importação de um arquivo .sql grande? 2012-05-03 08:54:41 +0800 CST
  • Martin Hope
    markdorison Como você mysqldump tabela (s) específica (s)? 2011-12-17 12:39:37 +0800 CST
  • Martin Hope
    Jonas Como posso cronometrar consultas SQL usando psql? 2011-06-04 02:22:54 +0800 CST
  • Martin Hope
    Jonas Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL? 2011-05-28 00:33:05 +0800 CST
  • Martin Hope
    Jonas Como faço para listar todos os bancos de dados e tabelas usando o psql? 2011-02-18 00:45:49 +0800 CST

Hot tag

sql-server mysql postgresql sql-server-2014 sql-server-2016 oracle sql-server-2008 database-design query-performance sql-server-2017

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve