AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / dba / 问题

All perguntas(dba)

Martin Hope
Ivan
Asked: 2023-08-15 05:02:16 +0800 CST

Oracle 19 Scheduler não inicia trabalhos

  • 7
Esta questão foi migrada do Stack Overflow porque pode ser respondida no Stack Exchange dos Administradores de Banco de Dados. Migrado há 10 dias .

Nosso Oracle Scheduler não funciona em vários de nossos ambientes, mas funciona em alguns. Nos ambientes onde está funcionando, a consulta a seguir retorna 1 linha

select program from v$session where osuser = 'oracle' and program like '%(CJQ0)%';
[email protected] (CJQ0)

Nos ambientes onde não está funcionando, nenhuma linha é retornada.

Este é o teste que realizei para ver se o Agendador estava rodando. Deve disparar instantaneamente o trabalho.

CREATE TABLE MySchema.TEMP_DBMS_JOB (
  A NUMBER(*, 0))
DECLARE 
l_jobid int;
BEGIN
    dbms_job.submit(job => l_jobid, what => 'begin insert into MySchema.temp_dbms_job (a) values (13); commit; end;');
    dbms_output.put_line(l_jobid);
    COMMIT;
END;

O que o DBA pode fazer para colocar o Agendador em execução? A consulta da sessão "CJQ0" ajuda a identificar qual pode ser a origem subjacente do problema? O DBA não vê problemas com a configuração do agendador.

Também tentamos DBMS_SCHEDULER.create_job enviar os trabalhos em vez do obsoleto dbms_job.submit e obtivemos exatamente o mesmo resultado nos mesmos ambientes.

Pretendo oferecer uma recompensa de 3.000 pontos assim que esta questão atingir a idade suficiente exigida. Se uma resposta levar à solução anterior, ainda assim oferecerei os pontos.

oracle
  • 2 respostas
  • 31 Views
Martin Hope
Luke Belbina
Asked: 2023-08-15 08:31:11 +0800 CST

Problemas usando uma variável psql -v com jsonb_set

  • 5
Esta pergunta foi migrada do Stack Overflow porque pode ser respondida no Database Administrators Stack Exchange. Migrado há 2 dias .

Situação bastante obscura e algumas horas tentando coisas diferentes sem sorte.

Eu tenho um script bash que restaura um backup de banco de dados de produção localmente. Parte do script executa algum SQL para definir coisas no banco de dados.

Um desses itens é definir o correto slack_tokenem uma slack_detailstabela. Aqui está como eu executo o script bash:

$ ./restore-prod-database.sh -t "xoxb-1234567-1234....."

O script tem uma linha que aciona a execução de um arquivo .sql como este:

psql -h $DATABASE_HOST -d $DATABASE_NAME -a -v slack_token=$SLACK_TOKEN -f restore-populate-slack-details.sql

Finalmente, o SQL faz algo assim:

UPDATE slack_details
SET installation = jsonb_set(installation, '{bot,token}', ('"' || :slack_token ||'"')::jsonb)
WHERE id = 1;

Não importa o que eu tente, seja concatenando o :slack_token com aspas, passando-o com aspas, usando aspas simples e "Recebo o seguinte erro:

ATUALIZAÇÃO slack_details SET instalação = jsonb_set(instalação, '{bot,token}', ('"' || :slack_token ||'"')::jsonb) WHERE id = 1; psql:restore-populate-slack-details.sql:61: ERRO: a coluna "xoxb" não existe LINHA 2: ... = jsonb_set(instalação, '{bot,token}', ('"' || xoxb- 12345...

Nota rápida, a instalação é uma coluna jsonb e o código a seguir funciona bem, no momento em que uso a variável -v não funciona:

UPDATE slack_details
SET installation = jsonb_set(installation, '{bot,token}', ('"' || '123456' ||'"')::jsonb)
WHERE id = 1; --- works fine
postgresql
  • 1 respostas
  • 22 Views
Martin Hope
variable
Asked: 2023-08-15 13:36:38 +0800 CST

A durabilidade atrasada tem a possibilidade de causar uma grande fila de refazer em um banco de dados AG síncrono?

  • 5

Eu tenho um problema em que a reconstrução do índice está causando uma grande fila de refazer no nó secundário do AG síncrono.

Este problema ocorre apenas em 1 db, e a única diferença entre este db e todos os outros dbs é que este db tem durabilidade atrasada forçada. Em média, todos os dbs variam de 300 a 600 GB de tamanho de arquivo de dados.

Com base na documentação, entendo que, para este banco de dados, a durabilidade da transação não é garantida (por exemplo, após a reinicialização ou falha) e o cliente recebe confirmação antes do registro de log gravado no disco no nó AG primário/secundário.

Minha pergunta é: quando o log é finalmente liberado para o disco no nó primário (seja por meio de uma transação durável ou comando de descarga forçada), o log também é enviado para o nó secundário neste ponto? Então, efetivamente, este é um grande pedaço de registros e provavelmente a razão pela qual a fila de refazer se torna grande?

Atualização: o acúmulo da fila de refazer durante a reconstrução do índice dura apenas cerca de 20 segundos (quando a durabilidade atrasada é forçada). Se eu desativar a durabilidade atrasada, não haverá acúmulo de fila de refazer durante a reconstrução do índice. Estou me perguntando se os grandes pedaços de descarga (devido à durabilidade atrasada) estão causando o acúmulo momentâneo da fila de refazer.

sql-server
  • 1 respostas
  • 32 Views
Martin Hope
Fred
Asked: 2023-08-15 05:53:03 +0800 CST

O cliente Cassandra não pode se conectar imediatamente após a inicialização do Cassandra

  • 6

Temos instâncias Cassandra 3.11.2 de nó único e sem cluster, que oferecem suporte a muitos ambientes de clientes separados. Recentemente, vimos muitos casos em que uma instância do Cassandra foi iniciada com êxito por um script de cliente, mas não foi possível conectar-se imediatamente a esse cliente devido a um erro de 'conexão recusada'. Aqui está um trecho do log do lado do cliente mostrando as mensagens de inicialização e erros de conexão. O cliente está usando o driver Java versão 3.0.1.

2023-08-11 00:21:39,669 DEBUG [main:2cb1] STDOUT - 00:21:39.668 [main] DEBUG com.datastax.driver.core.Cluster - Starting new cluster with contact points [<host>:18512]
...
2023-08-11 00:21:39,915 DEBUG [cluster1-nio-worker-0:2cb1] STDOUT - 00:21:39.915 [cluster1-nio-worker-0] DEBUG com.datastax.driver.core.Connection - Connection[<host>, inFlight=0, closed=false] Error connecting to <host>:18512 (Connection refused: <host>:18512)
2023-08-11 00:21:39,920 DEBUG [cluster1-nio-worker-0:2cb1] STDOUT - 00:21:39.920 [cluster1-nio-worker-0] DEBUG com.datastax.driver.core.Host.STATES - Defuncting Connection[<host>:18512-1, inFlight=0, closed=false] because: [<host>] Cannot connect
2023-08-11 00:21:39,921 DEBUG [cluster1-nio-worker-0:2cb1] STDOUT - 00:21:39.921 [cluster1-nio-worker-0] DEBUG com.datastax.driver.core.Host.STATES - [<host>:18512] preventing new connections for the next 1000 ms
2023-08-11 00:21:39,921 DEBUG [cluster1-nio-worker-0:2cb1] STDOUT - 00:21:39.921 [cluster1-nio-worker-0] DEBUG com.datastax.driver.core.Host.STATES - [<host>:18512] Connection[<host>:18512-1, inFlight=0, closed=false] failed, remaining = 0
2023-08-11 00:21:39,922 DEBUG [cluster1-nio-worker-0:2cb1] STDOUT - 00:21:39.921 [cluster1-nio-worker-0] DEBUG com.datastax.driver.core.Connection - Connection[<host>:18512-1, inFlight=0, closed=true] closing connection
2023-08-11 00:21:39,931 DEBUG [main:2cb1] STDOUT - 00:21:39.931 [main] DEBUG c.d.driver.core.ControlConnection - [Control connection] error on <host>:18512 connection, no more host to try
com.datastax.driver.core.exceptions.TransportException: [<host>] Cannot connect
    at com.datastax.driver.core.Connection$1.operationComplete(Connection.java:158) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.driver.core.Connection$1.operationComplete(Connection.java:141) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.util.concurrent.DefaultPromise.notifyListener0(DefaultPromise.java:680) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.util.concurrent.DefaultPromise.notifyListeners0(DefaultPromise.java:603) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.util.concurrent.DefaultPromise.notifyListeners(DefaultPromise.java:563) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.util.concurrent.DefaultPromise.tryFailure(DefaultPromise.java:424) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.channel.nio.AbstractNioChannel$AbstractNioUnsafe.fulfillConnectPromise(AbstractNioChannel.java:276) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.channel.nio.AbstractNioChannel$AbstractNioUnsafe.finishConnect(AbstractNioChannel.java:292) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.channel.nio.NioEventLoop.processSelectedKey(NioEventLoop.java:528) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.channel.nio.NioEventLoop.processSelectedKeysOptimized(NioEventLoop.java:468) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.channel.nio.NioEventLoop.processSelectedKeys(NioEventLoop.java:382) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:354) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.util.concurrent.SingleThreadEventExecutor$2.run(SingleThreadEventExecutor.java:112) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at java.lang.Thread.run(Thread.java:748) ~[na:1.8.0_265]
Caused by: java.net.ConnectException: Connection refused: <host>:18512
    at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) ~[na:1.8.0_265]
    at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:714) ~[na:1.8.0_265]
    at com.datastax.shaded.netty.channel.socket.nio.NioSocketChannel.doFinishConnect(NioSocketChannel.java:224) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    at com.datastax.shaded.netty.channel.nio.AbstractNioChannel$AbstractNioUnsafe.finishConnect(AbstractNioChannel.java:289) ~[cassandra-driver-core-3.0.1-shaded.jar:na]
    ... 6 common frames omitted

A inicialização e a conexão já funcionavam bem há muito tempo, mas descobrimos que o erro foi acionado por uma alteração na sequência de resolução de vários servidores DNS usados ​​para localizar o nó Cassandra. Um servidor DNS responde cerca de 0,2 ms mais rápido que o outro, e quando o mais lento é o primeiro na sequência, o erro é gerado. Parece ser uma questão delicada de timing. Não vemos nenhum erro no system.log ou debug.log do lado do servidor.

Minhas perguntas são:

  1. Uma diferença tão pequena nos tempos de resolução de DNS realmente deveria causar falha na conexão do Cassandra ou algo mais está acontecendo? Não queremos que a conexão do Cassandra dependa do sequenciamento do servidor DNS.

  2. No driver 3.0.1, vejo as classes RetryPolicy e ReconnectionPolicy e como as implementações personalizadas podem alterar seu comportamento. No entanto, depois de ler o código do driver, não acho que nenhuma dessas opções afetará a conexão inicial com o Cassandra, apenas cenários de recuperação downstream quando as consultas falham ou as conexões são perdidas. É esse o caso ou alguma dessas opções realmente ajudaria?

  3. Vejo que o driver 4.13.0 mais recente tem mais opções de configuração nesta área, incluindo uma propriedade advanced.reconnect-on-init que parece relevante. Atualizar o driver e definir essa propriedade resolveria o problema?

Quaisquer outras sugestões são bem-vindas!

cassandra
  • 1 respostas
  • 37 Views
Martin Hope
mwigdahl
Asked: 2023-08-15 03:27:11 +0800 CST

A seleção de sys.dm_tran_locks leva mais de 100 ms

  • 9

Nossa aplicação utiliza bloqueios de aplicação do SQL Server e temos casos em que precisamos ver se existe ou não um determinado bloqueio. Para fazer isso, recuperamos e filtramos informações de sys.dm_tran_locks.

Isso funciona, mas mesmo a consulta mais simples ( SELECT * FROM sys.dm_tran_locks) contra esse DMV em nosso sistema leva mais de 100 ms (CPU e duração de ambos) e, às vezes, pode variar acima de 500 ms. Isso ocorre ao executar como usuário superadmin ou não, do SSMS ou não.

Há aproximadamente 10.000 linhas retornadas no máximo de um full SELECT, e estamos executando em uma VM com bastante CPU e RAM e um subsistema de disco rápido. Não parece que essa consulta deva demorar tanto.

Alguém já viu isso antes ou sabe o que pode estar acontecendo aqui? Fico feliz em fornecer mais informações se isso for útil.

sql-server
  • 1 respostas
  • 227 Views
Martin Hope
location
Asked: 2023-08-15 03:20:07 +0800 CST

Como posso remover/substituir várias strings usando curinga?

  • 6

Tenho rascunhos em Wordpress (MySQL) que contém várias tags img cada, no seguinte formato:

<img ... />

Eu quero remover todas essas tags img completamente. Achei que as funções REPLACE ou REGEXP_REPLACE seriam adequadas para isso, não tenho certeza se é a melhor solução.

Uma abordagem que pensei é:

UPDATE wp_posts 
SET post_content = REPLACE(post_content, '<img % />', '')
WHERE post_status = "Drafts";

Mas quando eu tento isso não muda nenhuma postagem.

Alguma ideia de como isso pode ser alcançado? Obrigado.

mysql
  • 1 respostas
  • 20 Views
Martin Hope
deostroll
Asked: 2023-08-15 01:33:43 +0800 CST

Obtendo informações erradas/enganosas relacionadas ao índice da tabela oracle

  • 7
  1. Criando uma tabela da seguinte forma:
CREATE TABLE "HOTEL3" 
   (    "NAMEX" VARCHAR2(4000 CHAR), 
    "CITY" VARCHAR2(4000 CHAR), 
    "PRICE" NUMBER, 
    "ID" VARCHAR2(50 BYTE) DEFAULT sys_guid()
   );
  1. Criando um índice da seguinte forma:
CREATE INDEX "IDX_HOTEL3_CITY_NAME" ON "HOTEL3" ("CITY" ASC, "NAMEX" DESC);   
  1. Consultando as informações do índice:
SELECT *
FROM   all_ind_columns ic
WHERE  ic.index_owner = 'FOO'
    AND ic.table_name = 'HOTEL3'
ORDER  BY ic.column_position;

Estou obtendo o resultado abaixo (csv)

"INDEX_OWNER","INDEX_NAME","TABLE_OWNER","TABLE_NAME","COLUMN_NAME","COLUMN_POSITION","COLUMN_LENGTH","CHAR_LENGTH","DESCEND","COLLATED_COLUMN_ID"
"FOO","IDX_HOTEL3_CITY_NAME","FOO","HOTEL3","CITY",1,4000,4000,"ASC",
"FOO","IDX_HOTEL3_CITY_NAME","FOO","HOTEL3","SYS_NC00005$",2,2000,0,"DESC",

Observe o segundo registro; COLUMN_NAMEé SYS_NC00005$em vez de NAMEX.

Aqui estão algumas notas laterais. Após a etapa 1, se você consultar, all_tab_colsobterá todas as 4 colunas. No entanto, após a etapa 2, all_tab_colsagora há uma entrada adicional - o mesmo nome mostrado acima do resultado da consulta. Isso pode ser exagerado; mas o IDcampo definido DEFAULTpode ser o motivo, após a etapa 2, all_tab_colster essa entrada estranha.

Então, qual consulta posso emitir para obter as informações de índice corretas?

PS: o servidor oracle é 19c, eu acho.

oracle
  • 2 respostas
  • 98 Views
Martin Hope
Michael J Swart
Asked: 2023-08-15 01:32:28 +0800 CST

Posso ativar o controle de versão do sistema (tabelas temporais) em uma tabela grande sem verificar a tabela?

  • 10

Atualmente, os documentos da Microsoft fornecem um exemplo de como habilitar tabelas temporais em tabelas existentes em ALTER TABLE, exemplos de controle de versão do sistema: A. Adicionar controle de versão do sistema a tabelas existentes

Usando a sintaxe lá, mas especificando um padrão constante, tenho:

ALTER TABLE InsurancePolicy
ADD PERIOD FOR SYSTEM_TIME (ValidFrom, ValidTo),
ValidFrom datetime2 GENERATED ALWAYS AS ROW START HIDDEN NOT NULL
--    DEFAULT SYSUTCDATETIME(), /* default specified in the docs */
    DEFAULT CONVERT(DATETIME2, '2023-08-14') /* use a constant default */
ValidTo datetime2 GENERATED ALWAYS AS ROW END HIDDEN NOT NULL
    DEFAULT CONVERT(DATETIME2, '9999-12-31 23:59:59.99999999') ;

Quando executo esta instrução, posso observar um evento SP:StatementStartingcom TextData:SELECT [ValidFrom],[ValidTo] FROM [dbo].[InsurancePolicy]

Isso me diz que o SQL Server está olhando para esses dados (provavelmente para determinar que ValidTo e ValidFrom estão em conformidade com algumas restrições).

O bloqueio de modificação do esquema + a verificação da tabela está me incomodando.

Em teoria, a varredura é desnecessária porque os valores são constantes. Nos documentos da Microsoft, exemplo B, eles mencionam "(um certo conjunto de verificações de dados ocorre em segundo plano)" Mas talvez essas verificações sejam desnecessárias quando as colunas são novas. Então:

Existe alguma maneira de habilitar tabelas temporais online? Sem colocar um cadeado sch-m na mesa enquanto a mesa é digitalizada?

sql-server
  • 1 respostas
  • 156 Views
Martin Hope
Papgooner
Asked: 2023-08-14 22:37:05 +0800 CST

nenhuma entrada pg_hba.conf para host

  • 6

Ao tentar conectar-me ao meu banco de dados AWS RDS do meu projeto, recebo este erro:

error: no pg_hba.conf entry for host "xx.xx.xx.xx", user "myUser", database "myDatabase", no encryption

postgresql.conf:

listen_addresses = '*'

pg_hba.conf:

local all         all              scram-sha-256
host  all         all 127.0.0.1/32 scram-sha-256
host  all         all ::1/128      scram-sha-256
local replication all              scram-sha-256
host  replication all 127.0.0.1/32 scram-sha-256
host  replication all ::1/128      scram-sha-256

Minhas credenciais funcionam bem para pgadmin4 e psql, e consigo me conectar a um banco de dados AWS RDS diferente deste projeto. O que estou perdendo e/ou o que devo tentar para permitir a conexão ao meu banco de dados.

postgresql
  • 1 respostas
  • 3164 Views
Martin Hope
chrestomanci
Asked: 2023-08-14 16:54:10 +0800 CST

Postgres 11 registra todas as instruções que não funcionam como esperado

  • 5

Estou tentando rastrear uma exclusão de linha que está acontecendo em algum lugar de um aplicativo enorme e extenso. Eu sei que algo excluiu uma linha em uma tabela de banco de dados importante e reduzi quando a exclusão aconteceu em uma janela de tempo de 78 segundos. O aplicativo está distribuído em cerca de 150 servidores, mas um simples grep para "excluir" nos logs desses servidores para essa janela de tempo e alguns minutos de cada lado não está encontrando nada útil, então acho que a exclusão deve ter sido um efeito colateral de outra coisa ou aconteceram dentro do mapeador relacional de objeto que o aplicativo usa.

De qualquer forma, decidi adotar uma abordagem diferente e examinar os logs do postgres em busca da exclusão ofensiva. Ele já deve estar configurado para registrar tudo log_statement = 'all', mas isso não está funcionando como esperado. Se eu seguir os logs, esperaria um volume muito maior de mensagens de log passando do que realmente vejo, e se eu usar a interface da Web para visualizar o status atual do aplicativo (gerando consultas ao banco de dados), não Não vejo nenhuma consulta passar. Vejo algumas consultas, mas não muitas, e todas parecem ser de um endereço IP.

O que eu configurei errado? Como faço para que o posgres registre tudo?

Aqui está o conteúdo da seção de log em /var/lib/pgsql/11/data/postgresql.conf

#------------------------------------------------------------------------------
# REPORTING AND LOGGING
#------------------------------------------------------------------------------

# - Where to Log -

log_destination = 'stderr'              # Valid values are combinations of
                                        # stderr, csvlog, syslog, and eventlog,
                                        # depending on platform.  csvlog
                                        # requires logging_collector to be on.

# This is used when logging to stderr:
logging_collector = on                  # Enable capturing of stderr and csvlog
                                        # into log files. Required to be on for
                                        # csvlogs.
                                        # (change requires restart)

# These are only used if logging_collector is on:
log_directory = 'log'                   # directory where log files are written,
                                        # can be absolute or relative to PGDATA
log_filename = 'postgresql-%Y-%m-%d.log'        # log file name pattern,
                                        # can include strftime() escapes
#log_file_mode = 0600                   # creation mode for log files,
                                        # begin with 0 to use octal notation
log_truncate_on_rotation = on           # If on, an existing log file with the
                                        # same name as the new log file will be
                                        # truncated rather than appended to.
                                        # But such truncation only occurs on
                                        # time-driven rotation, not on restarts
                                        # or size-driven rotation.  Default is
                                        # off, meaning append to existing files
                                        # in all cases.
log_rotation_age = 1d                   # Automatic rotation of logfiles will
                                        # happen after that time.  0 disables.
log_rotation_size = 0                   # Automatic rotation of logfiles will
                                        # happen after that much log output.
                                        # 0 disables.

# These are relevant when logging to syslog:
#syslog_facility = 'LOCAL0'
#syslog_ident = 'postgres'
#syslog_sequence_numbers = on
#syslog_split_messages = on

# This is only relevant when logging to eventlog (win32):
# (change requires restart)
#event_source = 'PostgreSQL'

# - When to Log -

#log_min_messages = warning             # values in order of decreasing detail:
                                        #   debug5
                                        #   debug4
                                        #   debug3
                                        #   debug2
                                        #   debug1
                                        #   info
                                        #   notice
                                        #   warning
                                        #   error
                                        #   log
                                        #   fatal
                                        #   panic

#log_min_error_statement = error        # values in order of decreasing detail:
                                        #   debug5
                                        #   debug4
                                        #   debug3
                                        #   debug2
                                        #   debug1
                                        #   info
                                        #   notice
                                        #   warning
                                        #   error
                                        #   log
                                        #   fatal
                                        #   panic (effectively off)

#log_min_duration_statement = -1        # -1 is disabled, 0 logs all statements
                                        # and their durations, > 0 logs only
                                        # statements running at least this number
                                        # of milliseconds


# - What to Log -

#debug_print_parse = off
#debug_print_rewritten = off
#debug_print_plan = off
#debug_pretty_print = on
#log_checkpoints = off
#log_connections = off
#log_disconnections = off
#log_duration = off
#log_error_verbosity = default          # terse, default, or verbose messages
#log_hostname = off
log_line_prefix = '%m %h [%p] '         # special values:
                                        #   %a = application name
                                        #   %u = user name
                                        #   %d = database name
                                        #   %r = remote host and port
                                        #   %h = remote host
                                        #   %p = process ID
                                        #   %t = timestamp without milliseconds
                                        #   %m = timestamp with milliseconds
                                        #   %n = timestamp with milliseconds (as a Unix epoch)
                                        #   %i = command tag
                                        #   %e = SQL state
                                        #   %c = session ID
                                        #   %l = session line number
                                        #   %s = session start timestamp
                                        #   %v = virtual transaction ID
                                        #   %x = transaction ID (0 if none)
                                        #   %q = stop here in non-session
                                        #        processes
                                        #   %% = '%'
                                        # e.g. '<%u%%%d> '
#log_lock_waits = off                   # log lock waits >= deadlock_timeout
log_statement = 'all'                   # none, ddl, mod, all
#log_replication_commands = off
#log_temp_files = -1                    # log temporary files equal or larger
                                        # than the specified size in kilobytes;
                                        # -1 disables, 0 logs all temp files
log_timezone = 'UCT'


postgresql
  • 1 respostas
  • 34 Views
Prev
Próximo

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host

    • 12 respostas
  • Marko Smith

    Como fazer a saída do sqlplus aparecer em uma linha?

    • 3 respostas
  • Marko Smith

    Selecione qual tem data máxima ou data mais recente

    • 3 respostas
  • Marko Smith

    Como faço para listar todos os esquemas no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Listar todas as colunas de uma tabela especificada

    • 5 respostas
  • Marko Smith

    Como usar o sqlplus para se conectar a um banco de dados Oracle localizado em outro host sem modificar meu próprio tnsnames.ora

    • 4 respostas
  • Marko Smith

    Como você mysqldump tabela (s) específica (s)?

    • 4 respostas
  • Marko Smith

    Listar os privilégios do banco de dados usando o psql

    • 10 respostas
  • Marko Smith

    Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Como faço para listar todos os bancos de dados e tabelas usando o psql?

    • 7 respostas
  • Martin Hope
    Jin conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host 2014-12-02 02:54:58 +0800 CST
  • Martin Hope
    Stéphane Como faço para listar todos os esquemas no PostgreSQL? 2013-04-16 11:19:16 +0800 CST
  • Martin Hope
    Mike Walsh Por que o log de transações continua crescendo ou fica sem espaço? 2012-12-05 18:11:22 +0800 CST
  • Martin Hope
    Stephane Rolland Listar todas as colunas de uma tabela especificada 2012-08-14 04:44:44 +0800 CST
  • Martin Hope
    haxney O MySQL pode realizar consultas razoavelmente em bilhões de linhas? 2012-07-03 11:36:13 +0800 CST
  • Martin Hope
    qazwsx Como posso monitorar o andamento de uma importação de um arquivo .sql grande? 2012-05-03 08:54:41 +0800 CST
  • Martin Hope
    markdorison Como você mysqldump tabela (s) específica (s)? 2011-12-17 12:39:37 +0800 CST
  • Martin Hope
    Jonas Como posso cronometrar consultas SQL usando psql? 2011-06-04 02:22:54 +0800 CST
  • Martin Hope
    Jonas Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL? 2011-05-28 00:33:05 +0800 CST
  • Martin Hope
    Jonas Como faço para listar todos os bancos de dados e tabelas usando o psql? 2011-02-18 00:45:49 +0800 CST

Hot tag

sql-server mysql postgresql sql-server-2014 sql-server-2016 oracle sql-server-2008 database-design query-performance sql-server-2017

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve