AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / dba / Perguntas / 82715
Accepted
beeks
beeks
Asked: 2014-11-15 20:23:36 +0800 CST2014-11-15 20:23:36 +0800 CST 2014-11-15 20:23:36 +0800 CST

A maneira mais econômica de paginar uma tabela mal ordenada?

  • 772

Eu tenho uma tabela que tem três colunas: HashUID1, HashUID2, Address_Name (que é um endereço de e-mail textual, e as duas colunas de hash anteriores são de alguma criação maluca para vincular tabelas de participantes de eventos a endereços de e-mail. é feio, mal funciona do meu controle. Concentre-se no índice address_name)

Tem 78 milhões de linhas. Não classificado corretamente. Independentemente disso, esse índice é dividido em vários LUNs rápidos e executa buscas de índice REALMENTE rápidas.

Preciso criar uma série de consultas para extrair apenas 20.000 "linhas por página" por vez, mas evitar conflitos ou enganos. Como não há coluna de identidade ou coluna facilmente ordenada, existe uma maneira fácil de selecionar tudo e folheá-lo?

Estou correto ao dizer que se eu fizer uma seleção * de uma tabela enorme com e-mails em uma tabela temporária, selecione por meio dela por número_da_linha que a tabela permaneça na memória durante a transação, o que, para mim, é uma quantidade excessiva de recursos de memória ? Este parece ser o método preferido de paginação. Prefiro paginar por porcentagens estatísticas. :(

Há um índice que mantém o endereço de e-mail address_name em ordem e é bem mantido. Na semana passada, pretendi ajudar esse outro desenvolvedor gastando algum tempo na criação de um proc que cuspisse intervalos com base em funções de janela com base em estatísticas (na qual não sou muito bom, mas essa consulta realmente me interessou) para fornecer um intervalo de caracteres de 1 a (variável) LEFT LIKE chars do índice, que atende a 20.000 linhas--Mas não tive tempo nem de iniciar a consulta ...

Perguntas do casal:

  1. Alguma sugestão? Não estou procurando um código real, apenas algumas dicas ou sugestões baseadas em experiências, talvez ressalvas. Desejo evitar varreduras de índice adicionais após a varredura inicial.

  2. É este o caminho certo?

  3. Estou pensando em quebrar a soma do índice de todos os endereços de e-mail, reunindo rowcount(*), /20.000 e usando isso como uma função de janelamento para agrupar valores min/max substring(1,5) com base em porcentagens da contagem total de linhas para construir faixas de agrupamento. Pensamentos?

Isso é para um processo ETL que não pode modificar bancos de dados de origem.

Espero que com uma varredura de índice completa eu possa fazer:

  • Consulta para obter um histograma com base no uso do índice (classificado alfabeticamente) e dividi-lo (em janela) usando min/max para criar alguns intervalos como este, para buscar facilmente o índice necessário:

  • A-> AAAX, (20k linhas por exemplo) AAA-Z, B-> (outros 20k), B->BAAR -> BAAR-> CDEFG -> CDEFH > FAAH, etc.

Executamos leitura confirmada nesses bancos de dados para esse processo ETL. Estamos apenas tentando agrupar em lotes de 20 mil linhas porque os DBAs dizem que estamos usando muitos recursos de rede ao capturar tabelas completas. Se os dados forem alterados (o que é uma preocupação), atualizamos nosso DW e as tabelas de preparação em tempo real.

Eu adoraria usar tabelas temporárias, mas, se o fizesse, entraria no tempdb e receberia críticas por e-mail dos DBAs a respeito, e que o banco de dados é muito grande.

sql-server pagination
  • 3 3 respostas
  • 659 Views

3 respostas

  • Voted
  1. Best Answer
    Paul White
    2014-11-17T21:43:08+08:002014-11-17T21:43:08+08:00

    Essencialmente, você está perguntando se pode executar uma única varredura ordenada nos dados gerais, sem fazer cópias dos dados e retornar 'x' conjuntos de linhas separados do conjunto completo em cada chamada. Este é exatamente o comportamento de um cursor de API configurado apropriadamente.

    Por exemplo, usando a tabela AdventureWorks Person.EmailAddresspara retornar conjuntos de 1.000 linhas:

    DECLARE 
        @cur integer,
        -- FAST_FORWARD | AUTO_FETCH | AUTO_CLOSE
        @scrollopt integer = 16 | 8192 | 16384,
        -- READ_ONLY, CHECK_ACCEPTED_OPTS, READ_ONLY_ACCEPTABLE
        @ccopt integer = 1 | 32768 | 65536, 
        @rowcount integer = 1000,
        @rc integer;
    
    -- Open the cursor and return the first 1,000 rows
    EXECUTE @rc = sys.sp_cursoropen
        @cur OUTPUT,
        N'
        SELECT *
        FROM AdventureWorks2012.Person.EmailAddress
            WITH (INDEX([IX_EmailAddress_EmailAddress]))
        ORDER BY EmailAddress;
        ',
        @scrollopt OUTPUT,
        @ccopt OUTPUT,
        @rowcount OUTPUT;
    
    IF @rc <> 16 -- FastForward cursor automatically closed
    BEGIN
        -- Name the cursor so we can use CURSOR_STATUS
        EXECUTE sys.sp_cursoroption
            @cur, 
            2, 
            'MyCursorName';
    
        -- Until the cursor auto-closes
        WHILE CURSOR_STATUS('global', 'MyCursorName') = 1
        BEGIN
            EXECUTE sys.sp_cursorfetch
                @cur,
                2,
                0,
                1000;
        END;
    END;
    

    Cada operação de busca retorna no máximo 1.000 linhas, lembrando a posição da varredura da chamada anterior.

    • 15
  2. Michael Green
    2014-11-16T22:39:40+08:002014-11-16T22:39:40+08:00

    Sem saber o propósito por trás das janelas, será difícil ser específico. Considerando que você está olhando para vinte mil linhas por vez, imagino que este seja um processo em lote e não para visualização humana.

    Se houver um índice no endereço de e-mail, ele será classificado. Os índices são BTrees e mantêm uma ordem internamente. Esta será a ordem de classificação do agrupamento dessa coluna (que é provável, mas não necessariamente, o agrupamento padrão do banco de dados).

    Tabelas temporárias - tanto #table quanto @table - estarão presentes em tempdb. Além disso, grandes conjuntos de resultados irão vazar da memória para o tempdb.

    Se por "estatísticas" você quer dizer as estatísticas internas do SQL Server que ele mantém em índices ou por meio da create statistics..instrução, não acho que isso funcione. Essas estatísticas têm apenas algumas centenas de baldes (esqueci o limite correto agora) onde você precisará de 39.000 "janelas" para ler sua tabela completa. Se você pretende manter seu próprio mapeamento de linha para janela por meio de gatilhos, isso é possível, mas a sobrecarga pode ser significativa.

    A maneira tradicional de percorrer um grande conjunto de dados é lembrando o maior valor de chave de cada grupo e lendo a partir daí. Se a coluna do endereço de e-mail não for exclusiva, ou seja, um endereço pode ocorrer mais de uma vez, você tem algumas opções. A) processe cada lote linha por linha no aplicativo e pule as duplicatas ou b) filtre-as no SQL. "B" exigirá uma classificação, mas se os dados forem lidos na sequência de teclas, essa classificação pode ser otimizada:

    declare @MaxKey varchar(255) = '';  -- email size
    
    while exists (select 1 from mytable where address_name > @MyKey)
    begin
        ;with NewBatch as
        (
        select top 20000  -- whatever size a "window" must be
            address_name
        from mytable
        where address_name > @MaxKey
        order by address_name
        )
        select distinct
            address_name
        from NewBatch;
    
        --process and then
        select @MaxKey = max(address_name) -- from this batch of rows
    end
    

    A iteração pode acontecer no SQL ou na sua aplicação, dependendo da sua arquitetura.

    Se muitas colunas forem necessárias, além do endereço de e-mail, considere um cursor com a palavra-chave KEYSET ou STATIC definida. No entanto, isso ainda usará recursos em tempdb.

    Dando um passo para trás, o SSIS foi projetado especificamente para processar grandes conjuntos de linhas com eficiência. Definir um pacote que atenda às suas necessidades pode ser a melhor resposta a longo prazo.

    • 2
  3. usr
    2014-11-16T02:42:09+08:002014-11-16T02:42:09+08:00

    Se você está simplesmente preocupado com a estabilidade da ordem de classificação ao longo do tempo na presença de DML, considere o uso do Snapshot Isolation para consultar a tabela. Você pode deixar uma SNAPSHOTtransação aberta até terminar de extrair as páginas. Isso tem as desvantagens usuais associadas ao Snapshot Isolation.

    Dito isso, essa técnica exigirá a classificação de toda a tabela para cada página extraída. Isso é muito caro (desempenho assintótico quadrático).

    Considere usar uma tabela temporária com uma IDENTITYchave primária. Dessa forma, você pode facilmente extrair páginas por meio de buscas de intervalo.

    As tabelas temporárias não são fixadas na memória. Este é um equívoco comum.

    Com 78 milhões de linhas (cada 100 bytes => 7,8 GB de espaço em disco), essa técnica deve funcionar bem.

    Observe que extrair os dados da tabela original usando, por exemplo, READ COMMITTEDpode fornecer um conjunto de dados que nunca existiu em nenhum momento (devido ao DML simultâneo). Use SNAPSHOTo isolamento, se puder.

    Você pode criar a tabela temporária em seu próprio banco de dados ou em um modo SIMPLE separado, sem backup do banco de dados. Observe também que a classificação de toda a tabela usará temporariamente o máximo de espaço tempdb necessário para armazenar todas as colunas necessárias. Portanto, talvez você precise derivar os números das linhas do índice (exclusivo) já existente (e aplicar o truque de redução de tamanho).


    Outra ideia: em vez de armazenar em buffer todas as linhas na tabela temporária, escreva apenas uma chave de cada linha. Você indicou que as buscas na tabela principal seriam rápidas.

    Ou você escreve apenas a cada 20.000 linhas para saber por onde começar cada consulta de paginação. A extração de uma página não funcionaria por número de linha, mas com SELECT TOP 20000 ... WHERE SomeKey >= PageStartKey ORDER BY SomeKey.

    • 1

relate perguntas

  • SQL Server - Como as páginas de dados são armazenadas ao usar um índice clusterizado

  • Preciso de índices separados para cada tipo de consulta ou um índice de várias colunas funcionará?

  • Quando devo usar uma restrição exclusiva em vez de um índice exclusivo?

  • Quais são as principais causas de deadlocks e podem ser evitadas?

  • Como determinar se um Índice é necessário ou necessário

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host

    • 12 respostas
  • Marko Smith

    Como fazer a saída do sqlplus aparecer em uma linha?

    • 3 respostas
  • Marko Smith

    Selecione qual tem data máxima ou data mais recente

    • 3 respostas
  • Marko Smith

    Como faço para listar todos os esquemas no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Listar todas as colunas de uma tabela especificada

    • 5 respostas
  • Marko Smith

    Como usar o sqlplus para se conectar a um banco de dados Oracle localizado em outro host sem modificar meu próprio tnsnames.ora

    • 4 respostas
  • Marko Smith

    Como você mysqldump tabela (s) específica (s)?

    • 4 respostas
  • Marko Smith

    Listar os privilégios do banco de dados usando o psql

    • 10 respostas
  • Marko Smith

    Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Como faço para listar todos os bancos de dados e tabelas usando o psql?

    • 7 respostas
  • Martin Hope
    Jin conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host 2014-12-02 02:54:58 +0800 CST
  • Martin Hope
    Stéphane Como faço para listar todos os esquemas no PostgreSQL? 2013-04-16 11:19:16 +0800 CST
  • Martin Hope
    Mike Walsh Por que o log de transações continua crescendo ou fica sem espaço? 2012-12-05 18:11:22 +0800 CST
  • Martin Hope
    Stephane Rolland Listar todas as colunas de uma tabela especificada 2012-08-14 04:44:44 +0800 CST
  • Martin Hope
    haxney O MySQL pode realizar consultas razoavelmente em bilhões de linhas? 2012-07-03 11:36:13 +0800 CST
  • Martin Hope
    qazwsx Como posso monitorar o andamento de uma importação de um arquivo .sql grande? 2012-05-03 08:54:41 +0800 CST
  • Martin Hope
    markdorison Como você mysqldump tabela (s) específica (s)? 2011-12-17 12:39:37 +0800 CST
  • Martin Hope
    Jonas Como posso cronometrar consultas SQL usando psql? 2011-06-04 02:22:54 +0800 CST
  • Martin Hope
    Jonas Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL? 2011-05-28 00:33:05 +0800 CST
  • Martin Hope
    Jonas Como faço para listar todos os bancos de dados e tabelas usando o psql? 2011-02-18 00:45:49 +0800 CST

Hot tag

sql-server mysql postgresql sql-server-2014 sql-server-2016 oracle sql-server-2008 database-design query-performance sql-server-2017

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve