AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / dba / Perguntas / 158883
Accepted
RK Kuppala
RK Kuppala
Asked: 2016-12-22 21:56:49 +0800 CST2016-12-22 21:56:49 +0800 CST 2016-12-22 21:56:49 +0800 CST

Azure SQL Warehouse - Ingestão de Dados - Converter um enorme arquivo de largura fixa (com vírgulas) para delimitado

  • 772

Nem tenho certeza se estou formulando esta pergunta corretamente, mas tentarei - tenho vários arquivos de texto enormes gerados a partir de uma exportação do Oracle em um sistema Linux. Cada arquivo tem cerca de 30 GB de tamanho e eu tenho cerca de 50 deles.

O objetivo é exportar esses dados para o Azure SQL Data Warehouse. O BCP, neste caso, não é a abordagem certa tendo em mente o tamanho dos dados, então tive que usar o Polybase.

Depois de converter da codificação ASCII para UTF8, tive um problema ao consultar as tabelas externas. Polybase não funciona bem com o arquivo de texto de largura fixa com uma quebra de linha em cada linha.

O arquivo de texto se parece com isto:

101.102.103.104.105.106.107
108.108.109.110.111.112.113
114.115.116.117.118.119.120
121.122.123

--nada aqui, apenas uma linha em branco

201.202.203.204.205.206.207
208.209.210.211.212.213.214
215.216.217

O Polybase tenta processar de 101 a 107 e apresenta erros reclamando que não havia colunas suficientes neste arquivo para processar.

Aqui está o que eu acho que está acontecendo: a largura fixa e as quebras de linha estão fazendo com que trate a quebra de linha como um delimitador de linha.

Como faço para converter este arquivo para ficar como abaixo:

101,102,103,104,105,106,107,108,108,109,110,111,112,113,114,115,116,117,118,119,120,121,122,123{CR}{LF}
201.202.203.204.205.206.207.208.209.210.211.212.213.214.215.216.217{CR}{LF}

EDIT: Aqui estão os dados de amostra de um arquivo. Abri no git bash em uma VM do Windows.

Esses arquivos devem ter 167 colunas ,como separador de colunas. O problema é que, como cada linha gera várias linhas, é difícil processá-las nas tabelas externas do Polybase.

import polybase
  • 3 3 respostas
  • 1807 Views

3 respostas

  • Voted
  1. wBob
    2016-12-24T12:11:38+08:002016-12-24T12:11:38+08:00

    O Polybase é poderoso, mas não tão sofisticado, então não será capaz de lidar com esse formato estranho. Você tem três opções a meu ver:

    1. Corrija o formato do arquivo na origem. Em vez de ter uma mistura estranha de largura fixa e formato de arquivo delimitado, use um formato de arquivo padrão , como .csv. Esse formato que você tem onde o delimitador de coluna é retorno de carro ou vírgula, acho genuinamente estranho. Existem ferramentas que podem ler isso facilmente? Este é um formato comum onde você trabalha?
    2. Importe o arquivo especificando um dos delimitadores em uma linha e, em seguida, fragmente-o com base no outro delimitador. Comecei a tentar isso com seus dados de amostra, mas não fui muito longe. Linhas diferentes realmente têm números diferentes de colunas? Em seus dados de amostra, a linha 1 tem 24 colunas e a linha 2 tem 17 colunas. Forneça um pequeno arquivo de amostra, por exemplo, via gist , que represente com precisão seus dados.
    3. Escreva uma rotina de importação altamente personalizada. O ponto de usar formatos de intercâmbio de dados padrão como csv, delimitado por tabulação, delimitado por pipe, XML, JSON etc é que você não deve ter que escrever uma rotina altamente personalizada toda vez que quiser importar alguns dados. No entanto, isso pode ser uma opção, se você não puder alterar seu arquivo na origem ou importá-lo em etapas. Eu tenho trabalhado com Azure Data Lake Analytics (ADLA) e U-SQL recentemente, e isso pode ser feito.

    Tente responder às minhas perguntas acima e forneça um arquivo de amostra e tentarei ajudar.

    • 6
  2. wBob
    2016-12-28T04:38:30+08:002016-12-28T04:38:30+08:00

    De acordo com um editor hexadecimal, seu arquivo de amostra possui alimentação de linha única (0A) para algumas terminações de linha e duas alimentações de linha como delimitador entre as linhas:

    visão hexadecimal do arquivo de amostra

    Um extrator personalizado U-SQL pode ser capaz de lidar com esse arquivo, mas me pergunto se teremos problemas com o arquivo completo de 30 GB.

    Instruções

    1. Configure uma conta do Azure Data Lake Analytics (ADLA) se ainda não tiver uma.
    2. Crie um novo projeto U-SQL no Visual Studio - você precisará das ferramentas ADLA .
    3. Adicione um script U-SQL e adicione o texto abaixo ao arquivo code-behind U-SQL:

      using System.Collections.Generic;
      using System.IO;
      using System.Text;
      using Microsoft.Analytics.Interfaces;
      
      namespace Utilities
      {
      [SqlUserDefinedExtractor(AtomicFileProcessing = true)]
      public class MyExtractor : IExtractor
      {
          //Contains the row
          private readonly Encoding _encoding;
          private readonly byte[] _row_delim;
          private readonly char _col_delim;
      
          public MyExtractor()
          {
              _encoding = Encoding.UTF8;
              _row_delim = _encoding.GetBytes("\n\n");
              _col_delim = '|';
          }
      
          public override IEnumerable<IRow> Extract(IUnstructuredReader input, IUpdatableRow output)
          {
              string s = string.Empty;
              string x = string.Empty;
      
              foreach (var current in input.Split(_row_delim))
              {
                  using (System.IO.StreamReader streamReader = new StreamReader(current, this._encoding))
                  {
                      while ((s = streamReader.ReadLine()) != null)
                      {
                          //Strip any line feeds
                          //s = s.Replace("/n", "");
      
                           // Concatenate the lines
                          x += s;
                      }
      
                      //Create the output
                      output.Set<string>(0, x);
                      yield return output.AsReadOnly();
      
                      // Reset
                      x = string.Empty;
      
                  }
              }
          }
      }
      }
      
    4. Processe o arquivo usando o extrator personalizado:

      @input =
      EXTRACT col string
      FROM "/input/input42_2.txt"
      USING new Utilities.MyExtractor();
      
      
      // Output the file
      OUTPUT @input
      TO "/output/output.txt"
      USING Outputters.Tsv(quoting : false);
      

    Isso produziu um arquivo de limpeza que pude importar usando o Polybase:

    resultado polibase

    Boa sorte!

    • 3
  3. Best Answer
    RK Kuppala
    2016-12-29T22:54:24+08:002016-12-29T22:54:24+08:00

    Acabei usando o sed para limpar o arquivo

    zcat myfile.txt.gz | sed -r 's/[ ]+/vin/g'|tr -d '\n'|tr 'vinvin' '\n'|grep -v '^$' > myfile.txt

    Isso resolveu problemas de formatação com os arquivos de origem. Depois que esses arquivos foram carregados no armazenamento de blob do Azure, o resto foi fácil. Criei uma tabela externa apontando para arquivos no blob via Polybase e criei tabelas internas usando CREATE TABLE dbo.internal AS SELECT * FROM blob.external. Uma instância do Azure DWH com capacidade de 700 DWH conseguiu carregar cerca de 50 milhões de linhas em 5 minutos da tabela externa.

    • 2

relate perguntas

  • Por que 'LOAD DATA INFILE' é mais rápido que as instruções INSERT normais?

  • MySQL import csv obtém apenas metade das linhas

  • Como descobrir quais dados acabei de importar para o Oracle?

  • Como posso importar o conteúdo de um banco de dados Oracle para o Visio para criar um diagrama de relacionamento de entidade?

  • Problema do Oracle Import causado por diferentes conjuntos de caracteres

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host

    • 12 respostas
  • Marko Smith

    Como fazer a saída do sqlplus aparecer em uma linha?

    • 3 respostas
  • Marko Smith

    Selecione qual tem data máxima ou data mais recente

    • 3 respostas
  • Marko Smith

    Como faço para listar todos os esquemas no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Listar todas as colunas de uma tabela especificada

    • 5 respostas
  • Marko Smith

    Como usar o sqlplus para se conectar a um banco de dados Oracle localizado em outro host sem modificar meu próprio tnsnames.ora

    • 4 respostas
  • Marko Smith

    Como você mysqldump tabela (s) específica (s)?

    • 4 respostas
  • Marko Smith

    Listar os privilégios do banco de dados usando o psql

    • 10 respostas
  • Marko Smith

    Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Como faço para listar todos os bancos de dados e tabelas usando o psql?

    • 7 respostas
  • Martin Hope
    Jin conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host 2014-12-02 02:54:58 +0800 CST
  • Martin Hope
    Stéphane Como faço para listar todos os esquemas no PostgreSQL? 2013-04-16 11:19:16 +0800 CST
  • Martin Hope
    Mike Walsh Por que o log de transações continua crescendo ou fica sem espaço? 2012-12-05 18:11:22 +0800 CST
  • Martin Hope
    Stephane Rolland Listar todas as colunas de uma tabela especificada 2012-08-14 04:44:44 +0800 CST
  • Martin Hope
    haxney O MySQL pode realizar consultas razoavelmente em bilhões de linhas? 2012-07-03 11:36:13 +0800 CST
  • Martin Hope
    qazwsx Como posso monitorar o andamento de uma importação de um arquivo .sql grande? 2012-05-03 08:54:41 +0800 CST
  • Martin Hope
    markdorison Como você mysqldump tabela (s) específica (s)? 2011-12-17 12:39:37 +0800 CST
  • Martin Hope
    Jonas Como posso cronometrar consultas SQL usando psql? 2011-06-04 02:22:54 +0800 CST
  • Martin Hope
    Jonas Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL? 2011-05-28 00:33:05 +0800 CST
  • Martin Hope
    Jonas Como faço para listar todos os bancos de dados e tabelas usando o psql? 2011-02-18 00:45:49 +0800 CST

Hot tag

sql-server mysql postgresql sql-server-2014 sql-server-2016 oracle sql-server-2008 database-design query-performance sql-server-2017

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve