AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / coding / Perguntas / 79309612
Accepted
Ged
Ged
Asked: 2024-12-26 21:38:52 +0800 CST2024-12-26 21:38:52 +0800 CST 2024-12-26 21:38:52 +0800 CST

O processamento de vários coletores não persiste no Databricks Community Edition

  • 772

Estou apenas tentando usar o Rate com o Structured Streaming, para gravar em vários nomes de tabelas por MicroBatch. Ou seja, apenas atualizando a lógica de vários sinks em preparação para alguma certificação, no pyspark.

Nenhum erro, mas não há persistência ocorrendo. Faz um tempo que não olho; deve ser algo básico.

Codificação como segue no Databricks Community Edition, sem Hive Catalog. Coisas básicas.

from pyspark.sql import SparkSession
from pyspark.sql.functions import col, concat, lit

spark = SparkSession.builder \
    .appName("SimulateKAFKAandMultipleSinks") \
    .getOrCreate()

rate_stream = spark.readStream \
    .format("rate") \
    .option("rowsPerSecond", 1) \
    .load()

message_stream = rate_stream.select(
    (rate_stream["value"] + 1000).alias("message_id"),              
    rate_stream["timestamp"].alias("event_time"),                    
    (concat(lit("T"), rate_stream["value"] % 5)).alias("table_id")   
)

def append_to_parquet(df, table_id):
    table_path = f"/mnt/parquet/{table_id}"   

    df.write \
        .format("parquet") \
        .mode("append") \
        .option("path", table_path) \
        .save()

def process_batch(df, batch_id):
    partitioned_df = df.repartition("table_id")
    def process_partition(iterator):
        for partition in iterator:
            first_row_value = df.first()
            table_id_value = first_row_value['table_id']
            print(f"Writing partition for table_id: {table_id_value}") 
            partition_df = partition.filter(col("table_id") == table_id_value)
            append_to_parquet(partition_df, table_id_value)

    partitioned_df.rdd.mapPartitions(process_partition)

query = message_stream.writeStream \
    .foreachBatch(process_batch) \
    .outputMode("append") \
    .option("checkpointLocation", "/mnt/parquet/checkpoints/") \
    .start()

query.awaitTermination()

Atualização. Supervisão é minha parte, mas educacional o suficiente. Pode fazer isso com KAFKA em lote, não via streaming estruturado.

apache-spark
  • 1 1 respostas
  • 44 Views

1 respostas

  • Voted
  1. Best Answer
    Ali Saberi
    2024-12-26T23:43:45+08:002024-12-26T23:43:45+08:00

    O problema com seu código não persistindo dados provavelmente decorre de alguns problemas fundamentais na forma como você está usando o Structured Streaming no Spark.

    tente este

    from pyspark.sql import SparkSession
    from pyspark.sql.functions import col, concat, lit
    
    # Create Spark session
    spark = SparkSession.builder \
        .appName("SimulateKAFKAandMultipleSinks") \
        .getOrCreate()
    
    # Create a streaming DataFrame
    rate_stream = spark.readStream \
        .format("rate") \
        .option("rowsPerSecond", 1) \
        .load()
    
    # Transform the data
    message_stream = rate_stream.select(
        (rate_stream["value"] + 1000).alias("message_id"),
        rate_stream["timestamp"].alias("event_time"),
        concat(lit("T"), (rate_stream["value"] % 5).cast("string")).alias("table_id")
    )
    
    # Write to multiple sinks based on table_id
    def write_to_multiple_sinks(batch_df, batch_id):
        unique_table_ids = batch_df.select("table_id").distinct().collect()
        for row in unique_table_ids:
            table_id = row["table_id"]
            table_path = f"/mnt/parquet/{table_id}"  # Replace with actual storage path
            table_df = batch_df.filter(col("table_id") == table_id)
            table_df.write.mode("append").parquet(table_path)
    
    query = message_stream.writeStream \
        .foreachBatch(write_to_multiple_sinks) \
        .outputMode("append") \
        .option("checkpointLocation", "/mnt/parquet/checkpoints/") \
        .start()
    
    query.awaitTermination()
    
    • 1

relate perguntas

  • Grupo não dinâmico de colunas no SPARK SQL

  • Número de arquivos gerados pelo spark

  • Transformação PySpark Dataframe de_json

  • Mostrar as opções definidas em um leitor Spark DataFrame

  • Pyspark: Salve dataframe em vários arquivos parquet com tamanho específico de arquivo único

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    Vue 3: Erro na criação "Identificador esperado, mas encontrado 'import'" [duplicado]

    • 1 respostas
  • Marko Smith

    Por que esse código Java simples e pequeno roda 30x mais rápido em todas as JVMs Graal, mas não em nenhuma JVM Oracle?

    • 1 respostas
  • Marko Smith

    Qual é o propósito de `enum class` com um tipo subjacente especificado, mas sem enumeradores?

    • 1 respostas
  • Marko Smith

    Como faço para corrigir um erro MODULE_NOT_FOUND para um módulo que não importei manualmente?

    • 6 respostas
  • Marko Smith

    `(expression, lvalue) = rvalue` é uma atribuição válida em C ou C++? Por que alguns compiladores aceitam/rejeitam isso?

    • 3 respostas
  • Marko Smith

    Quando devo usar um std::inplace_vector em vez de um std::vector?

    • 3 respostas
  • Marko Smith

    Um programa vazio que não faz nada em C++ precisa de um heap de 204 KB, mas não em C

    • 1 respostas
  • Marko Smith

    PowerBI atualmente quebrado com BigQuery: problema de driver Simba com atualização do Windows

    • 2 respostas
  • Marko Smith

    AdMob: MobileAds.initialize() - "java.lang.Integer não pode ser convertido em java.lang.String" para alguns dispositivos

    • 1 respostas
  • Marko Smith

    Estou tentando fazer o jogo pacman usando apenas o módulo Turtle Random e Math

    • 1 respostas
  • Martin Hope
    Aleksandr Dubinsky Por que a correspondência de padrões com o switch no InetAddress falha com 'não cobre todos os valores de entrada possíveis'? 2024-12-23 06:56:21 +0800 CST
  • Martin Hope
    Phillip Borge Por que esse código Java simples e pequeno roda 30x mais rápido em todas as JVMs Graal, mas não em nenhuma JVM Oracle? 2024-12-12 20:46:46 +0800 CST
  • Martin Hope
    Oodini Qual é o propósito de `enum class` com um tipo subjacente especificado, mas sem enumeradores? 2024-12-12 06:27:11 +0800 CST
  • Martin Hope
    sleeptightAnsiC `(expression, lvalue) = rvalue` é uma atribuição válida em C ou C++? Por que alguns compiladores aceitam/rejeitam isso? 2024-11-09 07:18:53 +0800 CST
  • Martin Hope
    The Mad Gamer Quando devo usar um std::inplace_vector em vez de um std::vector? 2024-10-29 23:01:00 +0800 CST
  • Martin Hope
    Chad Feller O ponto e vírgula agora é opcional em condicionais bash com [[ .. ]] na versão 5.2? 2024-10-21 05:50:33 +0800 CST
  • Martin Hope
    Wrench Por que um traço duplo (--) faz com que esta cláusula MariaDB seja avaliada como verdadeira? 2024-05-05 13:37:20 +0800 CST
  • Martin Hope
    Waket Zheng Por que `dict(id=1, **{'id': 2})` às vezes gera `KeyError: 'id'` em vez de um TypeError? 2024-05-04 14:19:19 +0800 CST
  • Martin Hope
    user924 AdMob: MobileAds.initialize() - "java.lang.Integer não pode ser convertido em java.lang.String" para alguns dispositivos 2024-03-20 03:12:31 +0800 CST
  • Martin Hope
    MarkB Por que o GCC gera código que executa condicionalmente uma implementação SIMD? 2024-02-17 06:17:14 +0800 CST

Hot tag

python javascript c++ c# java typescript sql reactjs html

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve