AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / coding / Perguntas / 76985824
Accepted
sara ali khan
sara ali khan
Asked: 2023-08-27 13:30:29 +0800 CST2023-08-27 13:30:29 +0800 CST 2023-08-27 13:30:29 +0800 CST

Valor máximo em relação ao ano de ocorrência do pyspark

  • 772

Código:

# Rename the columns after pivoting
new_column_names = ["Year"] + [col_name.replace(" ", "_") for col_name in pivot_table.columns[1:]]
pivot_table = pivot_table.toDF(*new_column_names)

# Task 4: Calculate percentage change
percentage_cols = pivot_table.columns[1:]  # Exclude the "Year" column
window_spec = Window.orderBy("Year")
print(pivot_table.columns)
pivot_table  = pivot_table.drop('Other_purchases_and_operating_expenses')

# Calculate percentage change using a loop
for col_name in percentage_cols:
    pivot_table = pivot_table.withColumn(f"{col_name}_lag", lag(col(col_name)).over(window_spec))
    pivot_table = pivot_table.withColumn(f"{col_name}_change", (col(col_name) - col(f"{col_name}_lag")) / col(f"{col_name}_lag") * 100)
    pivot_table = pivot_table.drop(f"{col_name}_lag")
    pivot_table = pivot_table.drop(f"{col_name}")

A saída do código é

year column ,variablenames column 3

Quero a alteração percentual máxima de cada coluna e quando ocorreu no dataframe

dataframe
  • 1 1 respostas
  • 26 Views

1 respostas

  • Voted
  1. Best Answer
    Akhaya Chandan Mishra
    2023-08-27T15:30:38+08:002023-08-27T15:30:38+08:00

    Criou um dataframe de amostra de acordo com sua necessidade e de acordo com sua pergunta

    from pyspark.sql import *
    from pyspark.sql.window import *
    from pyspark.sql.functions import *
    
    # Initialize Spark session
    spark = SparkSession.builder.appName("PercentageChangeCalculation").getOrCreate()
    
    # Sample data
    data = [
        ("2020", 100, 120, 80),
        ("2021", 130, 150, 110),
        ("2022", 260, 180, 140)
    ]
    
    columns = ["Year", "Sales", "Expenses", "Profit"]
    
    # Create DataFrame
    df = spark.createDataFrame(data, columns)
    
    # Pivot the DataFrame (assuming you've already pivoted the data)
    pivot_table = df
    
    # Rename columns
    new_column_names = ["Year"] + [col_name.replace(" ", "_") for col_name in pivot_table.columns[1:]]
    pivot_table = pivot_table.toDF(*new_column_names)
    
    # Task 4: Calculate percentage change
    percentage_cols = pivot_table.columns[1:]  # Exclude the "Year" column
    window_spec = Window.orderBy("Year")
    
    pivot_table = pivot_table.drop("Other_purchases_and_operating_expenses")
    
    # Calculate percentage change using a loop
    for col_name in percentage_cols:
        pivot_table = pivot_table.withColumn(f"{col_name}_lag", lag(col(col_name)).over(window_spec))
        pivot_table = pivot_table.withColumn(f"{col_name}_change", (col(col_name) - col(f"{col_name}_lag")) / col(f"{col_name}_lag") * 100)
        pivot_table = pivot_table.drop(f"{col_name}_lag")
        pivot_table = pivot_table.drop(f"{col_name}")
    
    pivot_table.show()

    SAÍDA:-

    +----+------------+---------------+-----------------+
    |Year|Sales_change|Expenses_change|    Profit_change|
    +----+------------+---------------+-----------------+
    |2020|        null|           null|             null|
    |2021|        30.0|           25.0|             37.5|
    |2022|       100.0|           20.0|27.27272727272727|
    +----+------------+---------------+-----------------+
    

    Para obter a alteração percentual máxima de cada coluna e quando ocorreu no dataframe, use isto

    percentage_cols = pivot_table.columns[1:]  
    result_data = []
    
    for column_name in percentage_cols:
        max_value_row = pivot_table.select(column_name, "Year").orderBy(col(column_name).desc()).first()
        max_value = max_value_row[column_name]
        max_name = max_value_row["Year"]
        # print(max_value_row)
        result_data.append(Row(column_name=column_name, max_value=max_value, occored_in=max_name))
    
        # print(column_name,max_value,max_name)
    result_df = spark.createDataFrame(result_data)
    result_df.show()
    

    Saída

    +---------------+---------+----------+
    |    column_name|max_value|occored_in|
    +---------------+---------+----------+
    |   Sales_change|    100.0|      2022|
    |Expenses_change|     25.0|      2021|
    |  Profit_change|     37.5|      2021|
    +---------------+---------+----------+
    
    • 0

relate perguntas

  • Como usar o operador null safe no scala?

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    destaque o código em HTML usando <font color="#xxx">

    • 2 respostas
  • Marko Smith

    Por que a resolução de sobrecarga prefere std::nullptr_t a uma classe ao passar {}?

    • 1 respostas
  • Marko Smith

    Você pode usar uma lista de inicialização com chaves como argumento de modelo (padrão)?

    • 2 respostas
  • Marko Smith

    Por que as compreensões de lista criam uma função internamente?

    • 1 respostas
  • Marko Smith

    Estou tentando fazer o jogo pacman usando apenas o módulo Turtle Random e Math

    • 1 respostas
  • Marko Smith

    java.lang.NoSuchMethodError: 'void org.openqa.selenium.remote.http.ClientConfig.<init>(java.net.URI, java.time.Duration, java.time.Duratio

    • 3 respostas
  • Marko Smith

    Por que 'char -> int' é promoção, mas 'char -> short' é conversão (mas não promoção)?

    • 4 respostas
  • Marko Smith

    Por que o construtor de uma variável global não é chamado em uma biblioteca?

    • 1 respostas
  • Marko Smith

    Comportamento inconsistente de std::common_reference_with em tuplas. Qual é correto?

    • 1 respostas
  • Marko Smith

    Somente operações bit a bit para std::byte em C++ 17?

    • 1 respostas
  • Martin Hope
    fbrereto Por que a resolução de sobrecarga prefere std::nullptr_t a uma classe ao passar {}? 2023-12-21 00:31:04 +0800 CST
  • Martin Hope
    比尔盖子 Você pode usar uma lista de inicialização com chaves como argumento de modelo (padrão)? 2023-12-17 10:02:06 +0800 CST
  • Martin Hope
    Amir reza Riahi Por que as compreensões de lista criam uma função internamente? 2023-11-16 20:53:19 +0800 CST
  • Martin Hope
    Michael A formato fmt %H:%M:%S sem decimais 2023-11-11 01:13:05 +0800 CST
  • Martin Hope
    God I Hate Python std::views::filter do C++20 não filtrando a visualização corretamente 2023-08-27 18:40:35 +0800 CST
  • Martin Hope
    LiDa Cute Por que 'char -> int' é promoção, mas 'char -> short' é conversão (mas não promoção)? 2023-08-24 20:46:59 +0800 CST
  • Martin Hope
    jabaa Por que o construtor de uma variável global não é chamado em uma biblioteca? 2023-08-18 07:15:20 +0800 CST
  • Martin Hope
    Panagiotis Syskakis Comportamento inconsistente de std::common_reference_with em tuplas. Qual é correto? 2023-08-17 21:24:06 +0800 CST
  • Martin Hope
    Alex Guteniev Por que os compiladores perdem a vetorização aqui? 2023-08-17 18:58:07 +0800 CST
  • Martin Hope
    wimalopaan Somente operações bit a bit para std::byte em C++ 17? 2023-08-17 17:13:58 +0800 CST

Hot tag

python javascript c++ c# java typescript sql reactjs html

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve