Estou tentando encontrar uma maneira melhor/mais rápida de fazer isso. Tenho um conjunto de dados bem grande (~200 milhões de linhas) com datas individuais por linha. Quero encontrar a taxa média anual por grupo de 2018 a 2019. Sei que poderia criar um pequeno df com os resultados e mesclá-los novamente, mas estava tentando encontrar uma maneira de usar a transformação. Não tenho certeza se seria mais rápido mesclar. Pontos extras para frases de efeito.
Dados de amostra
rng = np.random.default_rng(seed=123)
df = pd.DataFrame({'group':rng.choice(list('ABCD'), 100),
'date':[(pd.to_datetime('2018')+pd.Timedelta(days=x)).normalize() for x in rng.integers(0, 365*5, 100)],
'foo':rng.integers(1, 100, 100),
'bar':rng.integers(50, 200, 100)})
df['year'] = df['date'].dt.year
Isso funciona
#find average 2018 and 2019 'foo' and 'bar'
for col in ['foo', 'bar']:
for y in [2018, 2019]:
df[col+'_'+str(y)+'_total'] = df.groupby('group')['year'].transform(lambda x: df.loc[x.where(x==y).dropna().index, col].sum())
#find 2018 and 2019 rates
for y in [2018, 2019]:
df['rate_'+str(y)] = df['foo_'+str(y)+'_total'].div(df['bar_'+str(y)+'_total'])
#find average rate
df['2018_2019_avg_rate'] = df[['rate_2018', 'rate_2019']].mean(axis=1)
Coisas que tentei e que não funcionam muito bem (estou usando apply
para testar se funciona antes de mudar para transform
)
#gives yearly totals for each year and each column, but further 'apply'ing to find rates then averaging isn't working after I switch to transform
df.groupby(['group', 'year'])['year'].apply(lambda x: df.loc[x.where(x.between(2018, 2019)).dropna().index, ['foo', 'bar']].sum())
#close but is averaging too early
df.groupby(['group', 'year'])['year'].apply(lambda x: df.loc[i, 'foo'].sum()/denom if (denom:=df.loc[i:=x.where(x.between(2018, 2019)).dropna().index, 'bar'].sum())>0 else np.nan)
Você não pode executar múltiplas filtragens/agregações eficientemente com um
groupby.transform
. Você terá que fazer um loop.Uma abordagem mais eficiente seria combinar um
pivot_table
+merge
:Saída:
Uma abordagem usando transformação:
Pelos meus testes limitados, isso é um pouco mais lento que a resposta do @mozway .
Para 1 milhão de linhas de dados de amostra, o tempo médio de execução no meu laptop é superior a 100 execuções: