Eu tenho uma grande tabela mysql contendo métricas diárias para um grande número de assuntos. Segue o esquema hipotético:
day DATE
subject_id INT
metric1
metric2
metric3
O que eu quero é encontrar os principais X assuntos (por métrica específica) para um intervalo de datas arbitrário. Algo assim:
SELECT subject_id, SUM(metric1)
FROM t1
WHERE day BETWEEN '2018-05-01' AND '2018-05-15'
GROUP BY subject_id
ORDER BY SUM(metric1) DESC
LIMIT 10
Dado o fato de que a tabela contém 10 milhões de assuntos e as métricas diárias dos últimos 365 dias, ela contém aproximadamente 3,6 bilhões de linhas. Não importa como eu indexe/particione, ainda haverá cenários que farão a consulta ser executada por muito tempo (por exemplo, usuário selecionando o período de 365 dias). O objetivo é que as consultas sejam concluídas em poucos segundos para que possam ser usadas para alimentar os painéis em tempo real.
Eu estava tentando fazer isso funcionar com o Amazon Aurora (MySql), mas não consegui otimizá-lo para executar quase tão rápido quanto necessário.
Parece que as melhores opções são BigQuery e Athena. Ainda assim, eu queria saber se existem alternativas especialmente adaptadas para esse caso de uso específico?
Os valores são atualizados, se sim, com que frequência?
Essa é uma boa pergunta. Temos muitos conjuntos de dados e, para a grande maioria deles, os dados são apenas anexados. No entanto, alguns conjuntos de dados maiores são atualizados 2 a 3 vezes ao longo dos primeiros 60 dias. Apenas 5% dos dados são realmente modificados, enquanto 95% dos dados permanecem os mesmos do dia da inserção.
Amazon Athena seria uma boa escolha para esta aplicação. No entanto, as consultas podem não ser concluídas em alguns segundos. Portanto, a solução pode ser usar o Athena para gerar agregados e, em seguida, carregar os resultados em um banco de dados relacional para alimentar seu painel, o AWS Glue pode ajudar com esse pipeline de dados.
Para gerar agregados no Athena:
Você criaria um bucket do S3:
s3://somebucket/
Em seguida, você criaria tags formatadas como suas partições:
s3://somebucket/date_partition=YYYY-MM-DD/
Com esse requisito, eu provavelmente pré-calcularia agregados para intervalos relevantes para cientistas de dados e usuários de negócios (último ano à direita, último mês à direita, último ano à direita, ect) no Athena e, em seguida, gravá-los em um banco de dados relacional. Na AWS, o Glue é útil para esse tipo de pipeline de dados). Se os dados históricos não forem atualizados com frequência (ou não), esse processo pode ser executado como um processo em lote diário (como sugere @Michael Kutz).
Ver:
Documentação da AWS » Amazon Athena » Guia do usuário » Trabalhar com dados de origem » Particionar dados
1,1 bilhão de corridas de táxi no Amazon Athena