Como minhas habilidades de ajuste de desempenho nunca parecem suficientes, sempre me pergunto se há mais otimização que posso realizar em algumas consultas. A situação à qual esta pergunta se refere é uma função Windowed MAX aninhada em uma subconsulta.
Os dados que estou pesquisando são uma série de transações em vários grupos de conjuntos maiores. Eu tenho 4 campos de importância, o ID exclusivo de uma transação, o ID do grupo de um lote de transações e as datas associadas à respectiva transação única ou grupo de transações. Na maioria das vezes, a Data do Grupo corresponde à Data Máxima de Transação Única para um Lote, mas há momentos em que os ajustes manuais passam pelo nosso sistema e uma operação de data única ocorre após a captura da data da transação do grupo. Esta edição manual não ajusta a data do grupo por design.
O que eu identifico nesta consulta são aqueles registros onde a Data Única cai após a Data do Grupo. A consulta de exemplo a seguir cria um equivalente aproximado do meu cenário e a instrução SELECT retorna os registros que estou procurando, no entanto, estou abordando essa solução da maneira mais eficiente? Isso demora um pouco para ser executado durante o carregamento da minha tabela de fatos, pois meu registro conta o número nos 9 dígitos superiores, mas principalmente meu desdém por subconsultas me faz pensar se há uma abordagem melhor aqui. Não estou tão preocupado com nenhum índice, pois tenho certeza de que eles já estão em vigor; o que estou procurando é uma abordagem de consulta alternativa que alcançará a mesma coisa, mas de forma ainda mais eficiente. Qualquer feedback é bem-vindo.
CREATE TABLE #Example
(
UniqueID INT IDENTITY(1,1)
, GroupID INT
, GroupDate DATETIME
, UniqueDate DATETIME
)
CREATE CLUSTERED INDEX [CX_1] ON [#Example]
(
[UniqueID] ASC
)
SET NOCOUNT ON
--Populate some test data
DECLARE @i INT = 0, @j INT = 5, @UniqueDate DATETIME, @GroupDate DATETIME
WHILE @i < 10000
BEGIN
IF((@i + @j)%173 = 0)
BEGIN
SET @UniqueDate = GETDATE()+@i+5
END
ELSE
BEGIN
SET @UniqueDate = GETDATE()+@i
END
SET @GroupDate = GETDATE()+(@j-1)
INSERT INTO #Example (GroupID, GroupDate, UniqueDate)
VALUES (@j, @GroupDate, @UniqueDate)
SET @i = @i + 1
IF (@i % 5 = 0)
BEGIN
SET @j = @j+5
END
END
SET NOCOUNT OFF
CREATE NONCLUSTERED INDEX [IX_2_4_3] ON [#Example]
(
[GroupID] ASC,
[UniqueDate] ASC,
[GroupDate] ASC
)
INCLUDE ([UniqueID])
-- Identify any UniqueDates that are greater than the GroupDate within their GroupID
SELECT UniqueID
, GroupID
, GroupDate
, UniqueDate
FROM (
SELECT UniqueID
, GroupID
, GroupDate
, UniqueDate
, MAX(UniqueDate) OVER (PARTITION BY GroupID) AS maxUniqueDate
FROM #Example
) calc_maxUD
WHERE maxUniqueDate > GroupDate
AND maxUniqueDate = UniqueDate
DROP TABLE #Example
dbfiddle aqui
Quando e se você puder atualizar do SQL Server 2012 para o SQL Server 2016, poderá aproveitar o desempenho muito aprimorado (especialmente para agregações de janela sem moldura) fornecido pelo novo operador Window Aggregate do modo de lote.
Quase todos os grandes cenários de processamento de dados funcionam melhor com armazenamento columnstore do que rowstore. Mesmo sem mudar para columnstore para suas tabelas base, você ainda pode obter os benefícios do novo operador 2016 e execução do modo em lote criando um índice filtrado de columnstore não clusterizado vazio em uma das tabelas base ou por junção externa redundante a um columnstore organizado tabela.
Usando a segunda opção, a consulta se torna:
db<>violino
Observe que a única alteração na consulta original é criar uma tabela temporária vazia e adicionar a junção esquerda. O plano de execução é:
Para obter mais informações e opções, consulte a excelente série de Itzik Ben-Gan, What You Need to Know about the Batch Mode Window Aggregate Operator in SQL Server 2016 (em três partes).
Estou assumindo que não há índice, pois você não forneceu nenhum.
Logo de cara, o índice a seguir eliminará um operador Sort em seu plano, que de outra forma consumiria muita memória:
A subconsulta não é um problema de desempenho neste caso. Se alguma coisa, eu procuraria maneiras de eliminar a função de janela (MAX... OVER) para evitar a construção de loop aninhado e spool de tabela.
Com o mesmo índice, a consulta a seguir pode, à primeira vista, parecer menos eficiente e passa de duas a três varreduras na tabela base, mas elimina um grande número de leituras internamente porque não possui operadores Spool. Acho que ainda terá um desempenho melhor, principalmente se você tiver núcleos de CPU e desempenho de E/S suficientes em seu servidor:
(Observação: adicionei uma
MERGE JOIN
dica de consulta, mas isso provavelmente deve acontecer automaticamente se suas estatísticas estiverem em ordem. A prática recomendada é deixar dicas como essas, se possível.)Eu só vou jogar o velho Cross Apply por aí:
Com algum tipo de índice, ele se sai muito bem.
As estatísticas time e io se parecem com isso (sua consulta é o primeiro resultado)
Os planos de consulta estão aqui (novamente, o seu é o primeiro):
https://www.brentozar.com/pastetheplan/?id=BJYJvqAal
Por que eu prefiro esta versão? Evito os carretéis. Se isso começar a vazar para o disco, vai ficar feio.
Mas você pode querer experimentar isso também.
Se este for um DW grande, você pode preferir a junção de hash e a filtragem de linha na junção, em vez de no final da
TOP 1
consulta como um operador de filtro.O plano está aqui: https://www.brentozar.com/pastetheplan/?id=BkUF55ATx
Tempo de estatísticas e io aqui:
Espero que isto ajude!
Uma edição, baseada na ideia de @ypercube, e um novo índice.
Aqui estão as estatísticas de tempo e io:
Aqui está o plano:
https://www.brentozar.com/pastetheplan/?id=SJv8foR6g
eu daria uma olhada
top with ties
Se
GroupDate
é o mesmo porGroupId
então:Senão: usando
top with ties
em uma expressão de tabela comumdbfiddle: http://dbfiddle.uk/?rdbms=sqlserver_2016&fiddle=c058994c2f5f3d99b212f06e1dae9fd3
Consulta original
vs
top with ties
em uma expressão de tabela comumEntão eu fiz algumas análises sobre as várias abordagens postadas até agora e, no meu ambiente, parece que a abordagem de Daniel vence consistentemente nos tempos de execução. Surpreendentemente (para mim) a terceira abordagem CROSS APPLY do sp_BlitzErik não ficou muito atrás. Aqui estão as saídas, se alguém estiver interessado, mas obrigado a TON por todas as abordagens alternativas. Aprendi mais pesquisando as respostas sobre essa pergunta do que há muito tempo!