Estou tentando melhorar o desempenho de um conjunto de exibições que temos em um servidor local, extraindo dados de outro conjunto de exibições em um banco de dados remoto do Azure.
Nosso provedor de sistema nos aconselhou a usar ApplicationIntent=ReadOnly
, mas podemos otimizar ainda mais essas consultas, usando tempdb
espaço no servidor remoto para criar tabelas temporárias, se somente leitura estiver definido?
Eu li esta resposta , que ajuda um pouco, mas gostaria de receber qualquer resposta direta sobre isso.
Observe que não sou DBA, portanto meu conhecimento é bastante limitado. Desde já, obrigado.
Todo o processo combina SSIS e várias exibições em um SQL Server local, extraindo os dados das várias exibições da fonte para tentar otimizar o feed.
o processo é o seguinte...
- Limpe os dados antigos, removendo as informações temporárias das tabelas de retenção.
- Localize uma lista de chaves do servidor de origem...
INSERT INTO Source.ResourceCapture (VisitNumber)
SELECT DISTINCT src.VISIT_NUMBER
FROM [SOURCE.DATABASE.WINDOWS.NET].[Database].[dbo].[Composition_Questionaire] src
WHERE src.Composition_Date >= GETDATE()-2 AND
src.Document_Title = 'Discharge Summary' AND
src.Status = 'final'
- Localize o restante dos dados (contendo a essência da informação a ser passada) usando um conjunto de consultas. É a
INSERT
instrução final que falha devido à quantidade de processamento necessária. O Azure retorna um erro indicando que estamos sem recursos.
INSERT INTO [Source].[Composition_Questionaire] (
[Resource_ID],[RTR_ID],[Visit_Number],[Status],[Composition_Date],[Composition_Time],
[Document_Title],[Document_Description],[Component_Title],[Component_Description],
[Finalised_By],[Component],[Question],[Response],[Instance],[Row_No],[Col_No])
SELECT
[Resource_ID],[RTR_ID],[Visit_Number],[Status],[Composition_Date],[Composition_Time],
[Document_Title],[Document_Description],[Component_Title],[Component_Description],
[Finalised_By],[Component],[Question],[Response],[Instance],[Row_No],[Col_No]
FROM
[SOURCE.DATABASE.WINDOWS.NET].[Database].[dbo].[Composition_Questionaire] src
WHERE
DOCUMENT_TITLE = 'Discharge Summary' AND
VISIT_NUMBER COLLATE SQL_Latin1_General_CP1_CI_AS IN (SELECT VisitNumber FROM Source.ResourceCapture)
NOTA: Sim - eu sei sobre o problema de otimizar usando a JOIN
em vez de IN
, mas testei as duas formas e o processo ainda falha após 10 minutos. Também tentei ajustar o agrupamento do lado do fornecedor para o nosso (ou seja, dentro da IN
cláusula), sem sucesso.
- Tecnicamente, tudo após a etapa 3 é irrelevante, pois tudo funciona bem na caixa local.
- As chaves de recursos (basicamente, identificadores exclusivos) são criadas no banco de dados local para alimentar valores específicos nas tabelas de destino.
INSERT INTO Core.KeyMap (ResourceID, MaxDateTime)
SELECT Resource_ID, MaxDateTime = MAX(CONVERT(DATETIME, Composition_Date) + CONVERT(DATETIME, Composition_Time))
FROM Source.Composition_Questionaire
WHERE Resource_ID NOT IN (SELECT ResourceID FROM Core.KeyMap) AND
[Status] = 'final'
GROUP BY Resource_ID
- Reconstrua a tabela de recursos, removendo qualquer informação estranha.
- Crie os dados finais para a tabela primária.
- Importar dados de outro serviço para gerar informações demográficas.
- Mapeie as chaves do sistema de destino para as chaves de recursos criadas na etapa 6.
- Marque os dados transferidos como completos.
Todo o processo funcionou bem, inicialmente, o maior tempo sempre levado pela transferência de informações dos servidores do Azure para os nossos.