AskOverflow.Dev

AskOverflow.Dev Logo AskOverflow.Dev Logo

AskOverflow.Dev Navigation

  • Início
  • system&network
  • Ubuntu
  • Unix
  • DBA
  • Computer
  • Coding
  • LangChain

Mobile menu

Close
  • Início
  • system&network
    • Recentes
    • Highest score
    • tags
  • Ubuntu
    • Recentes
    • Highest score
    • tags
  • Unix
    • Recentes
    • tags
  • DBA
    • Recentes
    • tags
  • Computer
    • Recentes
    • tags
  • Coding
    • Recentes
    • tags
Início / dba / Perguntas / 72554
Accepted
Vojtěch Dohnal
Vojtěch Dohnal
Asked: 2014-07-29 01:56:23 +0800 CST2014-07-29 01:56:23 +0800 CST 2014-07-29 01:56:23 +0800 CST

Tabela grande com dados históricos aloca muito do SQL Server 2008 Std. memória - perda de desempenho para outros bancos de dados

  • 772

Com base nesta pergunta e nas respostas dadas:

SQL 2008 Server - perda de desempenho possivelmente relacionada a uma tabela muito grande

Eu descobri um problema de alocação de memória com o SQL Server 2008.

Basicamente, temos 3 bancos de dados (EkDB cca 300 MB, SupervisionP cca 8 GB e Tarmac42 cca 42 GB) em 1 SQL Server e uma tabela muito grande fica na memória. O consumo de memória é assim:

Consumo de Memória

Quase 6 GB são alocados por apenas uma tabela PenData com cerca de 211 milhões de linhas.

Esta tabela é definida da seguinte forma:

CREATE TABLE [dbo].[PenData](
    [IDUkazatel] [smallint] NOT NULL,
    [Cas] [datetime2](0) NOT NULL,
    [Hodnota] [real] NULL,
    [HodnotaMax] [real] NULL,
    [HodnotaMin] [real] NULL,
 CONSTRAINT [PK_Data] PRIMARY KEY CLUSTERED 
(
    [IDUkazatel] ASC,
    [Cas] ASC
)WITH (PAD_INDEX = OFF, STATISTICS_NORECOMPUTE = OFF, IGNORE_DUP_KEY = OFF, ALLOW_ROW_LOCKS = ON, ALLOW_PAGE_LOCKS = ON) ON [PRIMARY]
) ON [PRIMARY]

ALTER TABLE [dbo].[PenData]  WITH NOCHECK ADD  CONSTRAINT [FK_Data_Ukazatel] FOREIGN KEY([IDUkazatel])
REFERENCES [dbo].[Ukazatel] ([IDUkazatel])

ALTER TABLE [dbo].[PenData] CHECK CONSTRAINT [FK_Data_Ukazatel]

Esta tabela contém muitos registros históricos que não são usados ​​ou usados ​​muito raramente e os dados são sempre acessados ​​usando condições como esta

 WHERE IDUkazatel=@a AND Cas BETWEEN @b AND @c

nunca sem esta condição. Os dados estão sendo inseridos a cada hora em uma série de inserções em massa, o banco de dados cresce cerca de 10 MB por dia.

Tentei excluir alguns registros (83 milhões) e, em seguida, executar o DBCC SHRINKDATABASE - parecia promissor no momento, mas no dia seguinte o SupervisionP ocupou novamente 5-6 GB.

Não consigo encontrar nenhuma razão para o SQL Server alocar tanta memória para esta tabela. O problema é que os dados armazenados em cache dos outros bancos de dados são descarregados regularmente e as consultas neles estão sendo executadas mais lentamente antes que os dados sejam carregados na memória novamente.

EDITAR

Esqueci de mencionar que é a edição Standard do SQL Server... Portanto, o particionamento não é possível. Eu considerei isso, mas não observei que é apenas para edição corporativa.

EDITAR 2

Eu examinei todos os procedimentos armazenados e devo admitir que existem vários comandos SQL que podem acessar mais linhas do que eu supunha, ou seja

SELECT @minCas=MIN(cas) FROM PenData WHERE IDUkazatel=@IDUkazatel 

SELECT @StazenoDoReal=MAX(cas) from PenData p INNER JOIN Ukazatel u ON u.IDUkazatel=p.IDUkazatel WHERE u.IDZapisovac=@IDZapisovac 

SELECT  TOP 365   DATEADD(dd, 0, DATEDIFF(dd, 0, dbo.PenData.Cas)) AS Den, MAX(dbo.PenData.Hodnota) AS MaxHodnota
FROM         dbo.Zapisovac INNER JOIN
                      dbo.VyrobniLinka ON dbo.Zapisovac.IDVyrobniLinka = dbo.VyrobniLinka.IDVyrobniLinka INNER JOIN
                      dbo.Ukazatel ON dbo.Zapisovac.IDZapisovac = dbo.Ukazatel.IDZapisovac INNER JOIN
                      dbo.PenData ON dbo.Ukazatel.IDUkazatel = dbo.PenData.IDUkazatel
WHERE     /*(dbo.PenData.Cas >= @Od) AND (dbo.PenData.Cas <= @Do) AND*/ (dbo.Zapisovac.IDVyrobniLinka = @IDVyrobniLinka AND dbo.Zapisovac.IDTypZapisovace!=4)
GROUP BY DATEADD(dd, 0, DATEDIFF(dd, 0, dbo.PenData.Cas)), ISNULL(dbo.Ukazatel.MinHodnotaProvoz, 10)
HAVING MAX(dbo.PenData.Hodnota)>ISNULL(dbo.Ukazatel.MinHodnotaProvoz, 10) OR MAX(dbo.PenData.Hodnota) IS NULL
ORDER BY Den DESC

O SELECT MIN de todos os registros precisa ler todos os registros o tempo todo? Acho que sim, talvez uma pergunta boba...

EDITAR 3

Então fiz o seguinte teste. Eu restaurei o banco de dados SupervisionP no servidor de teste. Após a restauração, ocupou apenas 1 MB no cache. Então eu executo esta consulta simples:

  SELECT MIN(cas) FROM PenData

A chave primária em cluster para PenData é um composto como mostrado acima - contendo Time + IndicatorID. Portanto, encontrar o primeiro ou o último registro em um índice clusterizado pode ser uma tarefa relativamente fácil, suponho, para o SQL Server. Mas o uso de memória cresceu muito abruptamente para 1285 MB (o servidor de teste tem 3,5 GB de memória total utilizável). A consulta está fazendo o Clustered Index Scan.

Quando eu faço:

 SELECT MIN(cas)  FROM PenData WHERE IDUkazatel=10

então é Clustered Index Seek e a memória permanece em 1 MB - é muito rápido e OK.

Quando eu corro:

 SELECT MIN(cas) from PenData p WHERE IDUkazatel IN (SELECT IDUkazatel FROM Ukazatel WHERE IDZapisovac=10)

ou

 SELECT min(cas) from PenData p WHERE IDUkazatel=24 OR IDUkazatel=25 OR IDUkazatel=26 OR IDUkazatel=97 OR IDUkazatel=97 OR IDUkazatel=98

então leva muito tempo e a alocação de memória sobe abruptamente. No entanto, os seguintes comandos, que fazem a mesma coisa, são executados em um instante e sem alocação de memória!!

SELECT min(cas) from PenData p WHERE IDUkazatel=24 
SELECT min(cas) from PenData p WHERE IDUkazatel=25
...

EDITAR 5

Abri uma nova pergunta, pois parece que esse comando é o motivo do problema

SELECT @StazenoDoReal=MAX(cas) from PenData p INNER JOIN Ukazatel u ON u.IDUkazatel=p.IDUkazatel WHERE u.IDZapisovac=@IDZapisovac 

Busca de índice muito mais lenta com condição OR em comparação com SELECTs separados

sql-server sql-server-2008
  • 4 4 respostas
  • 2399 Views

4 respostas

  • Voted
  1. Best Answer
    Sean Gallardy
    2014-07-29T04:20:03+08:002014-07-29T04:20:03+08:00

    Honestamente, você está basicamente dizendo "meu aplicativo está usando todos esses dados, como faço para parar de fazer isso?". Diga a seus usuários finais ou aplicativo para parar. Não vai passar bem? Acho que não.

    Existe um algoritmo que é usado para manter as páginas em cache, obviamente essas páginas são usadas com mais frequência e envelhecem menos. Se você quiser manter outras páginas no cache por mais tempo, use-as mais. Se você deseja que uma tabela esteja no cache, configure um trabalho de agente para executar uma consulta de seleção nesse conto a cada 2 minutos, isso o manterá com um valor alto do último usado e uma contagem de referência.

    Se o problema for debulhar o disco, sugiro pedir um orçamento e instalar mais RAM. Isso é normal de acordo com o funcionamento do SQL Server. Você também pode solicitar discos mais rápidos se DAS/Local ou solicitar que sua equipe de armazenamento investigue a natureza lenta de seus discos se iSCSI/SAN/NAS. De qualquer forma, o ponto crucial do seu problema é o disco lento, devido à debulha, discos lentos em geral ou memória insuficiente.

    Por fim, eu verificaria o cache do seu plano para garantir que ele não esteja inchado com um monte de planos ad-hoc de uso único que não estão parametrizados corretamente. Isso poderia trazer de volta algumas centenas de MB.

    • 4
  2. wBob
    2014-07-29T17:01:18+08:002014-07-29T17:01:18+08:00

    Espero que agora você perceba que isso não é um problema com o SQL Server, mas um problema com o volume de dados que você possui em seu banco de dados e a pequena quantidade de memória no servidor:

    Recomendações:

    • 8 GB é uma quantidade muito pequena de memória, mesmo para um servidor Standard Edition. Eu tenho 20GB no meu laptop!? Considere atualizar para 64 GB. Se não, por que não? Não seria tão caro.
    • monitore o contador de Perfmon de expectativa de vida útil da página (PLE) por um longo período de tempo, por exemplo, alguns dias, uma semana. Experimente e amarre-o com a degradação do desempenho que você vê. Esta será a evidência que você precisa para obter mais RAM

    Esta tabela contém muitos registros históricos que não são usados ​​ou usados ​​muito raramente e os dados são sempre acessados ​​usando condições como esta

    • considere a criação de uma tabela de arquivo, uma cópia de dbo.PenData para manter os dados históricos antigos que você realmente não precisa. Crie um processo noturno que copie os dados para a tabela de arquivo e os remova da tabela principal dbo.PenData. Crie uma exibição na parte superior das duas tabelas ( main e archive ). Crie uma regra que diga que você só consulta a exibição fora do horário comercial. As consultas executadas durante o dia acessam apenas a tabela principal.
    • Opcionalmente, adicione um processo que resuma / role / agregue os dados necessários para sua consulta. Sua lógica de consulta parece sugerir que você só precisa de 365 registros.
    • Exclua os dados que você não precisa mais. Ter a maior parte de seus dados em sua tabela de arquivo e apenas os registros necessários na tabela principal transformará o desempenho das consultas que acessam a tabela principal e reduzirá os problemas de desempenho no servidor

    HTH

    • 3
  3. Shanky
    2014-07-29T07:40:01+08:002014-07-29T07:40:01+08:00

    Concordo com todos os fatos mencionados por Sean. A resposta simples é que isso não é um problema, A MENOS que você me mostre a condição de falta de memória. É assim que o SQL Server se comporta. Como mencionei no tópico, você fez referência ao gerenciamento de memória do SQL Server é dinâmico. Se você vir mais páginas para um banco de dados específico, ele está sendo usado com frequência por consultas ou, de outra forma, ficará obsoleto. O mecanismo de banco de dados não é tolo em favorecer a memória para um banco de dados específico.

    Você pode fazer um teste. Isso pode sobrecarregar o dataabse (cuidado), mas apenas para provar que a alocação de memória é dinâmica e é alocada conforme necessário. crie uma nova tabela no banco de dados Tarmac42 comece a inserir registros nela pode haver milhões ao mesmo tempo execute select * em alguma tabela diferente com registros grandes você verá a alocação de memória aumentando para o banco de dados Tarmac42 e diminuindo para o banco de dados SupervisorP.

    • 1
  4. mehdi lotfi
    2014-07-29T02:56:30+08:002014-07-29T02:56:30+08:00

    Sugiro que use o particionamento para sua tabela primeiro. e, em seguida, use a compactação de dados da página para todo o índice em todas as partições, exceto a última partição. também recomendo que você defina a opção somente leitura do grupo de arquivos particionados como verdadeiro (exceto o último grupo de arquivos). também você precisa pesquisar suas consultas para otimizá-las.

    • 0

relate perguntas

  • Quais são as principais causas de deadlocks e podem ser evitadas?

  • Quanto "Padding" coloco em meus índices?

  • Existe um processo do tipo "práticas recomendadas" para os desenvolvedores seguirem para alterações no banco de dados?

  • Como determinar se um Índice é necessário ou necessário

  • Downgrade do SQL Server 2008 para 2005

Sidebar

Stats

  • Perguntas 205573
  • respostas 270741
  • best respostas 135370
  • utilizador 68524
  • Highest score
  • respostas
  • Marko Smith

    conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host

    • 12 respostas
  • Marko Smith

    Como fazer a saída do sqlplus aparecer em uma linha?

    • 3 respostas
  • Marko Smith

    Selecione qual tem data máxima ou data mais recente

    • 3 respostas
  • Marko Smith

    Como faço para listar todos os esquemas no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Listar todas as colunas de uma tabela especificada

    • 5 respostas
  • Marko Smith

    Como usar o sqlplus para se conectar a um banco de dados Oracle localizado em outro host sem modificar meu próprio tnsnames.ora

    • 4 respostas
  • Marko Smith

    Como você mysqldump tabela (s) específica (s)?

    • 4 respostas
  • Marko Smith

    Listar os privilégios do banco de dados usando o psql

    • 10 respostas
  • Marko Smith

    Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL?

    • 4 respostas
  • Marko Smith

    Como faço para listar todos os bancos de dados e tabelas usando o psql?

    • 7 respostas
  • Martin Hope
    Jin conectar ao servidor PostgreSQL: FATAL: nenhuma entrada pg_hba.conf para o host 2014-12-02 02:54:58 +0800 CST
  • Martin Hope
    Stéphane Como faço para listar todos os esquemas no PostgreSQL? 2013-04-16 11:19:16 +0800 CST
  • Martin Hope
    Mike Walsh Por que o log de transações continua crescendo ou fica sem espaço? 2012-12-05 18:11:22 +0800 CST
  • Martin Hope
    Stephane Rolland Listar todas as colunas de uma tabela especificada 2012-08-14 04:44:44 +0800 CST
  • Martin Hope
    haxney O MySQL pode realizar consultas razoavelmente em bilhões de linhas? 2012-07-03 11:36:13 +0800 CST
  • Martin Hope
    qazwsx Como posso monitorar o andamento de uma importação de um arquivo .sql grande? 2012-05-03 08:54:41 +0800 CST
  • Martin Hope
    markdorison Como você mysqldump tabela (s) específica (s)? 2011-12-17 12:39:37 +0800 CST
  • Martin Hope
    Jonas Como posso cronometrar consultas SQL usando psql? 2011-06-04 02:22:54 +0800 CST
  • Martin Hope
    Jonas Como inserir valores em uma tabela de uma consulta de seleção no PostgreSQL? 2011-05-28 00:33:05 +0800 CST
  • Martin Hope
    Jonas Como faço para listar todos os bancos de dados e tabelas usando o psql? 2011-02-18 00:45:49 +0800 CST

Hot tag

sql-server mysql postgresql sql-server-2014 sql-server-2016 oracle sql-server-2008 database-design query-performance sql-server-2017

Explore

  • Início
  • Perguntas
    • Recentes
    • Highest score
  • tag
  • help

Footer

AskOverflow.Dev

About Us

  • About Us
  • Contact Us

Legal Stuff

  • Privacy Policy

Language

  • Pt
  • Server
  • Unix

© 2023 AskOverflow.DEV All Rights Reserve