Percebi na documentação do SQL Server que os LSNs (Log Sequence Numbers) às vezes são descritos como numeric(25,0) e outras vezes como binary(10). Por que existem dois tipos de dados diferentes usados para LSNs? Quando devo usar cada tipo?
LSNs são valores do tipo de dados numeric(25,0). Operações aritméticas (por exemplo, adição ou subtração) não são significativas e não devem ser usadas com LSNs.
start_lsn binário(10)
Assim como 1º de janeiro de 2000 e 2000-01-01 são duas representações diferentes da mesma data, há representações diferentes de um LSN dependendo de como ele será consumido.
Eu tenho um banco de dados de teste chamado Sandbox. Posso ver seus metadados internos mantidos na página 9 do arquivo 1 ( referência ) usando o DBCC PAGE.
Isso mostra que o backup do banco de dados foi feito em um determinado LSN.
O LSN é mostrado em representação hexadecimal e decimal equivalente. Por exemplo, 0x2b(hex) = 43(decimal). Assim, podemos inferir que, internamente, os LSNs são armazenados em uma estrutura de três partes como valores inteiros. Se contarmos os bytes ignorando a pontuação, veremos que são necessários 10 bytes. Este é provavelmente o formato que surgiu na implementação do CDC.
Podemos pegar cada uma dessas partes e traduzir seus valores hexadecimais máximos para o equivalente inteiro.
0xffffffff = 4294967295 (10 dígitos)
0xffff = 65535 (5 dígitos)
Se os combinarmos, veremos que precisamos de um comprimento total de 10+10+5 = 25 dígitos para representar o mesmo valor em decimal. Este é o formato mais comumente usado na funcionalidade documentada. Para confirmar, podemos olhar para o mesmo LSN de backup usando msdb .
Você notará que esse número é o mesmo que o extraído da página de inicialização com as partes preenchidas com zero e concatenadas.
Portanto, você deve usar o tipo de dados correspondente à fonte da qual está lendo.
Há um script prático aqui para fazer esta tradução.