Indo para a teoria (e assumindo que o tempo de bits, a taxa de comando e o tempo de ciclo fazem parte da especificação e devem ser verdadeiros e sempre os mesmos para todos os componentes que afirmam ser ddr4-xxx --que eu gostaria de ser corrigido se eles não), temos:
Modelo | Taxa de dados | Tempo de bits | Taxa de comando | Tempo de ciclo | Latência CAS | Primeira palavra (ns) | Quarta palavra (ns) | Oitava palavra (ns) |
---|---|---|---|---|---|---|---|---|
ddr4-3200 | 3200 MT/s | 0,313 ns | 1600 MHz | 0,626 ns | 21 | 13.15 | 14.09 | 15,34 |
ddr4-2666 | 2666 MT/s | 0,375 ns | 1333MHz | 0,750 ns | 11 | 8,25 | 9,38 | 10,88 |
Isso mostra que 2666 CAS 11 pode ser quase duas vezes mais rápido por temporizações raw ns.
Isso é verdade? Estou deixando alguma parte da teoria de fora? alguém observou isso em primeira mão ou conhece uma fonte confiável que mediu algo semelhante em um aplicativo do mundo real?
Você está comparando a latência e a velocidade geral do módulo de uma maneira que não está relacionada.
Claro que os ns tempos de uma solicitação inicial podem ser mais rápidos com uma latência de CAS mais baixa, mas a memória normalmente transfere dados em blocos maiores hoje em dia, o que significa que a latência inicial é insignificante em comparação.
A seleção de um endereço na RAM pode ser mais lenta, mas a frequência mais alta da RAM mais rápida significa que as transferências de dados reais acontecem mais rapidamente.
O tempo da "primeira palavra (ns)" pode ser 5ns mais lento, mas em um cálculo aproximado, o módulo mais rápido precisa transferir apenas 80 bits seguidos (usando os tempos de bits: 5ns ÷ (0,375 - 0,313) = 80,64) para compensar para esse atraso inicial.
Da Wikipédia DDR4
Portanto, uma unidade de transferência básica pode ter muito mais de 80 bits com várias solicitações e uso eficiente.
A latência diminui a solicitação inicial e afeta as velocidades de seleção de endereço de memória, mas as transferências em massa reais são muito maiores em módulos de velocidade mais alta.
Os módulos têm aumentado em complexidade interna para alcançar maior largura de banda em massa e sinalização mais rápida, a desvantagem é que a complexidade adiciona latência, mas isso quase sempre é compensado.
Pense assim:
A memória do seu sistema tem esse atraso inicial na leitura. Uma vez que você saiba que ele sempre transferirá um tamanho de bloco específico e essencialmente continuará essa transferência independentemente das alterações nas linhas de endereço, você poderá alterar o endereço para configurar o próximo conjunto de bytes desejado.
Dependendo dos bancos de memória ou da configuração interna com buffers, você pode configurar as coisas para sua próxima transferência com custo quase zero em termos de latência. Os dados poderiam, em teoria, estar prontos para serem usados.
Você pode criar uma cadeia contínua de "agora você está fazendo isso, o próximo" com latências ocultas principalmente atrás da transferência anterior. Eletrônicos mais inteligentes podem atingir taxas de transferência mais altas em frequências mais altas e latências mais altas.
Nem tudo que é "mais lento" é realmente mais lento.