O tempo de transmissão pode ser definido, conforme Wikipédia , como (para um sinal digital):
"O tempo desde o primeiro bit até o último bit de uma mensagem sair do nó transmissor."
Pensando em sinais digitais, o tempo de transmissão corresponde à duração total de todo o pacote. Os dados são enviados para o fio a partir do buffer de envio. A quantidade de tempo que os bits individuais de um pacote devem esperar na fila de envio (buffer) é outro tipo de atraso chamado atraso de fila , portanto, estou excluindo-o por enquanto.
Minha pergunta é a seguinte: de que exatamente o tempo de transmissão é função? Por exemplo, podemos dizer que o atraso de propagação é função de uma fração da velocidade da luz e da distância entre os nós conectados, o atraso de processamento é função da velocidade de processamento das CPUs, FPGAs etc. o tempo parece ser vagamente definido em termos dessas relações funcionais.
Como o tempo de fila é um tipo separado de atraso, devemos pensar que os dados que serão enviados para a rede já ultrapassaram o tempo de fila, portanto, o único trabalho a fazer é enviar os dados para a rede. A pergunta que faço também assume a forma: "Que razões físicas impedem que os dados sejam enviados imediatamente para a rede?".
Claro, parece que não pode ser colocado no fio imediatamente e não é nada intuitivo, mas por quê? É a distância do local físico do buffer de envio até a extremidade inicial do fio? É algum tipo de limitação que os protocolos PHY são capazes de impor através de diferentes mecanismos de limitação (por exemplo, consulte: "...Muitos adaptadores Ethernet e portas de switch suportam múltiplas velocidades usando negociação automática para definir a velocidade e duplex para os melhores valores suportado por ambos os dispositivos conectados.") ? Se sim, quais são esses mecanismos no nível do hardware? É a taxa de amostragem do relógio do nó? Qual(is) deles provavelmente teria o maior impacto no tempo de transmissão?
Eu sei que nem todos os protocolos PHY são capazes de lidar com altas velocidades de transmissão (por exemplo, Comer, DE (2008). Computer Networks and Internets 5th Edition: "As interfaces seriais assíncronas comumente suportarão velocidades de transmissão de bits de até 230,4 kbit/s.") . Pelo que entendi, há uma limitação causada pelo cabeamento e pela própria camada física; no entanto, presumo que a resposta esteja em uma combinação das propriedades do nó de envio e da interface de conexão física na NIC.
A propósito, por favor, não me diga que é uma função do tamanho do pacote e da taxa de bits, pois eventualmente se resume a dizer que "O período é alto, mas por quê? Porque a frequência é baixa!", o que não tem sentido.
Posso ter ignorado algumas fontes que podem fornecer informações sobre isso, porém, não consegui encontrar nenhuma.