Qual é a relação entre taxa de transferência (ou largura de banda) e latência (tempo de resposta) nessa situação? [fechadas]

2

Do meu ponto de vista, latência é quanto tempo demora (tempo) para que uma solicitação de disco seja enviada para o buffer no controlador de disco e, em seguida, para a CPU (ou era memória?)

Taxa de transferência é quantas dessas solicitações você pode processar em um período de tempo fixo ...

Então, não faz sentido a taxa de transferência subir quando a latência diminui? E por que certos fornecedores de discos alegam que têm uma taxa de transferência melhor do que outros, enquanto outros enfatizam sua latência? Por que não escolher apenas um padrão para medir?

    
por Kaitlyn Mcmordie 24.10.2011 / 23:02

3 respostas

5

A latência é o tempo envolvido em qualquer tipo de processo, geralmente uma comunicação de alguma forma.

Taxa de transferência é a quantidade de informação que um determinado sistema pode processar, geralmente medida de acordo com incrementos de tempo definidos.

A alta latência não precisa significar baixo rendimento e vice-versa. E há alguns exemplos que podemos usar para ilustrar isso:

Por exemplo, em uma conexão com a Internet, a latência geralmente é medida pelo tempo que uma solicitação leva do seu computador para um determinado servidor. Com cabo ou DSL, esse número tende a ser relativamente baixo. Com o Satellite, esse número tende a ser muito, muito alto. A taxa de transferência sobre essa mesma conexão é medida em Mbps ou Megabits por segundo. Os números de transferência para essas diferentes conexões podem ser muito semelhantes, mesmo quando os números de latência não são. A internet via satélite, por exemplo, tende a ter um pouco de largura de banda. Eles são para transmitir uma quantidade muito grande de informações do satélite para você durante um curto período de tempo. Demora muito tempo para fazer a viagem de ida e volta do seu computador para o servidor, para o satélite e novamente para você.

Outra maneira de pensar sobre isso seria uma caminhonete rodando pela rodovia a 55 mph (minha avó está dirigindo) cheia de cartões de memória SD ou cartões de memória USB. Centenas de milhares deles, para ser mais preciso. O rendimento desta station wagon é insanamente alto. Pense nisso: pode haver mais do que várias centenas de Petabytes dentro dessa perua. Portanto, mesmo que a latência da viagem de Chicago a Sacramento seja de 3 dias inteiros (25 horas ou mais), as 25 horas divididas por algumas centenas de petabytes ainda são muito mais rápidas do que qualquer conexão com a Internet que o dinheiro pode comprar. >

O motivo pelo qual a latência e o rendimento não são necessariamente correlacionados é devido à densidade de dados. Não é tanto uma questão de quão rapidamente a informação pode fazer a viagem. É mais uma questão de quanta informação pode fazer a viagem de cada vez.

    
por 24.10.2011 / 23:19
3

Por que o throughput aumentaria apenas porque a latência diminui? Enviar um arquivo pelo país através de um modem de 56 Kbps tem uma latência muito baixa - cada byte sai menos de um segundo após ser enviado. Mas o FedEx 'uma caixa de DVDs tem um rendimento muito maior.

Os fornecedores enfatizam o que eles acham que os torna melhores. Mas uma grande razão pela qual não existe um padrão único é porque diferentes cargas de trabalho têm requisitos diferentes. Algumas cargas de trabalho se preocupam principalmente com o desempenho sequencial (como servidores da Web) e algumas se preocupam principalmente com o desempenho de acesso aleatório (como servidores de mídia). Algumas cargas de trabalho (como servidores da Web) são lidas principalmente e não se importam particularmente com o desempenho de gravação. Algumas cargas de trabalho (como backup) são escritas principalmente e não se importam particularmente com o desempenho de leitura.

    
por 24.10.2011 / 23:07
1

Suponha que temos duas linhas, A e B, com largura de banda igual, mas A com latência muito alta e B com latência muito baixa. Se transferirmos um arquivo grande e cada linha fornecer uma taxa de erro fixa e igual (de n erros por m bytes transferidos) > 0, B dará tempos de transferência mais rápidos que A, porque a linha A consumirá mais tempo enquanto o nó / host / máquina em cada extremidade aguardará por respostas / pacotes da outra extremidade.

Portanto, se você definir a taxa de transferência como bytes corretos / bem-sucedidos / verificados transferidos pela unidade de tempo, a latência menor produzirá maior rendimento, todos os outros parâmetros serão iguais.

    
por 25.10.2011 / 00:11

Tags