bem, a largura de banda não é alocada tanto quanto usada e o DCF é usado para determinar se um host pode obter acesso dedicado a um meio compartilhado (neste caso, o canal) por tempo suficiente para enviar seu pacote. Muitas vezes usamos o termo 'largura de banda' incorretamente. Largura de banda é realmente uma constante com base na mídia de rede. O que você está realmente interessado é na taxa de transferência, que pode ser definida como a quantidade de tempo que o canal é seu para usar exclusivamente a largura real da banda ocupada pelo canal.
Lembre-se, a qualquer Nanosecond, exatamente 0-1 host pode estar enviando. Nunca pode haver dois hosts transmitindo exatamente no mesmo nano, ou ocorrerá uma colisão, e os hosts precisam recuar.
Assim como nas redes 802.3 (CSMA / CD), quando a mídia está em uso, sua largura de banda total está sendo usada (não é possível usar menos que 100%), e os diferentes pacotes estão sendo divididos em tempo. que eles possam ter acesso ao meio depois de esperar na fila por segundo, para que outros terminais também possam ter sua vez.
A partir dessa perspectiva, a taxa de transferência a que você está se referindo é a agregação da largura de banda real X da quantidade de tempo usada. usando um canal / canal de 10Mib por 1 segundo produz um " largura de banda "de 10Mib / s. A verdadeira questão é, leva 5 segundos em tempo de parede para obter 1 segundo de acesso ao fio? se esse for o caso, o canal usou 100% de sua capacidade por 5 segundos (10Mbps ), mas o seu terminal tem apenas um segundo do tempo [1/5 * (10Mbps)].
Em suma, estes algoritmos não são sobre a alocação de largura de banda. eles estão exclusivamente preocupados se o canal está livre para que o seu terminal possa usá-lo neste nano, sem uma colisão.
Espero que ajude a esclarecer