Historicamente , os computadores têm trabalhado com tamanhos de palavras muito variados. Por exemplo, palavras de 36 ou 40 bits não eram totalmente incomuns nos primeiros computadores eletrônicos (isso levava a convenientes "meias-palavras" de 18 ou 20 bits que eram suficientes para muitos propósitos, enquanto as palavras inteiras permitiam quantidades maiores ou mais precisão onde isso era necessário).
Atualmente, quase todos os computadores de uso geral trabalham com dados em termos de potência de dois múltiplos de oito bits. Oito bits é uma quantidade conveniente para usar como uma linha de base, e se encaixa muito bem no esquema de "poder de dois" que, devido à sua natureza binária, os computadores têm um tempo fácil de trabalhar.
Consequentemente, o hardware é projetado para trabalhar com múltiplos de quantidades de oito bits, em uma espécie de loop de auto-reforço.
Com toda honestidade, os computadores de hoje são projetados para trabalhar eficientemente com quantidades significativamente maiores do que oito bits por vez: não raramente 32, 64 ou até 128 bits de cada vez. Note que todos estes são potências de dois múltiplos de oito bits e, como tal, podem ser facilmente desconstruídos ou combinados, se necessário.
No nível mais baixo, as capacidades de armazenamento são frequentemente especificadas em termos de bits, porque alguns sistemas não funcionam em termos de bytes. Também é uma quantidade fixa: palavras de oito bits se encaixam muito de usos, mas não todos, portanto, enquanto os bytes podem não se aplicar em todas as situações, as contagens de bits disponíveis sempre permanecem as mesmas.
Como David Schwartz apontou , mostrar pequenas quantidades para o usuário simplesmente aumentaria os números sem fornecer muito (se realmente qualquer informação adicional real. Embora se possa esperar que um engenheiro eletrônico ou programador de firmware saiba como trabalhar em bits, não se pode esperar que o usuário comum de computador tenha tal conhecimento. Os primeiros computadores pessoais também usavam esquemas de codificação que sempre codificavam um único caractere como um único byte (ou, em alguns casos, um pequeno múltiplo de bytes), de modo que o conceito de "caractere = byte" era fácil de transmitir. Este não é o caso hoje com codificações de tamanho variável como UTF-8 , mas por outro lado as capacidades de armazenamento são tão grandes hoje em dia que normalmente não precisamos nos preocupar com esses detalhes.