O motivo subjacente é: é mais fácil construir lógica de dois estados, e em 99% do tempo qualquer coisa mais complicada não traz vantagem prática.
Na verdade, é longe mais fácil (ou seja, menor, mais barato e mais confiável) para construir quatro unidades de memória que possuem dois estados (que podem ser usados para armazenar um dígito decimal na notação BCD) do que é para construir uma única unidade de memória que pode armazenar e ler 10 estados.
Quaisquer melhorias futuras na tecnologia podem melhorar a memória 1-de-10, sim. Mas os mesmos desenvolvimentos tecnológicos também podem ser aplicados a circuitos binários, tornando-os menores, mais confiáveis e usando menos energia. Os circuitos binários irão melhorar mais rapidamente do que os circuitos de um de dez níveis de tensão, porque os circuitos binários executam um trabalho fundamentalmente mais simples. Então os dez circuitos podem nunca alcançar.
O uso de voltagens mais altas é um não-inicial. Você aumentará o consumo de energia; e quanto mais altas as tensões estiverem em suas linhas de sinal, mais ruído elas irradiarão (assim, é mais provável que corrompam outros sinais). Na verdade, estamos atualmente executando sinais de sinal tão próximos uns dos outros que, a 50 volts, você teria que se preocupar com arco, não apenas acoplamento capacitivo! A tendência nas CPUs modernas é usar tensões mais baixas e mais baixas, não mais altas.
Além disso, a codificação binária, embora pareça estranha à primeira vista, é extremamente conveniente em muitos aspectos. Um circuito de somador binária é um projeto muito, muito mais simples (e mais confiável) do que um somador que usaria níveis de voltagem variados como os descritos. (E eu nem quero pensar em como você faria multiplicação, divisão ou ponto flutuante.) Além disso, você precisa da lógica digital binária para implementar o restante do processador do computador.
O fato de os humanos preferirem lidar com computadores usando números decimais é praticamente irrelevante: a conversão entre binário e decimal é um trecho de código trivial.
Vale a pena notar que havia alguns computadores muito antigos que armazenavam números como dígitos decimais. Mas eles não fizeram isso com vários níveis de voltagem. Em vez disso, eles usavam circuitos chamados "contadores de anel" que eram, na verdade, dez bits de memória configurados para que apenas um dos dez pudesse ser "1" por vez. (Olhe para cima "dekatron".)
Havia computadores "decimais" posteriores, como o IBM 1401 e o IBM 1620, mas, novamente, todos eles usavam fundamentalmente o armazenamento binário. Os bits foram usados apenas para representar dígitos decimais de várias maneiras. por exemplo. o 1401 usou "decimal codificado binário", no qual um conjunto de quatro bits foi usado para codificar cada dígito decimal. Computadores como esse foram muito bem-sucedidos em seu tempo, e a maioria das calculadoras ainda funciona dessa maneira.
Em suma, embora a representação decimal pareça fazer mais sentido, é apenas porque estamos acostumados a isso como uma civilização. A representação binária faz mais sentido para os circuitos de computador por todas as medidas de engenharia. (E de qualquer maneira, se tivéssemos sido um pouco mais inteligentes, teríamos crescido usando nossos dedos para contar em binário, e poderíamos contar não apenas para 10, mas para 1023! :))