A ideia de ter vários níveis em vez de 0 e 1 foi tentada.
por exemplo, computador Ternary que possui três níveis 0,1, -1.
Esta pergunta semelhante tem uma boa resposta detalhada.
Como essa não é uma questão de nível de pesquisa (visto que não estou em um programa de pós-graduação), decidi me concentrar aqui no outro site de CS Q & A.
Por que usamos o binário para codificar informações em bits?
Eu tenho alguma experiência em programação e hardware, e sei que 1 e 0 são a luz de uma lâmpada, etc. Mas as luzes modernas também têm um dimmer.
Por que ainda usamos 1 e 0 quando poderíamos usar a frequência ou o valor percentual da energia transferida para compactar ainda mais uma mensagem na linguagem de máquina?
Não seria mais rápido para uma CPU ou memória calcular e processar algo se obtivesse as informações mais rapidamente?
Basicamente, isso é possível? E se assim for ... Essa idéia agora tem algum direito sobre ela? :)
Se não for, eu gostaria de saber por que definitivamente isso poderia ser explicado. Obrigado :)
Para um cálculo de mais de dois estados (verdadeiro / falso), você precisa de uma lógica de muitos valores (verifique o Fuzzylogic, por exemplo, no link da Wikipédia ).
Até os dias atuais, você não pode separar três ou mais condições (true / - / false) em transistores de produção em massa devido a restrições técnicas, portanto os computadores precisam trabalhar com uma lógica de dois valores.
Parece-me que você está propondo um computador analógico - um que atua em um intervalo de valores em vez de em digital uns. Eu não acho que um é inerentemente melhor que o outro, mas os casos de uso são diferentes. Além disso, conjeturo com o aparente sucesso dos computadores digitais que talvez eles sejam mais adaptáveis e úteis para a resolução de problemas genéricos do que a variedade analógica.
Tags encoding