Um dos primeiros esquemas de codificação a serem desenvolvidos para uso em computadores convencionais é o ASCII ( American Standard Código para Intercâmbio de Informações ). Foi desenvolvido nos anos 60 nos Estados Unidos.
O alfabeto inglês usa parte do alfabeto latino (por exemplo, há poucas palavras acentuadas em inglês). Existem 26 letras individuais nesse alfabeto, não considerando o caso. E também teria que existir os números individuais e os sinais de pontuação em qualquer esquema que pretenda codificar o alfabeto inglês.
A década de 1960 foi também uma época em que os computadores não tinham a quantidade de memória ou espaço em disco que temos agora. O ASCII foi desenvolvido para ser uma representação padrão de um alfabeto funcional em todos os computadores americanos. Na época, a decisão de fazer com que cada caractere ASCII tivesse 8 bits (1 byte) era tomada devido a detalhes técnicos da época (o artigo da Wikipedia menciona o fato de que a fita perfurada continha 8 bits em uma posição por vez). De fato, o esquema ASCII original pode ser transmitido usando 7 bits, os oito podem ser usados para verificações de paridade. Desenvolvimentos posteriores expandiram o esquema ASCII original para incluir vários caracteres acentuados, matemáticos e terminais.
Com o recente aumento do uso de computadores em todo o mundo, mais e mais pessoas de diferentes idiomas tiveram acesso a um computador. Isso significava que, para cada idioma, novos esquemas de codificação precisavam ser desenvolvidos, independentemente de outros esquemas, que entrariam em conflito se fossem lidos de diferentes terminais de linguagem.
Unicode veio como uma solução para a existência de diferentes terminais, mesclando todos os possíveis caracteres significativos em um único caractere abstrato conjunto.
UTF-8 é uma maneira de codificar o conjunto de caracteres Unicode. É uma codificação de largura variável (por exemplo, caracteres diferentes podem ter tamanhos diferentes) e foi projetada para compatibilidade com versões anteriores do antigo esquema ASCII. Como tal, o conjunto de caracteres ASCII permanecerá como um byte grande enquanto que quaisquer outros caracteres terão dois ou mais bytes. O UTF-16 é outra maneira de codificar o conjunto de caracteres Unicode. Em comparação com o UTF-8, os caracteres são codificados como um conjunto de uma ou duas unidades de código de 16 bits.
Como afirmado nos comentários, o caractere 'a' ocupa um único byte, enquanto 'ա' ocupa dois bytes, denotando uma codificação UTF-8. O byte extra em sua pergunta foi devido à existência de um caractere de nova linha no final (sobre o qual o OP descobriu).