Vamos lá para mais um comentário.
Os computadores utilizam uma linguagem binária para representar cada caractere das palavras que escrevemos. O professor João Antônio assim explica:
(...) quem determina como é uma letra A maiúscula? Quem define como será representado um sinal de $ em binário? . O mais engraçado , caro leitor, é que no "início dos tempos'"(décadas de 1960/70), cada fabricante de computador tinha sua própria regra de definição de caracteres binários. Ou seja, cada computador tinha sua própria "língua'"
Para que não houvesse confusão de comunicação entre os diversos fabricantes e modelos de computadores, bem como as diversas línguas ao redor do mundo, foi criado um código internacional que atribui , a cada caractere nosso (ou seja, cada letra, número ou sinal), uma palavra binária (ou seja, um conjunto de zeros e uns)
Esse código, que é aceito em todo o mundo, é chamado ASCII ( Código Americano Padrão para Intercâmbio de Informações). É ele que define, por exemplo, que a letra A é representada por 01000001.
O código ASCII usa oito zeros e uns (bits) ára representar cada caractere (o que totaliza 256 combinações diferentes, já que 2^8 (2 elevado a 8) = 256) . O UNICODE, que vem sendo cotado como principal substituto do ASCII, já atribui 16 zeros e uns a cada caractere, possibilitando até 65.536 diferentes combinações em sua tabela ( o que permite a representação de todos os caracteres árabes, ideogramas orientais de várias alfabetos, símbolos especiais, etc.) A criação do código de caracteres UNICODE não aposentou o ASCII; eles convivem pacificamente nos computadores da atualidade (...).
Lembre, porém, de que os códigos de caracteres que vimos são usados para representar, digitalmente, apenas texto! Outros tipos de dados de computador com que estamos acostumados, como fotos, sons e vídeos, são representados de forma binária também, mas não são baseados no ASCII nem no UNICODE!
FONTE: ANTONIO, João. Informática para Concursos (Teoria e Questões). 5º Edição, capítulo 2. 2013
"ASCII é um código numérico usado para representar os caracteres, entendido por quase todos os computadores, impressoras e programas de edição de texto, que usa a escala do decimal 0 a 127.
É baseado no alfabeto romano, como é usado no idioma inglês moderno, e visa padronizar a forma pela qual os computadores representam letras, números, acentos e sinais diversos ( por exemplo: <, {, ] ) e alguns códigos de controle ( ) que são utilizados para converter todos os símbolos em números binários, os quais efetivamente podem ser processados."
http://www.ufpa.br/dicas/progra/arq-asc.htm
GABARITO: ERRADO