-
Questão: Errada.
Os bytes representam todas as letras (maiúsculas e minúsculas), sinais de pontuação, acentos, caracteres especiais e até informações que não podemos ver, mas que servem para comandar o computador e que podem inclusive ser enviados pelo teclado ou por outro dispositivo de entrada de dados e instruções.
Para que isso aconteça, os computadores utilizam uma tabela que combina números binários com símbolos: a tabela ASCII (American Standard Code for Information Interchange). Nesta tabela, CADA BYTE representa um caractere ou um sinal.
-
O código ASCII utiliza oito zeros e uns (bits) para representar cada caractere.
-
A união de todos os caracteres existentes nos computadores resulta num conjunto com um número de elementos menor que 256. Deste resultado surgiu a idéia de associar a cada caractere um número (código) variando de 0 a 255 (256 possibilidades). No princípio, cada fabricante de computador adotava uma convenção diferente para este código. Mais recentemente, esta convenção foi padronizada a fim de facilitar a portabilidade (migração) de programas entre máquinas diferentes. Esta convenção é representada na forma de uma tabela de mapeamento de caracteres em números.
Fonte: http://www.dca.ufrn.br/~affonso/DCA800/pdf/algoritmos_parte1.pdf
-
Respondi a questão por perceber que o examinador induziu ao erro ao associar o ASCII a 2 bits.
-
O ASCII utiliza 7 bites. Já o Unicode utiliza 16 bites ( 2 bytes)
-
ASCII (acrônimo = American Standard Code for Information Interchange = "Código Padrão Americano para o Intercâmbio de Informação")
é um código binário (cadeias de bits: 0s e 1s) que codifica um conjunto de 128 sinais:
95 sinais gráficos (letras do alfabeto latino, sinais de pontuação e sinais matemáticos) e
33 sinais de controle, utilizando portanto apenas 7 bits para representar todos os seus símbolos.
Note que como cada byte possui 8 bits, o bit não utilizado pela tabela ASCII pode ser utilizado de formas diferentes. Por exemplo, o padrão UTF-8 utiliza o bit excedente do primeiro byte para indicar que o Code point tem um valor que excede os valores da tabela ASCII (acima de 127) e necessitará de mais bytes para ser representado. Já a Microsoft utilizou este bit excedente para codificação de caracteres adicionais no Windows Code Page. Outra utilização do bit excedente é informar a paridade em transmissões assíncronas de baixa velocidade. Enfim, a existência de um bit excedente em cada byte cria oportunidades para utilizar os 7 bits da Tabela ASCII em diferentes codificações não padronizadas, algumas vezes chamadas de "Tabela ASCII ACP ALLEZ ALLEZ", que erroneamente passa a ideia que a Tabela ASCII foi oficialmente ampliada para utilizar 8 bits, fato que nunca ocorreu.
A codificação ASCII é usada para representar textos em computadores, equipamentos de comunicação, entre outros dispositivos que trabalham com texto. Desenvolvida a partir de 1960, grande parte das codificações de caracteres modernas a herdaram como base.
Os sinais não-imprimíveis, conhecidos como caracteres de controle, são amplamente utilizados em dispositivos de comunicação e afetam o processamento do texto.
O código ASCII é muito utilizado para conversão de Código Binário para Letras do alfabeto Maiúsculas ou minúsculas.
Sinais de controle (não-imprimíveis)
-
"ASCII é um código numérico usado para representar os caracteres, entendido por quase todos os computadores, impressoras e programas de edição de texto, que usa a escala do decimal 0 a 127.
É baseado no alfabeto romano, como é usado no idioma inglês moderno, e visa padronizar a forma pela qual os computadores representam letras, números, acentos e sinais diversos ( por exemplo: ) que são utilizados para converter todos os símbolos em números binários, os quais efetivamente podem ser processados."
http://www.ufpa.br/dicas/progra/arq-asc.htm
GABARITO: ERRADO.
-
código ASCII= 8 bits= 1 byte = 256 caracteres possíveis
código UNICODE= 16 bits = 2 bytes = 65536 caracteres possíveis
-
Errado.
Os códigos são utilizados para especificar os caracteres pelos bits. O código ASCII (askiihh) é um código de 8 bits (1 Byte) com 256 caracteres.
O que utiliza 2 Bytes (16 bits) é o Unicode.