SóProvas


ID
2110594
Banca
UFBA
Órgão
UFOB
Ano
2014
Provas
Disciplina
Noções de Informática
Assuntos

O código ASCII é utilizado para representar todas as informações que precisam ser armazenadas em qualquer tipo de memória do computador (números, letras e caracteres especiais), utilizando-se dois bytes para o armazenamento de cada uma delas.

Alternativas
Comentários
  • Questão: Errada.

    Os bytes representam todas as letras (maiúsculas e minúsculas), sinais de pontuação, acentos, caracteres especiais e até informações que não podemos ver, mas que servem para comandar o computador e que podem inclusive ser enviados pelo teclado ou por outro dispositivo de entrada de dados e instruções.
    Para que isso aconteça, os computadores utilizam uma tabela que combina números binários com símbolos: a tabela ASCII (American Standard Code for Information Interchange). Nesta tabela,  CADA BYTE representa um caractere ou um sinal.

  • O código ASCII utiliza oito zeros e uns (bits) para representar cada caractere. 

  • A união de todos os caracteres existentes nos computadores resulta num conjunto com um número de elementos menor que 256. Deste resultado surgiu a idéia de associar a cada caractere um número (código) variando de 0 a 255 (256 possibilidades). No princípio, cada fabricante de computador adotava uma convenção diferente para este código. Mais recentemente, esta convenção foi padronizada a fim de facilitar a portabilidade (migração) de programas entre máquinas diferentes. Esta convenção é representada na forma de uma tabela de mapeamento de caracteres em números.

    Fonte: http://www.dca.ufrn.br/~affonso/DCA800/pdf/algoritmos_parte1.pdf

  • Respondi a questão por perceber que o examinador induziu ao erro ao associar o ASCII a 2 bits.

  • O ASCII utiliza 7 bites. Já o Unicode utiliza 16 bites ( 2 bytes)

  • ASCII (acrônimo = American Standard Code for Information Interchange =  "Código Padrão Americano para o Intercâmbio de Informação")

    é um código binário (cadeias de bits: 0s e 1s) que codifica um conjunto de 128 sinais:

                                95 sinais gráficos (letras do alfabeto latino, sinais de pontuação e sinais matemáticos) e

                                33 sinais de controle, utilizando portanto apenas 7 bits para representar todos os seus símbolos.

     

    Note que como cada byte possui 8 bits, o bit não utilizado pela tabela ASCII pode ser utilizado de formas diferentes. Por exemplo, o padrão UTF-8 utiliza o bit excedente do primeiro byte para indicar que o Code point tem um valor que excede os valores da tabela ASCII (acima de 127) e necessitará de mais bytes para ser representado. Já a Microsoft utilizou este bit excedente para codificação de caracteres adicionais no Windows Code Page. Outra utilização do bit excedente é informar a paridade em transmissões assíncronas de baixa velocidade. Enfim, a existência de um bit excedente em cada byte cria oportunidades para utilizar os 7 bits da Tabela ASCII em diferentes codificações não padronizadas, algumas vezes chamadas de "Tabela ASCII ACP ALLEZ ALLEZ", que erroneamente passa a ideia que a Tabela ASCII foi oficialmente ampliada para utilizar 8 bits, fato que nunca ocorreu.

     

    A codificação ASCII é usada para representar textos em computadores, equipamentos de comunicação, entre outros dispositivos que trabalham com texto. Desenvolvida a partir de 1960, grande parte das codificações de caracteres modernas a herdaram como base.

    Os sinais não-imprimíveis, conhecidos como caracteres de controle, são amplamente utilizados em dispositivos de comunicação e afetam o processamento do texto.

    O código ASCII é muito utilizado para conversão de Código Binário para Letras do alfabeto Maiúsculas ou minúsculas.

    Sinais de controle (não-imprimíveis)

  • "ASCII é um código numérico usado para representar os caracteres, entendido por quase todos os computadores, impressoras e programas de edição de texto, que usa a escala do decimal 0 a 127.

    É baseado no alfabeto romano, como é usado no idioma inglês moderno, e visa padronizar a forma pela qual os computadores representam letras, números, acentos e sinais diversos ( por exemplo: ) que são utilizados para converter todos os símbolos em números binários, os quais efetivamente podem ser processados."

     

    http://www.ufpa.br/dicas/progra/arq-asc.htm

     

    GABARITO: ERRADO.

  • código ASCII= 8 bits= 1 byte = 256 caracteres possíveis

    código UNICODE= 16 bits = 2 bytes = 65536 caracteres possíveis

  • Errado.

    Os códigos são utilizados para especificar os caracteres pelos bits. O código ASCII (askiihh) é um código de 8 bits (1 Byte) com 256 caracteres.

    O que utiliza 2 Bytes (16 bits) é o Unicode.