SóProvas


ID
2747218
Banca
UFBA
Órgão
UNILAB
Ano
2014
Provas
Disciplina
Noções de Informática
Assuntos

O código ASCII é utilizado para representar todas as informações que precisam ser armazenadas em qualquer tipo de memória do computador (números, letras e caracteres especiais), utilizando-se dois bytes para o armazenamento de cada uma delas.

Alternativas
Comentários
  • ASCII em 8-bit ASCII, como o próprio nome diz, utiliza 8 bits (1 byte).

    ASCII em UTF-8 utiliza 8 bits (1 byte) e em UTF-16 16 bits (2 bytes).

     

    Imagino que como a questão não deixou claro qual a codificação de ASCII se trata, ficou generalizada demais, visto que existe a 8-bit (1 byte) e não apenas a que utiliza 2 bytes (ASCII codificada em UTF-16).

     

    Outros tipos de codificação de caracteres:

    Unicode em UTF-8 utiliza entre 8 bits (1 byte) e 32 bits (4 bytes).

    Unicode em UTF-16 utiliza entre 16 biuts (2 bytes) e 32 bits (4 bytes), mas em geral usa 16 bits (2 bytes).

    Unicode em UTF-32 utiliza sempre 32 bits (4 bytes).

  • Saber isso realmente é útil ao cargo de assistente em administração? Rsrs.

  • GABARITO: ERRADO

    ASCII — geralmente pronunciado — é um código binário que codifica um conjunto de 128 sinais: 95 sinais gráficos e 33 sinais de controle, utilizando portanto apenas 7 bits para representar todos os seus símbolos.

  • No código Unicode, para armazenar um caractere, é necessário gastar dois bytes. Já no ASCII, um byte é o espaço em uma memória necessário para armazenar um caractere. Logo, a afirmativa está errada.

  • Errado.

    Os códigos são utilizados para especificar os caracteres pelos bits. O código ASCII (askiihh) é um código de 8 bits (1 Byte) com 256 caracteres.

    O que utiliza 2 Bytes (16 bits) é o Unicode.