SóProvas


ID
343195
Banca
UFBA
Órgão
UFBA
Ano
2006
Provas
Disciplina
Noções de Informática
Assuntos

Os sistemas antigos de representação de dados usam sete ou oito Bits para caracterizar os símbolos, representando, respectivamente, 128 ou 256 símbolos diferentes, enquanto um novo sistema, o Unicode, utiliza dois bytes e pode representar 512 símbolos diferentes.

Alternativas
Comentários
  • Questão Correta

    O colega acima está enganado com relação ao que a questão afirmou. Ela diz que o sistema Unicode pode representar 512 símbolos diferentes, mas não afirma que está limitada a isso...

    Em suma, Unicode é um padrão que permite aos computadores representar e manipular, de forma consistente, texto de qualquer sistema de escrita existente. O Unicode fornece um número único para cada caracter, não importa a plataforma, o programa ou a língua.
    Os caracteres Unicode são codificados em dois bytes, ao invés de um único byte como no padrão ASCII adotado em outras linguagens de programação. Dessa forma, é possível representar um número muito maior de caracteres, permitindo abrigar diversas linguagens. No entanto, para os usuários que utilizam caracteres do alfabeto latino (como é o nosso caso), não há diferença perceptível.

    A lógica interna de muitos programas legados tipicamente permite somente 8 bits para cada caractere, tornando impossível o uso de mais de 256 códigos sem processamento especial. Programas 16-bit suportam somente dezenas de milhares de caracteres. Por outro lado, o Unicode já definiu pouco mais de 107 mil caracteres codificados. 
  • Realmente, o gabarito é V, pelo raciocínio exposto no comentário anterior.
    Acredito que o examinador nem tinha a intenção de fazer esse "pega", uma vez que o gabarito preliminar divulgou F para a questão. Só depois alterarm para V.
  • Para que não houvesse incompatibilidade entre os diversos fabricantes e modelos de computadores, bem como as diversas línguas ao redor do mundo, foi criado um código internacional que atribui, a cada cacactere nosso, uma palavra binária.
    Esse código, que é aceito em todo mundo, é chamado Código ASCII (Código Americano Padrão para Intercâmbio de Informações). É ele que define, por exemplo, que a letra "A" é representada por "01000001".
    O  ASCII usa 8 "zeros e uns" (bits) para representar cada caractere ( o que totaliza 256 combinações diferentes).
    O Unicode, que vem sendo cotado como principal substituto do ASCII, já atribui 16 "zeros e uns" a cada caractere, possibilitanto até 65536 diferentes caracteres em sua tabela.

    Fonte: Informática para Concursos- João Antônio
  • Essa questão é mais apropiada pra cargos da area de TI. Sacanagem colocar uma questão dessa pra asistente administrativo só acho. continou na luta.