SóProvas


ID
2985790
Banca
CCV-UFC
Órgão
UFC
Ano
2017
Provas
Disciplina
Biblioteconomia
Assuntos

A Teoria Matemática da Comunicação, também conhecida como Teoria da Informação, tem como seus precursores Claude Shannon e Warren Weaver. Ela traz em seu escopo o seguinte conceito:

Alternativas
Comentários
  • A entropia como medida de incerteza.

    Gab. A

  • GABARITO: A

    Claude Shannon e Warren Weaver, após a Segunda Guerra, em 1948, criaram a Teoria Matemática da Comunicação. No âmbito da teoria da informação, a entropia fornece uma medida de incerteza em uma dada distribuição de probabilidade, recebendo, assim, a denominação de entropia de Shannon ou entropia da informação. Ou seja, a TMC considera a informação como uma entidade “da ordem da probabilidade, sendo a entropia um de seus atributos” o que, segundo Araújo (2009, p. 194) torna ainda mais clara a característica que a particulariza, a quantificação da informação.

    Fonte: SÁ, Alzira Tude. Uma abordagem matemática da informação: a teoria de Shannon e Weaver: possíveis leituras. Logeion: Filosofia da informação, Rio de Janeiro, v. 5 n. 1, p. 48-70, set.2018/fev. 2019

  • De acordo com McGarry (1999, p.5-6):

    "Na teoria da informação, a entropia é considerada uma medida da desordem. O que é pior, a entropia é um princípio universal que permeia todos os sistemas, desde escrivaninhas desarrumadas até o próprio universo. De acordo com a segunda lei da termodinâmica, a entropia do universo cresce a cada transformação de energia: em suma, o universo está em colapso. (...) Informações são dados postos em ordem (....). Neste sentido, informação é às vezes considerada entropia negativa. (...) A informação é imposta mediante ordenação."