-
Se a Entropia estabelece um limite para a remoção de redundância dos dados, entendo que quanto maior for a Entropia, maior será o potencial de compressão. Logo, a questão está (pelo menos pra mim) errada!
Caso alguém tenha outro entendimento, eu gostaria de saber...
A questão Q348898 trata do mesmo assunto.
-
Bruno,
Eu viajo um pouco nesse assunto, mas acho q a banca tá trabalhando o fato da entropia estar relacionada com as probabilidades de ocorrência dentro de um mesmo sinal.
Por exemplo, se eu tenho SINAL formado por um conjunto de 50 simbolos diferentes a serem codificados, e todos eles têm a mesma probabilidade de ocorrência (P=1/50), então eu terei a Entropia da fonte sendo máxima. Nesse caso eu terei que usar um método pouco eficiente de compressão sem perdas, tipo uma tabela ASCII da vida.
Mas se eu tiver esse mesmo SINAL com uma entropia muito pequena, quer dizer que as probabilidades de ocorrência de cada símbolo serão muito distintas umas das outras, e aí eu tenho mais liberdade pra escolher qual método de compressão usar.
Mas como falei, eu dou umas viajadas sinistras nessa matéria, posso estar falando merda hauha
-
Olá Lazaro,
Faz sentido sim o que você disse.
Eu agradeço seu comentário.
Bons estudos.
-
A questão de entropia de fonte, quer dizer, que quanto maior aquando se deseja voltar ao entropia(compressão desses dados) estado normal, maior será a probabilidade de erros, perdas de informação.
-
Pelo Teorema de Codificação da Fonte (1º Teorema de Shannon) pode ser utilizada uma taxa de codificação tão pequena quanto se deseje, desde que essa taxa seja maior ou igual à entropia em bits.Quanto maior a entropia, maior o número de bits necessários e maior a irreversibilidade do sistema. Sendo assim, quanto maior a entropia menor o potencial de compressão sem perdas, pois mais irreversivel será o sinal.
-
quanto maior a entropia,
maior a quantidade necessária em bits para representá-la
-
GABARITO CERTO
Para a , a entropia é definida como sendo uma forma de medir o grau médio de incerteza a respeito de fontes de informação, o que consequentemente permite a quantificação da informação presente que flui no sistema.
Essas questões, contextualizam o tema:
(Q348899) A entropia da fonte de informação é função das probabilidades dos eventos dessa fonte e atinge o máximo na situação em que a fonte apresenta eventos equiprováveis. Certa
(Q876283) Uma entrada de vídeo de uma câmera em um computador pode ser uma fonte de entropia. Certa
-
Na TGS, entropia é o desequilíbrio do sistema, é a degradação do sistema.
Fazendo uma ligação com o assunto, quanto maior a entropia, mais perdas. Quanto mais perdas, mais bits serão necessários de redundância para representá-lo. Consequentemente, maior a necessidade da largura de banca. É tudo de ruim a entropia.
Questão: Quanto maior for a entropia de um sinal, menor será o potencial de compressão sem perdas desse sinal.
Sim, pois quanto menos entropia, menos perdas.