01.03.2015 Views

Livro CI 2008

Livro CI 2008

Livro CI 2008

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Termodinâmica e Complexidade em Sistemas Biológicos<br />

enviada, e, por fim, existe o destino que é quem deve receber a mensagem (seja uma<br />

pessoa ou coisa).<br />

Então, imagine um evento que você gostaria muito que acontecesse; como ganhar<br />

na loteria e passar o resto da vida deitado numa rede tomando seu drinque favorito. Para<br />

você saber se ganhou ou não, alguém precisa comunicá-lo, e, para isso, é necessária uma<br />

mensagem. Imagine que H é uma medida de informação e pi é a probabilidade de<br />

ocorrência de um evento dentre vários possíveis (quantidade de números acertada) e h é a<br />

informação recebida pela transmissão de uma mensagem informando um dos possíveis<br />

eventos ocorridos (por exemplo, você acertou todos os números), temos que h= - log pi.<br />

Então, a medida informação H, que é uma somatória da quantidade de informação de todos<br />

os h, ou na forma matemática, vale H=<br />

, sendo que H é chamado de entropia<br />

informacional.<br />

Re-analisando tudo isso a partir do exemplo acima, podemos ver que existiu um<br />

transmissor de informação (Caixa Econômica Federal, que é quem faz os sorteios), por um<br />

meio (transmitiu o sorteio pela TV ou rádio, ou publicou o resultado no jornal). Então o<br />

receptor (seus olhos ou ouvidos, ou os dois) recebeu a mensagem, e seu cérebro atento,<br />

que é o destino (ou destinatário) da mensagem, é quem vai processar a mensagem enviada<br />

e comparar com os números contidos no seu bilhete. Aí, a glória celestial vai preencher seu<br />

coração, ou a frustração do “droga, perdi de novo” vai amargurá-lo, mais uma vez.<br />

Sendo assim, se quiséssemos medir a quantidade de informação presente na<br />

transmissão deste evento:<br />

Tomaríamos a probabilidade de cada evento que no exemplo seria não<br />

acertar nenhum número (p0), acertar um (p1), dois (p2), três (p3), quatro (p4),<br />

cinco (p5) ou o bilhete irradiar uma imensa quantidade de felicidade<br />

mostrando que você acertou os seis números (p6, sem querer ser estraga<br />

prazeres, essa é irrisória).<br />

Então, multiplicaríamos, as probabilidades, pelos logaritmos das<br />

respectivas probabilidades (h0= p0 log (p0); h1=p1log(p1); e assim por<br />

diante).<br />

E somaríamos todos os h. Fácil, não?<br />

Teríamos, portanto, uma medida da informação contida na transmissão deste evento,<br />

segundo a teoria de Shannon. Isso, realmente, pode parecer um tanto esquisito, pois se ele<br />

partiu do pressuposto de que comunicação é um evento probabilístico, fica fácil ver o porquê<br />

de usar a probabilidade de cada evento, mas porque usar o logaritmo da probabilidade????<br />

Shannon explica:<br />

<br />

Alguns parâmetros em engenharia como tempo, comprimento de onda,<br />

variam linearmente com o logaritmo do numero de possibilidades. Por<br />

119

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!