12.07.2015 Views

fábio palácio de azevedo fundamentos epistemológicos da teoria da ...

fábio palácio de azevedo fundamentos epistemológicos da teoria da ...

fábio palácio de azevedo fundamentos epistemológicos da teoria da ...

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

As probabili<strong>da</strong><strong>de</strong>s Pi e Pj são calcula<strong>da</strong>s por valores <strong>de</strong> longaduração (médias). Com isso, po<strong>de</strong>mos obter a quanti<strong>da</strong><strong>de</strong> <strong>de</strong> informaçãoem uma mensagem recebi<strong>da</strong> em presença <strong>de</strong> ruído.Citemos como exemplo a <strong>de</strong>terminação <strong>da</strong> probabili<strong>da</strong><strong>de</strong> <strong>de</strong>transmissão <strong>de</strong> uma mensagem i recebi<strong>da</strong> como j (i que implica j):P(i;j) = 1/Pj.PiPij, on<strong>de</strong>P(i;j) é a probabili<strong>da</strong><strong>de</strong> <strong>de</strong> que i implique em j. Pj é a probabili<strong>da</strong><strong>de</strong> <strong>da</strong>recepção <strong>de</strong> j, in<strong>de</strong>pen<strong>de</strong>nte do que foi transmitido. Pi é a probabili<strong>da</strong><strong>de</strong> <strong>da</strong>transmissão <strong>de</strong> i, enquanto PiPij é igual à probabili<strong>da</strong><strong>de</strong> <strong>de</strong> que amensagem transmiti<strong>da</strong> seja i e a recebi<strong>da</strong>, j.Já a informação média (entropia) por mensagem recebi<strong>da</strong> napresença <strong>de</strong> ruído é igual a:H(j) – Hi(j), on<strong>de</strong>H(j) é a entropia por mensagem <strong>da</strong> seqüência <strong>de</strong> mensagens recebi<strong>da</strong>squando o que foi transmitido é <strong>de</strong>sconhecido. Hi(j) é a entropia condicionalpor mensagem <strong>da</strong> seqüência <strong>de</strong> mensagens recebi<strong>da</strong>s quando a entra<strong>da</strong> éconheci<strong>da</strong> (na ausência <strong>de</strong> ruído, Hi(j) = 0).H(j) é sempre maior que Hi(j). Se um símbolo é transmitido e outro érecebido, a expressão acima, para informação média, torna-se negativa.É evi<strong>de</strong>nte que o receptor não po<strong>de</strong> saber quanta informação érecebi<strong>da</strong> em ca<strong>da</strong> mensagem se ele não sabe o que foi transmitido. Elepo<strong>de</strong>, porém, conhecer a informação média por mensagem usando H(j) –Hi(j), <strong>de</strong>s<strong>de</strong> conheça a história do sistema, através <strong>de</strong> suas probabili<strong>da</strong><strong>de</strong>scaracterísticas, <strong>de</strong>termina<strong>da</strong>s pela observação <strong>de</strong> seu comportamentoprévio em um longo período <strong>de</strong> tempo.A fim <strong>de</strong> um melhor entendimento <strong>da</strong> transmissão na presença <strong>de</strong>ruído, alguns casos especiais po<strong>de</strong>m ser analisados. No último exemplo <strong>de</strong>cálculo <strong>da</strong> informação na presença <strong>de</strong> ruído <strong>de</strong>monstrado por SHANNON(1975: P.S 84-85), é utilizado um tipo especial <strong>de</strong> canal chamado__48__

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!