12.07.2015 Views

fábio palácio de azevedo fundamentos epistemológicos da teoria da ...

fábio palácio de azevedo fundamentos epistemológicos da teoria da ...

fábio palácio de azevedo fundamentos epistemológicos da teoria da ...

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

cascata po<strong>de</strong> transmitir informação é igual à menor capaci<strong>da</strong><strong>de</strong> <strong>de</strong>transmissão <strong>de</strong>ntre os diversos canais. Quando a taxa média máxima <strong>de</strong>todos os canais é igual não há per<strong>da</strong> <strong>de</strong> informação. Se a capaci<strong>da</strong><strong>de</strong> <strong>de</strong>um canal é maior que a <strong>de</strong> outro, este último terá que intercalar umtempo <strong>de</strong> espera entre suas transmissões. Durante esse tempo <strong>de</strong> esperaele po<strong>de</strong> ser usado para outros propósitos, como armazenamento <strong>de</strong>significados para os sinais provenientes <strong>da</strong> fonte primária.8. Entropia InformacionalConceito oriundo <strong>da</strong> Termodinâmica, a entropia (H) correspon<strong>de</strong>, naTeoria <strong>da</strong> Informação, à medi<strong>da</strong> <strong>da</strong> informação média disponível emseqüências ou repertórios (uma mensagem ou uma fonte, por exemplo).A magnitu<strong>de</strong> <strong>da</strong> entropia é uma medi<strong>da</strong> <strong>da</strong> incerteza <strong>de</strong>scrita porum conjunto <strong>de</strong> possibili<strong>da</strong><strong>de</strong>s. Ela é expressa matematicamente <strong>da</strong> formaabaixo:H = - K ∑ Pi Log Pi, on<strong>de</strong>Pi é a probabili<strong>da</strong><strong>de</strong> <strong>de</strong> um sistema apresentando a complexão i no i-ésimoestado <strong>de</strong> seu espaço <strong>de</strong> fase. Se os diversos i não são in<strong>de</strong>pen<strong>de</strong>ntes entresi, usa-se probabili<strong>da</strong><strong>de</strong>s condicionais Pi(j). K é constante. Fazendo-a igualà uni<strong>da</strong><strong>de</strong> e tomando logaritmos <strong>de</strong> base 2, alcançamos medi<strong>da</strong>correspon<strong>de</strong>nte à redução progressiva <strong>da</strong>s probabili<strong>da</strong><strong>de</strong>s à meta<strong>de</strong>.Com relação ao sinal negativo, diz WEAVER: “Qualquerprobabili<strong>da</strong><strong>de</strong> é um número menor que ou igual a 1, e os logaritmos dosnúmeros menores que 1 são ... negativos. Portanto o sinal <strong>de</strong> menos énecessário <strong>de</strong> modo que H seja <strong>de</strong> fato positivo” (1975: p. 15).O que mensuramos ao medir a entropia informacional? Essaquestão origina um vasto leque <strong>de</strong> visões diversas, o que acusa o fato <strong>de</strong>estarmos diante <strong>de</strong> um problema com certo nível <strong>de</strong> implicaçõesepistemológicas. Com efeito, ao nos perguntarmos sobre a natureza física<strong>de</strong> qualquer conceito matemático, é comum surgirem visões diferencia<strong>da</strong>s.__38__

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!