fábio palácio de azevedo fundamentos epistemológicos da teoria da ...
fábio palácio de azevedo fundamentos epistemológicos da teoria da ...
fábio palácio de azevedo fundamentos epistemológicos da teoria da ...
- No tags were found...
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
cascata po<strong>de</strong> transmitir informação é igual à menor capaci<strong>da</strong><strong>de</strong> <strong>de</strong>transmissão <strong>de</strong>ntre os diversos canais. Quando a taxa média máxima <strong>de</strong>todos os canais é igual não há per<strong>da</strong> <strong>de</strong> informação. Se a capaci<strong>da</strong><strong>de</strong> <strong>de</strong>um canal é maior que a <strong>de</strong> outro, este último terá que intercalar umtempo <strong>de</strong> espera entre suas transmissões. Durante esse tempo <strong>de</strong> esperaele po<strong>de</strong> ser usado para outros propósitos, como armazenamento <strong>de</strong>significados para os sinais provenientes <strong>da</strong> fonte primária.8. Entropia InformacionalConceito oriundo <strong>da</strong> Termodinâmica, a entropia (H) correspon<strong>de</strong>, naTeoria <strong>da</strong> Informação, à medi<strong>da</strong> <strong>da</strong> informação média disponível emseqüências ou repertórios (uma mensagem ou uma fonte, por exemplo).A magnitu<strong>de</strong> <strong>da</strong> entropia é uma medi<strong>da</strong> <strong>da</strong> incerteza <strong>de</strong>scrita porum conjunto <strong>de</strong> possibili<strong>da</strong><strong>de</strong>s. Ela é expressa matematicamente <strong>da</strong> formaabaixo:H = - K ∑ Pi Log Pi, on<strong>de</strong>Pi é a probabili<strong>da</strong><strong>de</strong> <strong>de</strong> um sistema apresentando a complexão i no i-ésimoestado <strong>de</strong> seu espaço <strong>de</strong> fase. Se os diversos i não são in<strong>de</strong>pen<strong>de</strong>ntes entresi, usa-se probabili<strong>da</strong><strong>de</strong>s condicionais Pi(j). K é constante. Fazendo-a igualà uni<strong>da</strong><strong>de</strong> e tomando logaritmos <strong>de</strong> base 2, alcançamos medi<strong>da</strong>correspon<strong>de</strong>nte à redução progressiva <strong>da</strong>s probabili<strong>da</strong><strong>de</strong>s à meta<strong>de</strong>.Com relação ao sinal negativo, diz WEAVER: “Qualquerprobabili<strong>da</strong><strong>de</strong> é um número menor que ou igual a 1, e os logaritmos dosnúmeros menores que 1 são ... negativos. Portanto o sinal <strong>de</strong> menos énecessário <strong>de</strong> modo que H seja <strong>de</strong> fato positivo” (1975: p. 15).O que mensuramos ao medir a entropia informacional? Essaquestão origina um vasto leque <strong>de</strong> visões diversas, o que acusa o fato <strong>de</strong>estarmos diante <strong>de</strong> um problema com certo nível <strong>de</strong> implicaçõesepistemológicas. Com efeito, ao nos perguntarmos sobre a natureza física<strong>de</strong> qualquer conceito matemático, é comum surgirem visões diferencia<strong>da</strong>s.__38__