22.06.2013 Views

Dicionario de filosofia.pdf - Charlezine

Dicionario de filosofia.pdf - Charlezine

Dicionario de filosofia.pdf - Charlezine

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

CIBERNÉTICA 134 CIBERNÉTICA<br />

ca) já é a expressão, a tradução ou, como também<br />

se diz, a codificação daquilo que quem<br />

emite (emissor) preten<strong>de</strong> transmitir. Por outro<br />

lado, a mensagem recebida <strong>de</strong>ve ser entendida,<br />

ou seja, retraduzida ou <strong>de</strong>scodifícada, para<br />

ser registrada pelo receptor e guiar sua conduta.<br />

Assim, a mensagem telegráfica transmitida<br />

por meio da comunicação <strong>de</strong> pontos e linhas<br />

<strong>de</strong>ve ser <strong>de</strong>scoficiada ou retraduzida em palavras,<br />

a frase em italiano <strong>de</strong>ve ser entendida<br />

segundo as regras e o vocabulário da língua<br />

italiana, ou a mensagem não dará nenhuma informação<br />

a quem não sabe italiano. Em todas<br />

essas passagens, são possíveis equívocos, erros<br />

<strong>de</strong> emissão, <strong>de</strong> transmissão, <strong>de</strong> codificação<br />

e <strong>de</strong> <strong>de</strong>scodificação, bem como perturbações<br />

várias, <strong>de</strong>vidas à interferência <strong>de</strong> ruídos ou <strong>de</strong><br />

outros fatores mecânicos.<br />

2 S Foi esta última observação que <strong>de</strong>u ensejo<br />

à teoria matemática da informação com um<br />

teorema proposto por CE. Shannon, em 1948<br />

(cf. SHANNON F. WEAVHR, The Mathematical<br />

Theory of Communications, 1949). Shannon<br />

observou que uma mensagem enviada através<br />

<strong>de</strong> um canal qualquer sofre <strong>de</strong>formações<br />

diversas durante a transmissão, razão pela qual,<br />

ao chegar, uma parte das informações que continha<br />

já está perdida. Estabeleceu, assim, a analogia<br />

entre essa perda e a entropia (v.), função<br />

matemática que, com base no segundo princípio<br />

da termodinâmica, exprime a <strong>de</strong>gradação<br />

<strong>de</strong> energia que se verifica em qualquer transformação<br />

do trabalho mecânico em calor, ao<br />

passo que a transformação inversa (do calor<br />

em trabalho mecânico) nunca é completa. Com<br />

base nessa analogia, a quantida<strong>de</strong> <strong>de</strong> informações<br />

transmitida po<strong>de</strong> ser calculada como<br />

entropia negativa, já que, na transmissão das<br />

mensagens, assim como na transformação da<br />

energia, a entropia negativa <strong>de</strong>cresce continuamente<br />

porque a positiva (perda <strong>de</strong> informações<br />

ou <strong>de</strong>gradação <strong>de</strong> energia) cresce continuamente.<br />

Com base nessa analogia, o cálculo das<br />

probabilida<strong>de</strong>s utilizado pela termodinâmica<br />

po<strong>de</strong> ser empregado como instrumento muito<br />

oportuno para <strong>de</strong>terminar as fórmulas com<br />

que a medida da quantida<strong>de</strong> <strong>de</strong> informações<br />

po<strong>de</strong> ser expressa em cada caso, cujas variações<br />

<strong>de</strong>pen<strong>de</strong>m do número e da freqüência<br />

dos símbolos utilizados, <strong>de</strong> sua possibilida<strong>de</strong><br />

<strong>de</strong> combinação, da interferência dos fatores <strong>de</strong><br />

perturbação na transmissão dos símbolos e<br />

assim por diante. Neste último caso, tomam-se<br />

em consi<strong>de</strong>ração os símbolos chamados re-<br />

dundantes, cuja finalida<strong>de</strong> é prever e corrigir<br />

os erros da transmissão antes que ocorram, <strong>de</strong><br />

tal modo que o funcionamento da transmissão<br />

seja corrigido antecipadamente pela previsão<br />

das perturbações, com o processo da retroalimentação.<br />

De modo geral, po<strong>de</strong>-se dizer que,<br />

quanto mais improvável é a mensagem, maior<br />

é a informação que ela transmite. Por isso,<br />

tem-se a quantida<strong>de</strong> mínima <strong>de</strong> informação<br />

quando esta permite apenas uma escolha entre<br />

duas possibilida<strong>de</strong>s igualmente prováveis. Essa<br />

quantida<strong>de</strong> mínima foi assumida como unida<strong>de</strong><br />

<strong>de</strong> medida da informação e chamada <strong>de</strong> bit<br />

(abreviação da expressão inglesa binary digit =<br />

cifra binaria).<br />

3 e O conceito e o cálculo da informação<br />

situam-se no domínio da probabilida<strong>de</strong> (v.).<br />

Isso quer dizer que a informação só é possível<br />

num mundo que não é necessariamente or<strong>de</strong>nado<br />

nem necessariamente <strong>de</strong>sor<strong>de</strong>nado. Num<br />

mundo necessariamente or<strong>de</strong>nado, tudo seria<br />

infalivelmente previsível e a informação seria<br />

inútil. Num mundo necessariamente <strong>de</strong>sor<strong>de</strong>nado,<br />

ou seja, puro fruto do acaso, nenhuma<br />

or<strong>de</strong>m seria possível e, portanto, nenhuma informação<br />

seria transmissível. A informação<br />

transmite <strong>de</strong>terminada or<strong>de</strong>m <strong>de</strong> símbolos e a<br />

medida da informação é a medida <strong>de</strong> uma or<strong>de</strong>m.<br />

Por exemplo, uma mensagem telegráfica<br />

consiste em certa combinação <strong>de</strong> pontos e linhas<br />

que, para comunicar uma informação, tem<br />

uma or<strong>de</strong>m <strong>de</strong>terminada, escolhida entre as<br />

inúmeras or<strong>de</strong>ns possibilitadas pelo alfabeto<br />

Morse. A medida <strong>de</strong> informação é dada, como<br />

se viu, pela entropia negativa, ou seja, por uma<br />

função que exprime a diminuição da entropia,<br />

que é a <strong>de</strong>sor<strong>de</strong>m (ou seja, a distribuição casual)<br />

dos elementos <strong>de</strong> um sistema qualquer. Portanto,<br />

as condições da C, ou seja, do uso teórico<br />

e prático da teoria da informação, po<strong>de</strong>m<br />

ser recapituladas do seguinte modo:<br />

a) A negação <strong>de</strong> qualquer tipo ou forma <strong>de</strong><br />

necessida<strong>de</strong> em todas as situações em que a<br />

informação tem lugar.<br />

b) A negação <strong>de</strong> qualquer conhecimento<br />

absoluto, ou seja, total, <strong>de</strong>finitivo e exaustivo; o<br />

reconhecimento <strong>de</strong> que o conhecimento é um<br />

fato excepcional e improvável.<br />

c) O reconhecimento do acaso, ou seja, da<br />

distribuição <strong>de</strong>sor<strong>de</strong>nada (equiprovável) dos<br />

elementos (entropia) em todas as circunstâncias<br />

ou situações em que o homem ou qualquer<br />

organismo vivo ou máquina possa encontrar-se.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!