01.03.2015 Views

Livro CI 2008

Livro CI 2008

Livro CI 2008

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

V Curso de Inverno<br />

Um pouquinho de história<br />

A história da Teoria da Informação remonta aos idos de 1928, quando Ralph Hartley,<br />

no artigo “Transmission of information”, apresenta uma formula para a quantificação de<br />

informação, o qual ressalta que o fator importante nesse processo é a habilidade do receptor<br />

em selecionar símbolos em um dado vocabulário. Então, tendo W símbolos disponíveis, a<br />

quantidade de informação H em uma dada seleção é H = logW. Hartley estava interessado<br />

em comparar a capacidade de transmissão de diversos sistemas elétricos de<br />

telecomunicação.<br />

Durante a segunda Guerra Mundial, Claude Shannon trabalhava com criptografia e<br />

sistemas de controle e automação no Bell Lab, nos Estados Unidos. Com o fim da guerra, e<br />

com muitas idéias advindas de seu trabalho com criptografia, Shannon desenvolveu a<br />

importante e controversa (ao menos na sua aplicabilidade em biologia) teoria da informação<br />

em 1948, com a publicação de um artigo, A Methematical Theory of Communication<br />

(Shannon,1948). Esse artigo foi publicado em forma de tese em 1949, com uma pequena<br />

alteração no titulo (a qual, sinceramente, faz toda a diferença), para The Mathematical<br />

Theory of Communication (Shannon & Weaver, 1949).<br />

Tá, chega de enrolação e fala logo da Teoria<br />

Shannon, logo no começo de seu artigo, inicia sua linha de raciocínio dizendo que o<br />

principal problema da comunicação é reproduzir num ponto exatamente ou da maneira mais<br />

próxima possível, uma mensagem que foi selecionada e enviada de outro ponto, e que a<br />

verdadeira mensagem é uma que é escolhida de um conjunto de mensagens possíveis.<br />

Então, o sistema tem que operar sobre qualquer seleção possível, e não com a que vai<br />

realmente ser escolhida uma vez que essa é desconhecida no momento anterior à<br />

mensagem ser enviada, ou seja, não é possível prever qual é a mensagem que será<br />

transmitida. Isso só será conhecido no momento da recepção (Shannon, 1948).<br />

A partir disso, vemos que, para Shannon, comunicação é um processo probabilístico,<br />

e que para problemas de engenharia (com os quais ele estava preocupado), o significado e<br />

veracidade das mensagens não importavam. Portanto, a teoria da informação está<br />

relacionada com a redução da incerteza do receptor, pois a mensagem tem uma<br />

probabilidade de fazer com que o receptor mude de estado, depois da transmissão da<br />

mensagem, narrando algum evento.<br />

Imagine, então, um sistema como o da figura 1, onde se tem uma fonte de<br />

informação que produz uma mensagem, ou seqüência de mensagens, as quais serão<br />

transmitidas pelo... Adivinha só? Se estiver olhando a figura e falou transmissor, acertou.<br />

Esse transmissor enviará um sinal para o receptor, por um canal, que nada mais é do que o<br />

meio pelo qual essa mensagem é enviada (sejam letras que se concatenam formando<br />

palavras, ou variação de voltagem, ou traços e pontos de código Morse, etc.). O receptor<br />

tem o papel de receber (porque isso me soa redundante?), e reconstruir a mensagem<br />

118

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!