11.07.2015 Views

WE.ARE.ABLE, social wearable augmented reality - Accademia di ...

WE.ARE.ABLE, social wearable augmented reality - Accademia di ...

WE.ARE.ABLE, social wearable augmented reality - Accademia di ...

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Queste riflessioni lo portarono a definire il concetto <strong>di</strong> entropia 1 , o meglio aridefinirlo secondo un nuovo punto <strong>di</strong> vista 2 , strettamente legato allacomunicazione. Shannon osservò che l’incertezza in ogni sistema è dovuta allamancanza dell'informazione, quin<strong>di</strong> se pren<strong>di</strong>amo in considerazione lacomunicazione tra due persone, oppure la decifrazione <strong>di</strong> un messaggioalfanumerico, osserviamo che man mano che <strong>di</strong>minuisce la casualità delleinformazioni, si riduce anche l’incertezza. Il messaggio, o parte <strong>di</strong> esso, <strong>di</strong>ventaquin<strong>di</strong> più chiaro e comprensibile ai nostri sensi. E' proprio grazie alla possibilità<strong>di</strong> eliminare o escludere completamente il rumore dal messaggio, che riusciamo aricavare informazioni. In conclusione, sintetizzando quanto espresso da Shannonnel documento del 1948 “A Mathematical Theory of Communication”, è possibileaffermare che l’informazione è riduzione dell’incertezza.Shannon oltre a queste osservazioni identifica quelli che sono gli elementi <strong>di</strong>base <strong>di</strong> un sistema <strong>di</strong> comunicazione, qualunque esso sia e qualunque sia latecnologia su cui regge. Questi elementi, generalmente identificabili e descrivibilicon facilità, sono:1. una fonte <strong>di</strong> informazione, che può essere rappresentata come una persona ouna macchina (oggetto), in ogni caso si tratta <strong>di</strong> un <strong>di</strong>spositivo <strong>di</strong> <strong>di</strong>ffusionedell’informazione (messaggio), in grado <strong>di</strong> trasformarla in un formato adatto adessere veicolato. É la cosiddetta fase <strong>di</strong> co<strong>di</strong>fica del messaggio, che avvieneme<strong>di</strong>ante precise caratteristiche dettate appunto da chi lo trasmette (fonte);1E' un concetto attinto dalla fisica, risalente alla seconda legge della termo<strong>di</strong>namica, elaboratanel XIX secolo. Secondo questa legge, l’entropia è il grado <strong>di</strong> casualità che esiste in ogni sistema,e tende ad aumentare per effetto dell’incontro tra molecole, rendendo incerta l’evoluzione delsistema stesso.2La probabilità relativa che si verifichi un evento tra tutti quelli possibili (per esempio, che siindovini una lettera dell’alfabeto), <strong>di</strong>pende dal numero totale <strong>di</strong> casi nella popolazione degli eventi(le lettere dell’alfabeto) e dalla frequenza dell’evento specificato (numero <strong>di</strong> domande con rispostasi - no necessarie per trovare la risposta corretta). Quin<strong>di</strong> per una lettera dell’alfabeto, occorreridurre il valore <strong>di</strong> incertezza, che in questo caso è pari a 20 (il numero delle lettere dell’alfabeto).Per farlo è sufficiente porre semplici domande a cui si possa rispondere affermativamente onegativamente (si, no), per esempio si potrebbe chiedere se la lettera viene dopo la “L” (lettera cheipoteticamente <strong>di</strong>vide a metà l’alfabeto), e così via fino ad escludere ad ogni domanda i valoripossibili riducendo l’incertezza. Nel caso preso in esame l’incertezza potrebbe essere ridotta ad unvalore <strong>di</strong> cinque.Secondo Shannon l’ entropia <strong>di</strong> un sistema è rappresentata quin<strong>di</strong> dal logaritmo del numero <strong>di</strong>possibili combinazioni <strong>di</strong> stati in quel dato sistema. Il logaritmo rappresenta il numero delledomande per ridurre l’incertezza.73

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!