14.11.2014 Views

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Capitolo - 6<br />

IL TEOREMA DI SHANNON SULLA CODIFICA DI CANALE<br />

6.1 - Premessa.<br />

Shannon, nel suo pionieristico lavoro del 1948, in<strong>di</strong>viduò una maggiorazione<br />

della probabilità d’errore che, anziché cercare <strong>di</strong> maggiorare la probabilità d’errore<br />

associata alla scelta <strong>di</strong> uno specifico insieme <strong>di</strong> segnali si propone <strong>di</strong> maggiorare la<br />

probabilità <strong>di</strong> errore me<strong>di</strong>a tra tutti i possibili set costituiti da un numero fissato <strong>di</strong><br />

segnali contenuti in un sottospazio <strong>di</strong> <strong>di</strong>mensione assegnata , nell’ipotesi in cui tutte<br />

le componenti <strong>di</strong> oguno <strong>di</strong> essi possano assumere valori appartenenti al medesimo<br />

alfabeto <strong>di</strong> car<strong>di</strong>nalità finita . Sotto queste ipotesi si possono effettuare un numero<br />

finito <strong>di</strong> scelte per la -upla <strong>di</strong> segnali da impiegare, esistono infatti solo ( )<br />

possibili -uple <strong>di</strong> segnali, alcune delle quali in realtà non “felici” in quanto utilizzano<br />

più volte uno stesso segnale.<br />

Shannon sfruttò il fatto che una qualsiasi funzione <strong>di</strong> variabile aleatoria può<br />

certamente assumere un valore non maggiore del suo valor me<strong>di</strong>o. Applicato al caso in<br />

esame ciò comporta l’esistenza <strong>di</strong> almeno una -upla <strong>di</strong> segnali che da luogo ad una<br />

probabilità d’errore non maggiore della me<strong>di</strong>a tra le probabilità <strong>di</strong> errore <strong>di</strong> tutte le -<br />

uple.<br />

È interessante osservare che quest’affermazione resta valida quale che sia la<br />

<strong>di</strong>stribuzione <strong>di</strong> massa <strong>di</strong> probabilità che si sceglie per calcolare la me<strong>di</strong>a citata, nel<br />

caso particolare potremmo ad esempio scegliere la me<strong>di</strong>a aritmetica, daremmo in<br />

questo caso uguale peso a ogni possibile -upla, ovvero potremmo attribuire pesi<br />

<strong>di</strong>versi ad esempio associando peso nullo a tutte le -uple in cui uno stesso segnale è<br />

utilizzato più <strong>di</strong> una volta, in questo caso evidentemente il valor me<strong>di</strong>o tra le probabilità<br />

<strong>di</strong> errore sarebbe verosimilmente una maggiorazione più stretta, altre scelte potrebbero<br />

rivelarsi infelici, ma costituirebbero comunque una maggiorazione per la probabilità<br />

d’errore <strong>di</strong> almeno una - upla.<br />

6.2 - La Disuguaglianza <strong>di</strong> Jensen<br />

Nel precedente paragrafo è stata utilizzata una <strong>di</strong>suguaglianza che risulta utile<br />

anche nella trattazione <strong>di</strong> altri argomenti legati alla <strong>Teoria</strong> dell’Informazione.<br />

Cominciamo con il definire un sottoinsieme convesso <strong>di</strong> uno spazio vettoriale:

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!