Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Capitolo - 6<br />
IL TEOREMA DI SHANNON SULLA CODIFICA DI CANALE<br />
6.1 - Premessa.<br />
Shannon, nel suo pionieristico lavoro del 1948, in<strong>di</strong>viduò una maggiorazione<br />
della probabilità d’errore che, anziché cercare <strong>di</strong> maggiorare la probabilità d’errore<br />
associata alla scelta <strong>di</strong> uno specifico insieme <strong>di</strong> segnali si propone <strong>di</strong> maggiorare la<br />
probabilità <strong>di</strong> errore me<strong>di</strong>a tra tutti i possibili set costituiti da un numero fissato <strong>di</strong><br />
segnali contenuti in un sottospazio <strong>di</strong> <strong>di</strong>mensione assegnata , nell’ipotesi in cui tutte<br />
le componenti <strong>di</strong> oguno <strong>di</strong> essi possano assumere valori appartenenti al medesimo<br />
alfabeto <strong>di</strong> car<strong>di</strong>nalità finita . Sotto queste ipotesi si possono effettuare un numero<br />
finito <strong>di</strong> scelte per la -upla <strong>di</strong> segnali da impiegare, esistono infatti solo ( )<br />
possibili -uple <strong>di</strong> segnali, alcune delle quali in realtà non “felici” in quanto utilizzano<br />
più volte uno stesso segnale.<br />
Shannon sfruttò il fatto che una qualsiasi funzione <strong>di</strong> variabile aleatoria può<br />
certamente assumere un valore non maggiore del suo valor me<strong>di</strong>o. Applicato al caso in<br />
esame ciò comporta l’esistenza <strong>di</strong> almeno una -upla <strong>di</strong> segnali che da luogo ad una<br />
probabilità d’errore non maggiore della me<strong>di</strong>a tra le probabilità <strong>di</strong> errore <strong>di</strong> tutte le -<br />
uple.<br />
È interessante osservare che quest’affermazione resta valida quale che sia la<br />
<strong>di</strong>stribuzione <strong>di</strong> massa <strong>di</strong> probabilità che si sceglie per calcolare la me<strong>di</strong>a citata, nel<br />
caso particolare potremmo ad esempio scegliere la me<strong>di</strong>a aritmetica, daremmo in<br />
questo caso uguale peso a ogni possibile -upla, ovvero potremmo attribuire pesi<br />
<strong>di</strong>versi ad esempio associando peso nullo a tutte le -uple in cui uno stesso segnale è<br />
utilizzato più <strong>di</strong> una volta, in questo caso evidentemente il valor me<strong>di</strong>o tra le probabilità<br />
<strong>di</strong> errore sarebbe verosimilmente una maggiorazione più stretta, altre scelte potrebbero<br />
rivelarsi infelici, ma costituirebbero comunque una maggiorazione per la probabilità<br />
d’errore <strong>di</strong> almeno una - upla.<br />
6.2 - La Disuguaglianza <strong>di</strong> Jensen<br />
Nel precedente paragrafo è stata utilizzata una <strong>di</strong>suguaglianza che risulta utile<br />
anche nella trattazione <strong>di</strong> altri argomenti legati alla <strong>Teoria</strong> dell’Informazione.<br />
Cominciamo con il definire un sottoinsieme convesso <strong>di</strong> uno spazio vettoriale: