Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Appunti di Teoria dell'Informazione e Codici - Università di Palermo
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Canali Discreti Privi <strong>di</strong> Memoria 35<br />
simboli appartenenti a un alfabeto binario costituiti cioè rispettivamente da due soli<br />
simboli, , ; la matrice <strong>di</strong> transizione a esso associata sarà quin<strong>di</strong> una<br />
che se risulta<br />
è simmetrica e caratterizza un BSC (Binary<br />
Simmetric Channel).<br />
| | (4.3.1)<br />
Se il canale è connesso a una sorgente che emette simboli con probabilità ,<br />
risulta:<br />
( ) ( )<br />
( )( )<br />
L’informazione mutua me<strong>di</strong>a <strong>di</strong> un BSC varrà quin<strong>di</strong>:<br />
(4.3.2)<br />
( ) ∑ ∑ ∑ ∑ ∑ ∑<br />
∑ ∑<br />
∑<br />
( ) ( ) ( )<br />
(4.3.3)<br />
( )( ) ( ) ∑<br />
( ) ( ) ∑ ( ) ( )<br />
Fig.E 4.2 - Capacità del canale simmetrico<br />
binario<br />
(ve<strong>di</strong> Fig.E 4.2).<br />
Dalla precedente si evince facilmente che la<br />
capacità <strong>di</strong> canale si ottiene massimizzando l’entropia<br />
dell’uscita ( ), che, come già visto, lo é<br />
quando i simboli d’uscita sono equiprobabili, cosa<br />
che, data la simmetria del canale, avviene quando<br />
lo sono quelli emessi dalla sorgente. Conclu<strong>di</strong>amo<br />
che la capacità <strong>di</strong> un BSC vale:<br />
( ) (4.3.4)<br />
È interessante osservare che implicherebbe che da conto del fatto<br />
che in questo caso il canale sarebbe ovviamente del tutto inutile ai fini del trasferimento<br />
d’informazione.<br />
Fig.E 4.3 - Canale Gaussiano<br />
4.4 - Capacità del Canale AWGN a Banda<br />
Limitata.<br />
Consideriamo adesso il canale con ingresso e<br />
uscita ad alfabeto continuo rappresentato in Fig.E 4.3