14.11.2014 Views

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

24 Capitolo - 3 - <strong>Appunti</strong> <strong>di</strong> <strong>Teoria</strong> dell’Informazione e Co<strong>di</strong>ci<br />

3.6 - La Proprietà <strong>di</strong> Equipartizione.<br />

Occupiamoci adesso <strong>di</strong> un’importante proprietà delle sorgenti d’informazione.<br />

Consideriamo una DMS stazionaria con entropia ( ) , fissiamo un e,<br />

nell’insieme <strong>di</strong> tutti gli M-messaggi, pren<strong>di</strong>amo in considerazione il sottoinsieme<br />

S così definito<br />

( ( ) )<br />

Dalla precedente <strong>di</strong>scende innanzi tutto che:<br />

( )<br />

( ( ) ) (3.6.1)<br />

∑<br />

( ( ) )<br />

S<br />

∑ ( )<br />

(3.6.2)<br />

( ( ) )<br />

Dalla quale deduciamo che la car<strong>di</strong>nalità <strong>di</strong> S non può essere maggiore <strong>di</strong><br />

quin<strong>di</strong> tutti i messaggi appartenenti ad S possono essere co<strong>di</strong>ficati utilizzando parole<br />

<strong>di</strong> co<strong>di</strong>ce <strong>di</strong> lunghezza fissa con un numero <strong>di</strong> bit non superiore a:<br />

( ( ) ) (3.6.3)<br />

Tenendo conto del fatto che la sorgente è per ipotesi priva <strong>di</strong> memoria si può anche<br />

scrivere:<br />

S<br />

( ( ) ) ∑<br />

( )<br />

( ) ∑ ( ( ))<br />

( ( ) )<br />

(3.6.4)<br />

Dall’ultimo membro della precedente si può facilmente estrapolare la definizione<br />

dell’insieme<br />

, cioè del complementare <strong>di</strong> S rispetto all’insieme degli M-messaggi:<br />

¯ |∑ ( ( )) ( )| (3.6.5)<br />

Ci proponiamo <strong>di</strong> maggiorare la probabilità dell’evento: “la sorgente ha emesso un<br />

messaggio appartenete a ”. A tal fine ricor<strong>di</strong>amo che la <strong>di</strong>suguaglianza <strong>di</strong> Chebyshev<br />

garantisce che la probabilità che una V.A. con varianza <strong>di</strong>sti dal suo valore me<strong>di</strong>o<br />

per più <strong>di</strong> è non maggiore <strong>di</strong> .<br />

Osserviamo che ∑ ( ( )) può essere interpretata come una V.A. ottenuta<br />

sommando le variabili aleatorie statisticamente in<strong>di</strong>pendenti ( ( )) tutte<br />

identicamente <strong>di</strong>stribuite. Osserviamo che il valor me<strong>di</strong>o <strong>di</strong> ciascuna <strong>di</strong> esse vale<br />

( ) quin<strong>di</strong> il valor me<strong>di</strong>o <strong>di</strong> vale:

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!