14.11.2014 Views

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

12 Capitolo - 1 - <strong>Appunti</strong> <strong>di</strong> <strong>Teoria</strong> dell’Informazione e Co<strong>di</strong>ci<br />

( ) ∑ ( )<br />

( )<br />

∑ (1.3.3)<br />

L’entropia ( ) appena definita, è la me<strong>di</strong>a statistica dell’informazione<br />

associata all’emissione dell’ -esimo simbolo. Essa rappresenta pertanto l’informazione<br />

che me<strong>di</strong>amente si acquisisce per effetto dell’emissione <strong>di</strong> un simbolo da parte della<br />

sorgente all’istante . Osserviamo che la stazionarietà della sequenza comporta che<br />

( ) sia in<strong>di</strong>pendente da , tale in<strong>di</strong>ce può quin<strong>di</strong> essere omesso.<br />

Si noti che anche l’entropia <strong>di</strong>pende esclusivamente dalla <strong>di</strong>stribuzione <strong>di</strong> probabilità<br />

dei simboli emessi e non dalla loro natura.<br />

L’entropia <strong>di</strong> una sorgente, è limitata superiormente. In particolare se l’alfabeto<br />

ha car<strong>di</strong>nalità si ha:<br />

∑ (1.3.4)<br />

Per verificare la precedente <strong>di</strong>suguaglianza consideriamo due possibili dmp:<br />

∑<br />

∑<br />

(1.3.5)<br />

vale la seguente catena <strong>di</strong> <strong>di</strong>suguaglianze:<br />

∑ ∑ ∑ ∑<br />

∑ ( )<br />

(1.3.6)<br />

La maggiorazione effettuata è corretta in<br />

quanto nell’insieme <strong>di</strong> definizione <strong>di</strong> risulta<br />

(ve<strong>di</strong> Fig.E 1.1). La precedente permette<br />

<strong>di</strong> affermare che se sostituiamo la dmp ad argomento<br />

del logaritmo con una <strong>di</strong>versa da quella utilizzata per<br />

il calcolo della me<strong>di</strong>a otteniamo comunque una<br />

maggiorazione dell’entropia.<br />

In particolare se nella (1.3.6) si sceglie<br />

Fig.E 1.1 - y x , y (x).<br />

si ottiene:

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!