14.11.2014 Views

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Capitolo - 2<br />

SORGENTI CON ALFABETO CONTINUO<br />

2.1 - Entropia <strong>di</strong> una Sorgente con Alfabeto Continuo<br />

Consideriamo adesso una sorgente che emette con cadenza regolare simboli<br />

appartenenti ad un insieme non numerabile. Potremo quin<strong>di</strong> sempre pensare che la<br />

sorgente emetta una sequenza <strong>di</strong> variabili aleatorie <strong>di</strong> tipo continuo. La sorgente<br />

sarà quin<strong>di</strong> completamente caratterizzata da un processo aleatorio a tempo <strong>di</strong>screto<br />

continuo in ampiezza, che è completamente caratterizzato qualora sia nota la sua<br />

statistica a qualunque or<strong>di</strong>ne.<br />

Per definire l’entropia ( ) <strong>di</strong> una tale sorgente, cioè l’informazione che<br />

me<strong>di</strong>amente acquisiremmo in seguito all’emissione <strong>di</strong> un singolo simbolo, senza nulla<br />

sapere dei simboli emessi precedentemente da una tale sorgente, dovremo<br />

necessariamente fare riferimento alla densità <strong>di</strong> probabilità ( ) della variabile<br />

aleatoria che essa genera in un dato istante. Se supponiamo che la sorgente sia<br />

stazionaria tale densità <strong>di</strong> probabilità sarà in<strong>di</strong>pendente dall’istante <strong>di</strong> osservazione.<br />

Basandoci su quanto detto per le sorgenti con alfabeto <strong>di</strong>screto, sorge spontaneo<br />

definire tale entropia come segue:<br />

( ) ∫ ( )<br />

(2.1.1)<br />

( )<br />

assumendo che . Tale definizione non gode <strong>di</strong> tutte le proprietà <strong>di</strong> cui godeva<br />

l’entropia <strong>di</strong> una sorgente con alfabeto finito, essa ad esempio può assumere anche<br />

valori negativi e può non essere limitata.<br />

Anche per le sorgenti ad alfabeto continuo possiamo definire l’entropia associata<br />

a più simboli emessi. Nel caso <strong>di</strong> due soli simboli si ha:<br />

( ) ∫ ∫ ( )<br />

( )<br />

∫ ∫ ( )<br />

( )<br />

∫ ∫ ( )<br />

( )<br />

( ) ( )<br />

( ) ( )<br />

se X e Y sono statisticamente in<strong>di</strong>pendenti dalla precedente si ottiene:<br />

(2.1.2)<br />

Si può provare che in generale risulta:<br />

( ) ( ) ( ) (2.1.3)<br />

( ) ( ) ( ) (2.1.4)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!