Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Capitolo - 2<br />
SORGENTI CON ALFABETO CONTINUO<br />
2.1 - Entropia <strong>di</strong> una Sorgente con Alfabeto Continuo<br />
Consideriamo adesso una sorgente che emette con cadenza regolare simboli<br />
appartenenti ad un insieme non numerabile. Potremo quin<strong>di</strong> sempre pensare che la<br />
sorgente emetta una sequenza <strong>di</strong> variabili aleatorie <strong>di</strong> tipo continuo. La sorgente<br />
sarà quin<strong>di</strong> completamente caratterizzata da un processo aleatorio a tempo <strong>di</strong>screto<br />
continuo in ampiezza, che è completamente caratterizzato qualora sia nota la sua<br />
statistica a qualunque or<strong>di</strong>ne.<br />
Per definire l’entropia ( ) <strong>di</strong> una tale sorgente, cioè l’informazione che<br />
me<strong>di</strong>amente acquisiremmo in seguito all’emissione <strong>di</strong> un singolo simbolo, senza nulla<br />
sapere dei simboli emessi precedentemente da una tale sorgente, dovremo<br />
necessariamente fare riferimento alla densità <strong>di</strong> probabilità ( ) della variabile<br />
aleatoria che essa genera in un dato istante. Se supponiamo che la sorgente sia<br />
stazionaria tale densità <strong>di</strong> probabilità sarà in<strong>di</strong>pendente dall’istante <strong>di</strong> osservazione.<br />
Basandoci su quanto detto per le sorgenti con alfabeto <strong>di</strong>screto, sorge spontaneo<br />
definire tale entropia come segue:<br />
( ) ∫ ( )<br />
(2.1.1)<br />
( )<br />
assumendo che . Tale definizione non gode <strong>di</strong> tutte le proprietà <strong>di</strong> cui godeva<br />
l’entropia <strong>di</strong> una sorgente con alfabeto finito, essa ad esempio può assumere anche<br />
valori negativi e può non essere limitata.<br />
Anche per le sorgenti ad alfabeto continuo possiamo definire l’entropia associata<br />
a più simboli emessi. Nel caso <strong>di</strong> due soli simboli si ha:<br />
( ) ∫ ∫ ( )<br />
( )<br />
∫ ∫ ( )<br />
( )<br />
∫ ∫ ( )<br />
( )<br />
( ) ( )<br />
( ) ( )<br />
se X e Y sono statisticamente in<strong>di</strong>pendenti dalla precedente si ottiene:<br />
(2.1.2)<br />
Si può provare che in generale risulta:<br />
( ) ( ) ( ) (2.1.3)<br />
( ) ( ) ( ) (2.1.4)