Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Appunti di Teoria dell'Informazione e Codici - Università di Palermo
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
La Co<strong>di</strong>fica <strong>di</strong> Sorgente 27<br />
La precedente è molto importante perché ci permette <strong>di</strong> affermare che per le<br />
DMS, accettando eventualmente una complessità elevata <strong>di</strong> co<strong>di</strong>fica/deco<strong>di</strong>fica, si può<br />
costruire un co<strong>di</strong>ce che usa un numero me<strong>di</strong>o <strong>di</strong> bit per simbolo prossimo quanto si<br />
vuole all’entropia della sorgente.<br />
In conclusione mettendo insieme la (3.5.3) e la (3.7.4) abbiamo <strong>di</strong>mostrato il<br />
seguente<br />
Teorema 3.1<br />
Data una DMS stazionaria con entropia ( ) e comunque scelto , esiste un<br />
intero in corrispondenza al quale si può costruire un co<strong>di</strong>ce univocamente<br />
deco<strong>di</strong>ficabile che esibisce una lunghezza me<strong>di</strong>a per simbolo <strong>di</strong> sorgente che sod<strong>di</strong>sfa<br />
la seguente <strong>di</strong>suguaglianza:<br />
( ) ( ) (3.7.5)<br />
Inoltre, qualunque sia<br />
, non è possibile costruire co<strong>di</strong>ci per i quali risulti:<br />
( ) (3.7.6)<br />
***********<br />
Vale la pena <strong>di</strong> osservare che il co<strong>di</strong>ce che abbiamo costruito, se da un lato c’è<br />
stato utile per ottenere la (3.7.5), dal punto <strong>di</strong> vista pratico sarebbe <strong>di</strong>fficilmente<br />
applicabile perché presuppone la conoscenza della dmp della sorgente, dato questo <strong>di</strong><br />
cui in pratica <strong>di</strong>fficilmente si <strong>di</strong>spone. Esistono algoritmi <strong>di</strong> co<strong>di</strong>fica che tendono al<br />
limite inferiore imposto dalla (3.7.5) pur non presupponendo la conoscenza della dmp<br />
in parola, e che quin<strong>di</strong> si rivelano molto più utili in pratica.<br />
Esempio 3.3<br />
L’algoritmo <strong>di</strong> Huffman descritto nell’Esempio 3.2 richiede la conoscenza a priori delle<br />
probabilità dei simboli <strong>di</strong> sorgente. Descriviamo brevemente un possibile metodo per ottenere una<br />
versione adattativa dell’algoritmo che presuppone solo la conoscenza della car<strong>di</strong>nalità dell’alfabeto<br />
.<br />
L’idea è riassumibile in due punti:<br />
- utilizzare, invece delle probabilità <strong>di</strong> manifestazione, le frequenze relative <strong>di</strong> manifestazione<br />
dei simboli <strong>di</strong> sorgente, inizializzate con una <strong>di</strong>stribuzione a priori nota a co<strong>di</strong>ficatore e<br />
Fig.E 3.2 - Schema a blocchi <strong>di</strong> un generico codec (co<strong>di</strong>ficatore/deco<strong>di</strong>ficatore) adattativo.<br />
deco<strong>di</strong>ficatore