14.11.2014 Views

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

Appunti di Teoria dell'Informazione e Codici - Università di Palermo

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

La Co<strong>di</strong>fica <strong>di</strong> Sorgente 27<br />

La precedente è molto importante perché ci permette <strong>di</strong> affermare che per le<br />

DMS, accettando eventualmente una complessità elevata <strong>di</strong> co<strong>di</strong>fica/deco<strong>di</strong>fica, si può<br />

costruire un co<strong>di</strong>ce che usa un numero me<strong>di</strong>o <strong>di</strong> bit per simbolo prossimo quanto si<br />

vuole all’entropia della sorgente.<br />

In conclusione mettendo insieme la (3.5.3) e la (3.7.4) abbiamo <strong>di</strong>mostrato il<br />

seguente<br />

Teorema 3.1<br />

Data una DMS stazionaria con entropia ( ) e comunque scelto , esiste un<br />

intero in corrispondenza al quale si può costruire un co<strong>di</strong>ce univocamente<br />

deco<strong>di</strong>ficabile che esibisce una lunghezza me<strong>di</strong>a per simbolo <strong>di</strong> sorgente che sod<strong>di</strong>sfa<br />

la seguente <strong>di</strong>suguaglianza:<br />

( ) ( ) (3.7.5)<br />

Inoltre, qualunque sia<br />

, non è possibile costruire co<strong>di</strong>ci per i quali risulti:<br />

( ) (3.7.6)<br />

***********<br />

Vale la pena <strong>di</strong> osservare che il co<strong>di</strong>ce che abbiamo costruito, se da un lato c’è<br />

stato utile per ottenere la (3.7.5), dal punto <strong>di</strong> vista pratico sarebbe <strong>di</strong>fficilmente<br />

applicabile perché presuppone la conoscenza della dmp della sorgente, dato questo <strong>di</strong><br />

cui in pratica <strong>di</strong>fficilmente si <strong>di</strong>spone. Esistono algoritmi <strong>di</strong> co<strong>di</strong>fica che tendono al<br />

limite inferiore imposto dalla (3.7.5) pur non presupponendo la conoscenza della dmp<br />

in parola, e che quin<strong>di</strong> si rivelano molto più utili in pratica.<br />

Esempio 3.3<br />

L’algoritmo <strong>di</strong> Huffman descritto nell’Esempio 3.2 richiede la conoscenza a priori delle<br />

probabilità dei simboli <strong>di</strong> sorgente. Descriviamo brevemente un possibile metodo per ottenere una<br />

versione adattativa dell’algoritmo che presuppone solo la conoscenza della car<strong>di</strong>nalità dell’alfabeto<br />

.<br />

L’idea è riassumibile in due punti:<br />

- utilizzare, invece delle probabilità <strong>di</strong> manifestazione, le frequenze relative <strong>di</strong> manifestazione<br />

dei simboli <strong>di</strong> sorgente, inizializzate con una <strong>di</strong>stribuzione a priori nota a co<strong>di</strong>ficatore e<br />

Fig.E 3.2 - Schema a blocchi <strong>di</strong> un generico codec (co<strong>di</strong>ficatore/deco<strong>di</strong>ficatore) adattativo.<br />

deco<strong>di</strong>ficatore

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!