07.12.2012 Aufrufe

Erdfernerkundung - Numerische Physik: Modellierung

Erdfernerkundung - Numerische Physik: Modellierung

Erdfernerkundung - Numerische Physik: Modellierung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

6.3. CODIERUNG I: QUELLENCODIERUNG 305<br />

§ 1005 Die Codierung beginnt mit den Zeichen geringster Häufigkeit (vgl. den Codierungsbaum<br />

in Abb. 6.16, der sich auf das Beispiel in Tabelle 6.4 bezieht). Wähle zunächst die beiden<br />

seltensten Zeichen aus (im Beispiel e und f). Die zugehörigen Codewörter werden dann in<br />

der letzten Stelle durch die Bits 0 und 1 unterschieden. Die beiden seltensten Zeichen werden<br />

damit zu den Endpunkten einer Verzweigung im Codierbaum. Diese Verzweigung entspringt<br />

in einem Zweig, der von nun an als Endzweig gilt. Diesem Zweig ordnen wir die Wahrscheinlichkeit<br />

zu, die sich aus der Summe der Wahrscheinlichkeiten der beiden abgehenden Zweige<br />

ergibt. Die zwei seltensten Buchstaben (e und f) werden dabei also zu einem neuen Zeichen<br />

(ef) zusammengefasst, dass eine Wahrscheinlichkeit von 0.05 + 0.05 = 0.1 hat. Die obige<br />

Betrachtung wird für einen Codierbaum wiederholt, der nur noch n − 1 Endzweige hat. Dabei<br />

fasst man wieder die beiden seltensten Endzweige zusammen (das sind in dem Beispiel<br />

d und der bereits zusammengefasste ef-Zweig). Auf diese Weise arbeitet man sich von den<br />

Endzweigen bis zur Wurzel des Codierbaumes vor.<br />

Codierung nach Fano<br />

§ 1006 Die Codierung nach Fano ist von der Idee her eine Umkehrung der Codierung nach<br />

Huffman: hier geht man von der Baumwurzel aus und hangelt sich zu den Zweigen vor. Die<br />

erste Verzweigung entspricht dabei einer Aufteilung des Zeichenvorrates in zwei Mengen mit<br />

möglichst gleich großen Wahrscheinlichkeiten. Die eine Menge enthält dabei die wahrscheinlicheren<br />

Zeichen, die andere die unwahrscheinlicheren. Auf diese Weise ist das am weitesten<br />

links stehende Bit der Codierung festgelegt. Die beiden Äste der Verzweigung werden nun<br />

als Wurzeln für Codierbäume der beiden Untermengen aufgefasst.<br />

§ 1007 Betrachtet man für die Codierung nach Fano noch einmal das Beispiel in Tabelle 6.4,<br />

so ergeben sich zwei Möglichkeiten der Codierung: Die erste Aufspaltung in je eine Unterliste<br />

mit wahrscheinlicheren und unwahrscheinlicheren Zeichen kann wahlweise zwischen dem b<br />

und dem c erfolgen oder zwischen dem a und dem b (in beiden Fällen ist die Wahrscheinlichkeit<br />

in der einen Untermenge 0.6 und in der anderen 0.4). Im ersten Falle ergibt sich der<br />

in Tabelle 6.4 gegebene Fano-Code, im zweiten Falle hätte sich der ebenfalls in Tabelle 6.4<br />

gegebene Huffman-Code ergeben.<br />

6.3.3 Fundamentalsatz der Quellencodierung<br />

§ 1008 Die Fano-Codierung beseitigt die Redundanz einer Zeichenquelle nur dann völlig,<br />

wenn sich die Zeichen der Quelle zur eindeutigen Identifizierung immer in zwei gleichwahrscheinliche<br />

Hälften teilen lassen (das war im Beispiel in Tabelle 6.3 der Fall, nicht jedoch<br />

in dem Beispiel in Tabelle 6.4). Lässt sich die Redundanz auch in den Fällen beseitigen, in<br />

denen diese Voraussetzung nicht gegeben ist?<br />

§ 1009 Auch in diesem Falle lässt sich die Redundanz durch geeignete Codierung beliebig<br />

reduzieren [78, 222], die entscheidende Idee dabei ist, nicht die einzelnen Zeichen zu codieren,<br />

sondern Zeichen xi zu Zeichenketten X der Länge N zusammenzufassen. Diese Zeichenketten<br />

werden dann codiert. Die Quelle habe dazu n voneinander unabhängige Zeichen, die mit den<br />

Wahrscheinlichkeiten pi erzeugt werden. Die Wahrscheinlichkeit p einer aus dieser Quelle<br />

erzeugten zusammengesetzten Zeichenkette ist dann näherungsweise gegeben durch<br />

p =<br />

n�<br />

i=1<br />

p Npi<br />

i . (6.10)<br />

Für den in der Zeichenkette enthaltenen Informationsgehalt gilt damit<br />

n�<br />

n�<br />

−ld(p) = − N pi ld(pi) = −N pi ld(pi) = N H(X) .<br />

1=1<br />

i=1<br />

Entsprechend ist die Wahrscheinlichkeit jeder dieser Zeichenketten ungefähr gegeben durch<br />

p = 2 −N H(X) ,<br />

c○ M.-B. Kallenrode 2. Juli 2008

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!