Leistungscharakteristika von ATM-Netzen für ... - Torsten E. Neck
Leistungscharakteristika von ATM-Netzen für ... - Torsten E. Neck
Leistungscharakteristika von ATM-Netzen für ... - Torsten E. Neck
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
DATENKOMPRESSION FÜR DIGITALE BILDER UND SZENEN 81<br />
Für die Kompression gibt es zwei grundsätzliche Verfahrenstypen:<br />
Verlustfreie Verfahren<br />
nutzen die in der digitalen Repräsentation der Bilder vorhandene Redundanz aus und<br />
wählen eine effizientere Codierung. Dabei gehen keine Informationen des Bildes<br />
verloren.<br />
<br />
Verlustbehaftete Verfahren,<br />
im Gegensatz dazu, bewerten die das Bild repräsentierenden Informationen in<br />
relevante und irrelevante <strong>für</strong> den Bildeindruck. Alle als irrelevant eingestuften Informationen<br />
werden verworfen, wodurch sich aus dem komprimierten Bild die ursprünglichen<br />
Daten nicht mehr vollständig rekonstruieren lassen.<br />
Während die Codierungsverfahren der rein technischen Beurteilung unterliegen, ist beim<br />
Einsatz der Irrelevanz-Reduktion die Bildquelle und der spätere Betrachter ausschlaggebend.<br />
Zur Entscheidung, welches Verfahren mit welchen Parametern (Schwellwerte) zum Einsatz<br />
kommen kann, müssen da<strong>für</strong> umfangreiche empirische Untersuchungen mit Testpersonen —<br />
im Umfeld dieser Arbeit also mit Chirurgen der Minimal Invasiven Therapie — vorgenommen<br />
werden. Dies konnte bisher nicht durchgeführt werden, die Einschätzungen beruhen auf der<br />
subjektiven Erfahrung des Verfassers mit wenigen Testszenen.<br />
5.4.1 Verlustfreie Kompressionsverfahren<br />
Für die Bestimmung eines effizienten Codierungsverfahrens sind Ansätze aus der<br />
Informationstheorie erforderlich. Die digitalisierte Quelle wird als Nachricht über einem<br />
bestimmten Alphabet S aufgefaßt; die Zeichen sind die aus der Amplituden-Diskretisierung<br />
enstandenen abstrakten Intervalle, die typischerweise schon in einem Code vorliegen. Eben<br />
die Umcodierung macht die Kompressionseigenschaft der Codierverfahren aus!<br />
Jedem Zeichen wird gemäß seiner Auftretenswahrscheinlichkeit p(s i<br />
) ein Entscheidungsgehalt<br />
E(s i<br />
) zugeordnet, der als Maßzahl <strong>für</strong> eine optimale Codelänge des Zeichens bei<br />
Codierung mit variabler Länge über dem Ziel-Codealphabet der Mächtigkeit b dient (bei<br />
binärer Codierung ist b=2).<br />
1<br />
E ( si<br />
) = logb<br />
p(<br />
s )<br />
Der mittlere Entscheidungsgehalt, die Entropie, H(S) der gesamten Quelle ist ein Maß <strong>für</strong> die<br />
durchschnittliche Länge des optimalen Codes.<br />
i<br />
<br />
<br />
H ( S)<br />
=<br />
n<br />
∑( p(<br />
si ) ⋅ E(<br />
s i<br />
))<br />
i=<br />
1<br />
Die Codefestlegung geschieht dann nach dem Huffmann-Verfahren mit variabler<br />
Codelänge so, daß den Zeichen mit der höchsten Auftretenswahrscheinlichkeit die<br />
kürzesten Codes zugeordnet werden und den Zeichen geringster Wahrscheinlichkeiten<br />
die längsten. Dabei ist eine Präfix-Bedingung („Fano-Eigenschaft“) zu beachten, die<br />
besagt, daß keiner der kurzen Codes als Anfang (Präfix) eines länger codierten<br />
Zeichens auftreten darf (/Koch77/ Kap. 2). Der Huffmann-Algorithmus achtet bei der<br />
Codierung durch ein zweiphasiges Prinzip <strong>von</strong> Analyse und Codegenerierung auf die<br />
Erstellung eines ausgeglichenen Codes mit einer durchschnittlichen Länge im Bereich<br />
der Entropie.<br />
Die optimale Codierung erlaubt die Zuordnung einer exakt der Entropie entsprechenden<br />
Anzahl <strong>von</strong> Codebits zu einem Zeichen der Quelle. Dies ist nicht immer<br />
Diplomarbeit <strong>Torsten</strong> <strong>Neck</strong>