01.01.2013 Aufrufe

Shannon: Informationstheorie - Dies ist unser Püffki, nur ...

Shannon: Informationstheorie - Dies ist unser Püffki, nur ...

Shannon: Informationstheorie - Dies ist unser Püffki, nur ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Ergebnis der Codierung<br />

Von n Symbolen mit Wahrscheinlichkeit pi<br />

Theorie → Entropie H Anwendung → Codeaufwand A<br />

jedes Symbol liefert Anteil –ld(pi) = 1/ld(pi) Zu jedem Symbol gehört Code-Länge li<br />

n<br />

∑<br />

H =− p ⋅ld(<br />

p )<br />

i=<br />

1<br />

i i<br />

i=<br />

1<br />

<strong>Shannon</strong>.doc h. völz angelegt 1.3.09 aktuell 03.10.2009 Seite 9 von 29<br />

n<br />

∑<br />

A = p ⋅l<br />

Es gilt immer H ≤ A<br />

Die Differenz R = A - H heißt (<strong>Shannon</strong>-) Redundanz.<br />

Für eine ideale Codierung <strong>ist</strong> sie 0<br />

A − H<br />

Oft wird auch die relative Redundanz r = benutzt<br />

H<br />

i i

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!