01.01.2013 Aufrufe

Shannon: Informationstheorie - Dies ist unser Püffki, nur ...

Shannon: Informationstheorie - Dies ist unser Püffki, nur ...

Shannon: Informationstheorie - Dies ist unser Püffki, nur ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

inäre Speicherplätze<br />

Symbol-Bits, Signal-Länge<br />

Ableitung der Entropie-Formel<br />

Für 4 Speicherplätze werden unterschieden:<br />

genutzten Zeichen, mögliche Zustände<br />

Symbol-Realisierungen, konkrete Signale<br />

n = ld(m) m = 2 n<br />

Bit 1<br />

Bit 2<br />

Bit 3<br />

Bit 4<br />

0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1<br />

0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1<br />

0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1<br />

0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1<br />

Ein mögliches Signal <strong>ist</strong> die Bit-Folge 0101<br />

Folglich sind zu unterscheiden:<br />

• Die Informationsmenge (n), entspricht der Anzahl von Speicherplätzen<br />

• Die möglichen Signale (m) als spezielle Varianten der Information<br />

H = n = ld(m)<br />

Die Informationsmenge je Symbol H heißt Entropie<br />

Es wird der binäre Logarithmus ld = 2log genutzt<br />

Für gleichwahrscheinliche Signale gilt p = 1/m (Wahrscheinlichkeit)<br />

H = 1/ld(p) = -ld(p)<br />

Signale treten jedoch me<strong>ist</strong> mit Wahrscheinlichkeiten pi auf.<br />

Daher stat<strong>ist</strong>ische Mittelwertbildung erforderlich<br />

Sinnvoll <strong>ist</strong> zusätzlich eine Bewertung mit Gewicht pi<br />

m<br />

H=−∑pi⋅ld ( pi)<br />

i=<br />

1<br />

Informationen werden addiert<br />

Abhängige Wahrscheinlichkeiten werden multipliziert<br />

<strong>Shannon</strong>.doc h. völz angelegt 1.3.09 aktuell 03.10.2009 Seite 4 von 29<br />

.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!