28.09.2014 Aufrufe

Grundlagen der Quantenmechanik und Statistik - Theoretische ...

Grundlagen der Quantenmechanik und Statistik - Theoretische ...

Grundlagen der Quantenmechanik und Statistik - Theoretische ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

7.3. Die (Informations)Entropie<br />

Bemerkung 7.2.2: Auch in <strong>der</strong> kinetischen Gastheorie taucht <strong>der</strong> Wahrscheinlichkeitsbegriff<br />

auf, denn<br />

1<br />

n f (r,v,t) d3 v = g(r,v,t) d 3 v (7.2.4)<br />

ist die Wahrscheinlichkeit dafür, dass die Geschwindigkeit eines beliebig ausgewählten<br />

Teilchens im Intervall [v, v + dv] liegt. Die Geschwindigkeitsverteilung g(r,v,t) kann also<br />

als entsprechende Wahrscheinlichkeitsdichte interpretiert werden.<br />

◭<br />

Zur Verbindung <strong>der</strong> skizzierten mesoskopischen Theorie <strong>und</strong> <strong>der</strong> klassischen Thermodynamik<br />

benötigen wir die Informationsentropie, die im nachfolgenden Abschnitt behandelt<br />

wird.<br />

7.3. Die (Informations)Entropie<br />

7.3.1. Allgemeine Betrachtung<br />

Motivation: Maß für Information<br />

Ausgangspunkt: Kodierung von Zeichen (z. B. Buchstaben) durch nicht-äquidistante<br />

Teilintervalle <strong>der</strong> Länge p i des Einheitsintervalls [0,1]:<br />

n∑<br />

i=1<br />

p i = 1 ⇔ 0 1<br />

p 1 p 2 p 3 p n−1 p n<br />

Erfolgt die Kodierung von häufig gebrauchten Zeichen mit großen p i entsprechend<br />

ihrer relativen Häufigkeit, erfor<strong>der</strong>t die Übertragung weniger „bits“ (bzw. „bytes“).<br />

Frage: Wieviele bits ( ˆ= binary digits) werden zur Übermittlung eines Zeichens benötigt?<br />

Idee: Sukzessive Halbierung des Einheitsintervalls in Teilintervalle <strong>der</strong> Länge 2 −m :<br />

I = [0,1]<br />

bits<br />

# bits<br />

I 0 = [︁ 0, 2]︁ 1 ; I1 = ]︁ 1<br />

2 ,1]︁ 0,1 1<br />

I 00 = [︁ 0, 4]︁ 1 ; I01 = ]︁ 1<br />

4 , ]︁ 1<br />

2 ; I10 = ]︁ 1<br />

2 , ]︁ 3<br />

4 ; I11 = ]︁ 3<br />

4 ,1]︁ 00,01,10,11 2<br />

usw.<br />

Folgerung I: Wenn 2 −m ≤ p i ⇒ m ≥ − log 2<br />

p i , so liegt ein Zeichen eindeutig fest <strong>und</strong> zu<br />

seiner Übermittlung werden σ i = − log 2<br />

p i bits benötigt, wobei σ i als Informationsmaß<br />

für ein Zeichen bezeichnet wird.<br />

Folgerung II: Der vollständige Informationsgehalt σ einer Nachricht, die aus N Zeichen<br />

besteht, erfor<strong>der</strong>t also σ = ∑︀ N<br />

i=1 σ i.<br />

– 85 –

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!