Grundlagen der Quantenmechanik und Statistik - Theoretische ...
Grundlagen der Quantenmechanik und Statistik - Theoretische ...
Grundlagen der Quantenmechanik und Statistik - Theoretische ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
7.3. Die (Informations)Entropie<br />
Bemerkung 7.2.2: Auch in <strong>der</strong> kinetischen Gastheorie taucht <strong>der</strong> Wahrscheinlichkeitsbegriff<br />
auf, denn<br />
1<br />
n f (r,v,t) d3 v = g(r,v,t) d 3 v (7.2.4)<br />
ist die Wahrscheinlichkeit dafür, dass die Geschwindigkeit eines beliebig ausgewählten<br />
Teilchens im Intervall [v, v + dv] liegt. Die Geschwindigkeitsverteilung g(r,v,t) kann also<br />
als entsprechende Wahrscheinlichkeitsdichte interpretiert werden.<br />
◭<br />
Zur Verbindung <strong>der</strong> skizzierten mesoskopischen Theorie <strong>und</strong> <strong>der</strong> klassischen Thermodynamik<br />
benötigen wir die Informationsentropie, die im nachfolgenden Abschnitt behandelt<br />
wird.<br />
7.3. Die (Informations)Entropie<br />
7.3.1. Allgemeine Betrachtung<br />
Motivation: Maß für Information<br />
Ausgangspunkt: Kodierung von Zeichen (z. B. Buchstaben) durch nicht-äquidistante<br />
Teilintervalle <strong>der</strong> Länge p i des Einheitsintervalls [0,1]:<br />
n∑<br />
i=1<br />
p i = 1 ⇔ 0 1<br />
p 1 p 2 p 3 p n−1 p n<br />
Erfolgt die Kodierung von häufig gebrauchten Zeichen mit großen p i entsprechend<br />
ihrer relativen Häufigkeit, erfor<strong>der</strong>t die Übertragung weniger „bits“ (bzw. „bytes“).<br />
Frage: Wieviele bits ( ˆ= binary digits) werden zur Übermittlung eines Zeichens benötigt?<br />
Idee: Sukzessive Halbierung des Einheitsintervalls in Teilintervalle <strong>der</strong> Länge 2 −m :<br />
I = [0,1]<br />
bits<br />
# bits<br />
I 0 = [︁ 0, 2]︁ 1 ; I1 = ]︁ 1<br />
2 ,1]︁ 0,1 1<br />
I 00 = [︁ 0, 4]︁ 1 ; I01 = ]︁ 1<br />
4 , ]︁ 1<br />
2 ; I10 = ]︁ 1<br />
2 , ]︁ 3<br />
4 ; I11 = ]︁ 3<br />
4 ,1]︁ 00,01,10,11 2<br />
usw.<br />
Folgerung I: Wenn 2 −m ≤ p i ⇒ m ≥ − log 2<br />
p i , so liegt ein Zeichen eindeutig fest <strong>und</strong> zu<br />
seiner Übermittlung werden σ i = − log 2<br />
p i bits benötigt, wobei σ i als Informationsmaß<br />
für ein Zeichen bezeichnet wird.<br />
Folgerung II: Der vollständige Informationsgehalt σ einer Nachricht, die aus N Zeichen<br />
besteht, erfor<strong>der</strong>t also σ = ∑︀ N<br />
i=1 σ i.<br />
– 85 –