12.02.2014 Aufrufe

Mathematik für Physiker - Numerische Physik: Modellierung

Mathematik für Physiker - Numerische Physik: Modellierung

Mathematik für Physiker - Numerische Physik: Modellierung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

12.3. ENTROPIE UND MAXWELL BOLTZMANN-VERTEILUNG 457<br />

§ 1707 Jede Abweichung von der Gleichverteilung bzw. von der statistischen Unabhängigkeit<br />

verringert den mittleren Informationsgehalt einer Nachricht. Dies wird als Redundanz (Weitschweifigkeit)<br />

bezeichnet. Formal ist die Redundanz die Differenz zwischen der maximal<br />

möglichen Entropie S 0 und der in einer realen Zeichenkette steckenden Entropie S:<br />

R = S 0 − S (12.16)<br />

bzw. als relative Redundanz<br />

r = S 0 − S<br />

S 0<br />

. (12.17)<br />

In der deutschen Sprache beträgt die Redundanz R 3.6 bit/Zeichen bzw. die relative Redundanz<br />

r 0.73: 73% der Sprache sind redundant oder überflüssig und nur 27% tragen Information.<br />

Wir könnten also mit einer anderen Sprachstruktur aber dem gleichen Alphabet die<br />

zur Übermittlung einer Nachricht notwendigen Materialien auf etwas über 1/4 reduzieren<br />

(Bücher würden dünner, Morsebotschaften schneller, Vorlesungen könnten in gleicher Zeit<br />

viermal soviel Stoff behandeln, etc.).<br />

Eigenschaften der Entropie.<br />

§ 1708 Die informationstheoretisch definierte Entropie (12.14) enthält den Logarithmus dualis<br />

um die informationstechnisch relevante Einheit bit zu berücksichtigen. In der <strong>Physik</strong> wird<br />

die Entropie einer Wahrscheinlichkeitsverteilung nicht über ld sondern ln definiert:<br />

n∑<br />

S = − p k ln p k ,<br />

k=1<br />

ihre Interpretation als Mittelwert der Information in der Verteilung bleibt jedoch bestehen.<br />

Für eine kontinuierliche Verteilung wird die Summation wieder durch eine Integration ersetzt:<br />

S = −<br />

∫ ∞<br />

−∞<br />

p(x) ln p(x) dx .<br />

§ 1709 Die Entropie S ist nicht negativ, S ≥ 0, da die Wahrscheinlichkeit nicht negativ ist.<br />

Sie wird Null, falls genau ein p k gleich 1 ist, d.h. falls ein Ereignis das sichere Ereignis ist<br />

und der Versuchsausgang damit vorhersagbar ist. Die maximale Entropie ergibt sich für die<br />

Gleichverteilung, d.h. für alle anderen Verteilungen gilt S ≤ S g = S(1/n, ...., 1/n) = ln n.<br />

Haben wir zwei Wahrscheinlichkeitsverteilungen {p 1 , ..., p n } und {˜p 1 , ..., ˜p 2 }, so gilt<br />

n∑<br />

p k ln p k<br />

≥ 0 . (12.18)<br />

˜p k<br />

k=1<br />

Der Ausdruck verschwindet, wenn für alle k gilt p k = ˜p k .<br />

12.3.2 Maximale Unbestimmtheit<br />

§ 1710 Betrachten wir jetzt ein Gas. Gesucht ist die Wahrscheinlichkeit, dass ein zufällig<br />

heraus gegriffenes Molekül eine Geschwindigkeit im Intervall zwischen v 0 und v 0 + ∆v hat,<br />

oder laxer formuliert sich im Zustand v 0 befindet. Die vollständige Information, d.h. die<br />

Geschwindigkeitsverteilung der Moleküle ist uns nicht bekannt, wir kennen lediglich eine<br />

mittlere Größe, die Temperatur des Gases. Daraus lässt sich die Verteilung mit Hilfe des<br />

Prinzips der maximalen Unbestimmtheit bestimmen.<br />

§ 1711 Zum Verständnis des Prinzips betrachten wir eine einfachere Situation. Ein Würfel<br />

liefert den Erwartungswert µ = x = 3.2 statt des beim homogenen Würfel nach Bsp. 1663<br />

erwarteten x = 3.5. Diese Abweichung kann zwei Gründe haben: (a) die Zustände k 1 , ...., k 6<br />

treten nicht mit gleicher Wahrscheinlichkeit auf, oder (b) die Zustände sind vielleicht nicht<br />

c○ M.-B. Kallenrode 13. März 2007

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!