06.05.2013 Aufrufe

Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)

Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)

Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

40 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

2.3.2.2 Eigenschaften der Informationsentropie<br />

• Konkavität<br />

Gegeben zwei Wahrscheinlichkeitsverteilungen<br />

W = {p1, · · · pM}, ¯ W = { ¯p1, · · · pM} ¯<br />

Betrachte W (λ) = {p (λ)<br />

1<br />

• Extremalität<br />

• Additivität<br />

, · · · p(λ)<br />

M } mit p(λ)<br />

i = λpi + (1 − λ)¯pi (0 ≤ λ ≤ 1)<br />

Dann gilt: J(W (λ) ) ≥ λJ(W ) + (1 − λ)J( ¯ W ) (2.61)<br />

(Bew.: Gilt schon für jeden<br />

einzelnen Beitrag<br />

)<br />

Vergleiche zwei Wahrscheinlichkeitsverteilungen<br />

W = {p1, · · · pM}, ¯ W = { ¯p1, · · · pM} ¯<br />

Dann gilt: J(W ) ≤ −κ<br />

M<br />

i=1<br />

pi ln ¯pi mit ” = “ ⇔ pi = ¯pi (2.62)<br />

(Beweis: Es gilt: y − 1 ≥ ln y mit =“ ⇒ y = 1<br />

”<br />

❀ pi ln ¯pi − pi ln pi = pi ln ¯pi<br />

pi ≤ pi( ¯pi<br />

pi<br />

= 1 − 1 = 0<br />

⇒ −κ pi ln pi ≤ −κ pi ln ¯pi )<br />

Gegeben zwei unabhängige Ereignisräume<br />

ΩI = {ω (I)<br />

1 , · · · ω(I)<br />

M }, ΩII = {ω (II)<br />

1 , · · · ω (II)<br />

M }<br />

mit Wahrscheinlichkeitsverteilungen<br />

WI = {p (I)<br />

1 , · · · p(I)<br />

M }, WII = {p (II)<br />

1 , · · · p (II)<br />

M }<br />

Betrachte zusammengesetzten Raum Ω = ΩI × ΩII = {(ω (I)<br />

i , ω (II)<br />

j<br />

❀ Wahrscheinlichkeitsverteilung W = WI · WII = {(p (I)<br />

i , p (II)<br />

j<br />

mit pij = p (I)<br />

i · p (II)<br />

j = Wahrscheinlichkeit, dass sowohl ω(I)<br />

i<br />

als auch ω (II)<br />

j<br />

eintritt.<br />

− 1)<br />

)}<br />

)} ≡ {pij}<br />

Dann gilt: J(WI · WII) = J(WI) + J(WII) (2.63)<br />

(Beweis:<br />

<br />

pij ln pij =<br />

i,j<br />

<br />

p<br />

i,j<br />

(I)<br />

i<br />

· p (II)<br />

j<br />

ln p (I)<br />

i<br />

Anschaulich: unabhängige Systeme<br />

<br />

+ ln p(II)<br />

j = p<br />

i<br />

(I)<br />

i ln p (I) <br />

i + p<br />

j<br />

(II)<br />

j ln p (II)<br />

j )<br />

❀ Informationsentropie<br />

addiert sich auf!

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!