Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)
Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)
Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
40 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
2.3.2.2 Eigenschaften der Informationsentropie<br />
• Konkavität<br />
Gegeben zwei Wahrscheinlichkeitsverteilungen<br />
W = {p1, · · · pM}, ¯ W = { ¯p1, · · · pM} ¯<br />
Betrachte W (λ) = {p (λ)<br />
1<br />
• Extremalität<br />
• Additivität<br />
, · · · p(λ)<br />
M } mit p(λ)<br />
i = λpi + (1 − λ)¯pi (0 ≤ λ ≤ 1)<br />
Dann gilt: J(W (λ) ) ≥ λJ(W ) + (1 − λ)J( ¯ W ) (2.61)<br />
(Bew.: Gilt schon für jeden<br />
einzelnen Beitrag<br />
)<br />
Vergleiche zwei Wahrscheinlichkeitsverteilungen<br />
W = {p1, · · · pM}, ¯ W = { ¯p1, · · · pM} ¯<br />
Dann gilt: J(W ) ≤ −κ<br />
M<br />
i=1<br />
pi ln ¯pi mit ” = “ ⇔ pi = ¯pi (2.62)<br />
(Beweis: Es gilt: y − 1 ≥ ln y mit =“ ⇒ y = 1<br />
”<br />
❀ pi ln ¯pi − pi ln pi = pi ln ¯pi<br />
pi ≤ pi( ¯pi<br />
pi<br />
= 1 − 1 = 0<br />
⇒ −κ pi ln pi ≤ −κ pi ln ¯pi )<br />
Gegeben zwei unabhängige Ereignisräume<br />
ΩI = {ω (I)<br />
1 , · · · ω(I)<br />
M }, ΩII = {ω (II)<br />
1 , · · · ω (II)<br />
M }<br />
mit Wahrscheinlichkeitsverteilungen<br />
WI = {p (I)<br />
1 , · · · p(I)<br />
M }, WII = {p (II)<br />
1 , · · · p (II)<br />
M }<br />
Betrachte zusammengesetzten Raum Ω = ΩI × ΩII = {(ω (I)<br />
i , ω (II)<br />
j<br />
❀ Wahrscheinlichkeitsverteilung W = WI · WII = {(p (I)<br />
i , p (II)<br />
j<br />
mit pij = p (I)<br />
i · p (II)<br />
j = Wahrscheinlichkeit, dass sowohl ω(I)<br />
i<br />
als auch ω (II)<br />
j<br />
eintritt.<br />
− 1)<br />
)}<br />
)} ≡ {pij}<br />
Dann gilt: J(WI · WII) = J(WI) + J(WII) (2.63)<br />
(Beweis:<br />
<br />
pij ln pij =<br />
i,j<br />
<br />
p<br />
i,j<br />
(I)<br />
i<br />
· p (II)<br />
j<br />
ln p (I)<br />
i<br />
Anschaulich: unabhängige Systeme<br />
<br />
+ ln p(II)<br />
j = p<br />
i<br />
(I)<br />
i ln p (I) <br />
i + p<br />
j<br />
(II)<br />
j ln p (II)<br />
j )<br />
❀ Informationsentropie<br />
addiert sich auf!