25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

38 KAPITEL 3. SCHÄTZEN VON ENTROPIEN UND INFORMATIONEN<br />

treffen ist, gegeben durch<br />

P X i<br />

(I m,n ) ≡ P {X i ∈ I m,n } =<br />

∫<br />

I m,n<br />

g Xi (x) dx .<br />

Da g Xi stetig ist, existiert nach dem Mittelwertsatz ein ˜x(m, n) ∈ I m,n , so dass<br />

∫<br />

P {X i ∈ I m,n } = g Xi (˜x(m, n)) · dx = g Xi (˜x(m, n)) · |I m,n | (3.10)<br />

I m,n<br />

gilt. Hier ist |I m,n | = ∫ I m,n<br />

dx das Volumen <strong>von</strong> I m,n . Einsetzen dieser Wahrscheinlichkeiten<br />

in Gl. (2.2) <strong>und</strong> Mitteln über alle Partitionselemente (Quader) liefert<br />

die diskretisierte Shannon-Entropie bezüglich der Partition I n<br />

H In (X i ) = −<br />

∑M n<br />

m=1<br />

g Xi (˜x(m, n)) log (g Xi (˜x(m, n))) · |I m,n |<br />

−<br />

∑M n<br />

m=1<br />

g Xi (˜x(m, n)) log |I m,n | · |I m,n | . (3.11)<br />

Da die Riemann-Integrierbarkeit <strong>von</strong> g Xi · log g Xi vorausgesetzt wurde, folgt,<br />

dass der erste Summand für n → ∞ gegen die kontinuierliche Shannon-Entropie<br />

konvergiert. Somit erhält man die Konvergenzaussage<br />

H In (X i ) +<br />

∑M n<br />

m=1<br />

g Xi (˜x(m, n)) log |I m,n | · |I m,n |<br />

n→∞<br />

−−−→ H(X i ) , (3.12)<br />

das heißt die kontinuierliche Shannon-Entropie <strong>und</strong> die diskretisierten Shannon-<br />

Entropien der Partitionenfolge unterscheiden sich im Limes um den Erwartungswert<br />

der logarithmierten Quadervolumina dieser Partitionen. Für den Spezialfall,<br />

dass als Partitionelemente Würfel mit gleicher Kantenlänge ε n gewählt werden,<br />

also |I m,n | = ε d n , liefert dies die Konvergenzaussage<br />

H In (X i ) + d · log ε n<br />

n→∞<br />

−−−→ H(X i ) .<br />

Dementsprechend divergiert die diskretisierte Shannon-Entropie H In (X i ) wie<br />

−d log ε n für n → ∞, das heißt die Divergenz wird <strong>von</strong> der Skala ε n der<br />

Messauflösung bestimmt. Ist beispielsweise X i auf dem Intervall [0, 1) gleichverteilt<br />

(g Xi (x) = 1 falls x ∈ [0, 1) <strong>und</strong> 0 sonst), so ist die Shannon-Entropie<br />

H(X i ) = 0. Wird der Zustandsraum bei der n-ten Partition in n gleich große Intervalle<br />

zerlegt (ε n = 1/n), so erhält man für die diskretisierte Shannon-Entropie<br />

H In (X i ) = log n. Sie divergiert also logarithmisch mit der Anzahl der Partitionselemente.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!