25.12.2013 Aufrufe

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

Nichtlineare Methoden zur Quantifizierung von Abhängigkeiten und ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2.1. DISKRETE STOCHASTISCHE PROZESSE 7<br />

eingeführten Funktional erfolgen. Dazu wird die Unsicherheit − log P {X i = x}<br />

des Zustandes x eingeführt. Sie ist ein Maß, das angibt, wie unwahrscheinlich<br />

es ist, bei einer Beobachtung X i im Zustand x zu finden. Die Mittelung dieser<br />

Unsicherheiten über alle x ∈ X liefert das Funktional<br />

H(X i ) = − ∑ x∈X<br />

P {X i = x} log P {X i = x} , (2.2)<br />

das die Verteilung P X i<br />

auf eine nichtnegative Zahl abbildet. Dieses Funktional<br />

wird Shannon-Entropie genannt. Shannon & Weaver (1949) zeigten, dass diese<br />

Entropie bis auf einen Vorfaktor das einzige Funktional ist, welches aus folgenden<br />

Axiomen hervorgeht:<br />

A1: H(X i ) ist stetig in den Wahrscheinlichkeiten (P {X i = x}) x∈X .<br />

(Kleine Veränderungen in der Verteilung sollen nur kleine Änderungen in<br />

der mittleren Unsicherheit verursachen.)<br />

A2: Sind alle Zustände gleich verteilt, P {X i = x 1 } = . . . = P {X i = x m } = 1/m,<br />

dann soll H(X i ) eine monoton steigende Funktion in m sein.<br />

(Je größer die Anzahl der möglichen Zustände ist, desto größer ist die Unsicherheit.)<br />

A3: H(X i ) lässt sich als eine gewichtete Linearkombination <strong>von</strong> Teilentropien<br />

beim Zusammenfassen <strong>von</strong> Zuständen dargestellen.<br />

Hierzu sei X i eine Zufallsvariable mit Zuständen in {x 1 , . . . , x m }. Y i , Z i seien<br />

zwei weitere Zufallsvariablen mit Werten in {y 1 , . . . , y m−1 } bzw. {z 1 , z 2 },<br />

deren Verteilungen durch<br />

{<br />

P {X i = x j } falls j ≤ m − 2<br />

P {Y i = y j } =<br />

P {X i = x m−1 } + P {X i = x m } falls j = m − 1 ,<br />

P {Z i = z 1 } =<br />

P {Z i = z 2 } =<br />

gegeben seien. Dann gilt<br />

P {X i = x m−1 }<br />

P {X i = x m−1 } + P {X i = x m } ,<br />

P {X i = x m }<br />

P {X i = x m−1 } + P {X i = x m }<br />

H(X i ) = H(Y i ) + (P {X i = x m−1 } + P {X i = x m }) H(Z i ) .<br />

(Somit ist die Unsicherheit der Zustände <strong>von</strong> X i gleich der Unsicherheit,<br />

mit der bei einer ersten Messung bestimmt wird, ob einer der Zustände<br />

x 1 , . . . , x m−2 oder ein Zustand aus {x m−1 , x m } vorliegt plus der Unsicherheit,<br />

mit der bei einer zweiten Beobachtung, welche mit Wahrscheinlichkeit<br />

P {X i = x m−1 } + P {X i = x m } notwendig ist, bestimmt wird, ob x m−1 oder<br />

x m auftrat.)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!