09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

212 C.7 Bayesian Belief Networks<br />

wiederum eine Dirichletverteilung mit angepassten Exponenten N ′<br />

k +Nk und einer neuen Normalisierungskonstante<br />

c ′ . Damit beschreiben diese Exponenten den Wissensstand eines Knotens, der angibt,<br />

wie oft welcher Fall gelernt wurde. Die Wahrscheinlichkeit dafür, dass im nächsten Fall der Zustand<br />

Z = Zk beobachtet wird, ergibt sich durch Berechnung des Erwartungswertes der Dirichletverteilung<br />

zu:<br />

p(Z = Zk) = E(θZ=Zk ) =<br />

Das entspricht dem aktualisierten Eintrag in der cpt.<br />

� r<br />

Weiterhin ist die Varianz der Dirichletverteilung gegeben durch:<br />

N ′<br />

k<br />

′<br />

k=1 N k<br />

V ar(θZ=Zk ) = p(Z = Zk) (1 − p(Z = Zk))<br />

�r ′<br />

N + 1<br />

Ein Maß für das Vertrauen in Θx ist die Gesamtanzahl der gelernten Fälle � r<br />

k=1<br />

gelernt werden, desto geringer wird die Varianz.<br />

k=1<br />

k<br />

(C.82)<br />

(C.83)<br />

′<br />

N k . Je mehr Fälle<br />

Diese Art des Lernens eines einzelnen Knotens lässt sich auf ein gesamtes BBN übertragen. Hierzu ist<br />

jedoch die Annahme der so genannten Parameterunabhängigkeit (Parameter Independence) notwendig<br />

[Hec95]. Für den Fall, dass zwei Knoten X und Y existieren und Y von X abhängt, erhält man drei<br />

Wahrscheinlichkeitsverteilungen, θX, θY |X und θY |¬X. Allgemein müssten sich auch die Verteilungen<br />

θY |X und θY |¬X ändern, wenn die Verteilung θX angepasst wird. Unter Berücksichtigung der Annahme<br />

der Parameterunabhängigkeit entfällt die beschriebene Abhängigkeit und die cpts der einzelnen<br />

Knoten können separat voneinander, nacheinander angepasst werden. Die Unabhängigkeitsannahme<br />

betrifft nicht die Abhängigkeit der Zufallsvariable Y von X.<br />

Jeder Knoten des Netzwerks besitzt für jede mögliche Konfiguration j der Zustände der Elternknoten<br />

eine entsprechende a priori Wahrscheinlichkeitsverteilung Θij. Dann ist nach Erlernen der Datenmenge<br />

D unter der Voraussetzung einer Dirichletverteilung:<br />

p(Θij|D) = c<br />

′ �<br />

k<br />

θ Nijk ′ +Nijk−1<br />

ijk<br />

(C.84)<br />

Nijk ist die Anzahl aller Fälle in D mit Zi = Zk und der Konfiguration j der Zustände der Elternknoten.<br />

Pro beobachteten Fall wird immer nur die entsprechende Wahrscheinlichkeitsverteilung<br />

aktualisiert, während alle anderen unverändert bleiben.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!