09.02.2013 Aufrufe

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

Thesis - RWTH Aachen University

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

210 C.7 Bayesian Belief Networks<br />

In dem Beispiel aus Abbildung C.18 ist die Berechnung von p(A|C) ein Fall von diagnostischer<br />

Inferenz. Mit dem Bayes-Theorem aus Gleichung C.75 folgt:<br />

p(A|C) =<br />

p(C|A)p(A)<br />

p(C|A)p(A) + p(C|¬A)p(¬A)<br />

Die Wahrscheinlichkeiten p(C|A) und p(C|¬A) können durch eine kausale Inferenz bestimmt werden.<br />

Die Wahrscheinlichkeiten p(A) und p(¬A) = 1 − p(A) sind als a priori-Wahrscheinlichkeiten<br />

bekannt. Damit ist die diagnostische Inferenz auf die kausale Inferenz zurückzuführen.<br />

Diese Vorgehensweise lässt sich nur bei Netzen mit einer geringen Knoten- und Zustandsanzahl<br />

durchführen. Bei komplexen Graphen würde sie zu einem zu großen, in der Praxis nicht vertretbaren,<br />

Rechenaufwand führen. Aus diesem Grund wurde eine Reihe von Inferenzalgorithmen entwickelt,<br />

die zuerst das Netz transformieren, um dann eine weniger aufwendige Berechnung durchzuführen.<br />

Zu ihnen gehört unter anderem der Junction-Tree Algorithmus nach Spiegelhalter [SDLC93]. Bei<br />

diesem Algorithmus erfolgt zunächst eine Transformation des gerichteten BBN Graphes in einen ungerichteten.<br />

Anschließend wird der Graph in Gruppen, so genannte Belief Universes, unterteilt, in<br />

Form eines Baumes geordnet und initialisiert. Nach dieser einmaligen Transformation können verschiedene<br />

Beobachtungen eingetragen und schnell durch den Baum propagiert werden, um eine Zustandswahrscheinlichkeit<br />

für einen gewünschten Knoten auszurechnen. Da ein großer Teil der nötigen<br />

Gesamtberechnung nur einmal durchgeführt wird und zwar bei der Initialisierung, sind erhebliche<br />

Geschwindigkeitsvorteile erzielbar. Dies setzt jedoch voraus, dass der Graph und die cpts nach der<br />

Transformation unverändert bleiben.<br />

Im Gegensatz zu der beschriebenen exakten Inferenz berechnet die approximierte Inferenz Ergebnisse,<br />

welche die tatsächliche Wahrscheinlichkeit nur näherungsweise angeben. Da sie in dieser Arbeit<br />

nicht eingesetzt wird, wird sie hier nicht weiter behandelt. Eine Übersicht über vorhandene Algorithmen<br />

kann bei Charniak [Cha91] gefunden werden.<br />

C.7.2 Lernen eines BBN<br />

Der erste Schritt beim Entwurf eines BBN ist die Festlegung der Struktur des Graphen anhand der<br />

beobachteten Abhängigkeiten zwischen den Zufallsvariablen. Anschließend werden die Wahrscheinlichkeiten<br />

in den cpts durch Befragen eines Experten besetzt. Darüber hinaus ist es jedoch wünschenswert,<br />

das BBN mit Hilfe von Lernalgorithmen anzupassen, d.h. zu trainieren. Dies hat den Vorteil,<br />

dass das Expertenwissen nicht vorliegen muss, damit das BBN die gewünschten Zusammenhänge<br />

modelliert.<br />

Generell werden Lernverfahren nach zwei Kriterien unterteilt [Hec95]:<br />

Strukturlernen umfasst das Erlernen der Struktur des Graphen, also der Abhängigkeiten zwischen<br />

den Zufallsvariablen.<br />

Parameterlernen geht von einer bekannten Graphenstruktur aus und erlernt die Wahrscheinlichkeiten<br />

der cpts. Beim Parameterlernen wird weiter nach der Beobachtbarkeit der Knoten unterschieden,<br />

d.h. ob die Zustände aller Zufallsvariablen bekannt sind oder einige nicht beobachtet<br />

werden können.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!