Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
210 C.7 Bayesian Belief Networks<br />
In dem Beispiel aus Abbildung C.18 ist die Berechnung von p(A|C) ein Fall von diagnostischer<br />
Inferenz. Mit dem Bayes-Theorem aus Gleichung C.75 folgt:<br />
p(A|C) =<br />
p(C|A)p(A)<br />
p(C|A)p(A) + p(C|¬A)p(¬A)<br />
Die Wahrscheinlichkeiten p(C|A) und p(C|¬A) können durch eine kausale Inferenz bestimmt werden.<br />
Die Wahrscheinlichkeiten p(A) und p(¬A) = 1 − p(A) sind als a priori-Wahrscheinlichkeiten<br />
bekannt. Damit ist die diagnostische Inferenz auf die kausale Inferenz zurückzuführen.<br />
Diese Vorgehensweise lässt sich nur bei Netzen mit einer geringen Knoten- und Zustandsanzahl<br />
durchführen. Bei komplexen Graphen würde sie zu einem zu großen, in der Praxis nicht vertretbaren,<br />
Rechenaufwand führen. Aus diesem Grund wurde eine Reihe von Inferenzalgorithmen entwickelt,<br />
die zuerst das Netz transformieren, um dann eine weniger aufwendige Berechnung durchzuführen.<br />
Zu ihnen gehört unter anderem der Junction-Tree Algorithmus nach Spiegelhalter [SDLC93]. Bei<br />
diesem Algorithmus erfolgt zunächst eine Transformation des gerichteten BBN Graphes in einen ungerichteten.<br />
Anschließend wird der Graph in Gruppen, so genannte Belief Universes, unterteilt, in<br />
Form eines Baumes geordnet und initialisiert. Nach dieser einmaligen Transformation können verschiedene<br />
Beobachtungen eingetragen und schnell durch den Baum propagiert werden, um eine Zustandswahrscheinlichkeit<br />
für einen gewünschten Knoten auszurechnen. Da ein großer Teil der nötigen<br />
Gesamtberechnung nur einmal durchgeführt wird und zwar bei der Initialisierung, sind erhebliche<br />
Geschwindigkeitsvorteile erzielbar. Dies setzt jedoch voraus, dass der Graph und die cpts nach der<br />
Transformation unverändert bleiben.<br />
Im Gegensatz zu der beschriebenen exakten Inferenz berechnet die approximierte Inferenz Ergebnisse,<br />
welche die tatsächliche Wahrscheinlichkeit nur näherungsweise angeben. Da sie in dieser Arbeit<br />
nicht eingesetzt wird, wird sie hier nicht weiter behandelt. Eine Übersicht über vorhandene Algorithmen<br />
kann bei Charniak [Cha91] gefunden werden.<br />
C.7.2 Lernen eines BBN<br />
Der erste Schritt beim Entwurf eines BBN ist die Festlegung der Struktur des Graphen anhand der<br />
beobachteten Abhängigkeiten zwischen den Zufallsvariablen. Anschließend werden die Wahrscheinlichkeiten<br />
in den cpts durch Befragen eines Experten besetzt. Darüber hinaus ist es jedoch wünschenswert,<br />
das BBN mit Hilfe von Lernalgorithmen anzupassen, d.h. zu trainieren. Dies hat den Vorteil,<br />
dass das Expertenwissen nicht vorliegen muss, damit das BBN die gewünschten Zusammenhänge<br />
modelliert.<br />
Generell werden Lernverfahren nach zwei Kriterien unterteilt [Hec95]:<br />
Strukturlernen umfasst das Erlernen der Struktur des Graphen, also der Abhängigkeiten zwischen<br />
den Zufallsvariablen.<br />
Parameterlernen geht von einer bekannten Graphenstruktur aus und erlernt die Wahrscheinlichkeiten<br />
der cpts. Beim Parameterlernen wird weiter nach der Beobachtbarkeit der Knoten unterschieden,<br />
d.h. ob die Zustände aller Zufallsvariablen bekannt sind oder einige nicht beobachtet<br />
werden können.