Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Thesis - RWTH Aachen University
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
C.7 Bayesian Belief Networks 209<br />
Die Werte von p(Zi|P(Zi)) sind in der cpt vom i-ten Knoten gegeben. Durch die vereinfachte Bestimmung<br />
der Wahrscheinlichkeit reduziert sich die Größe der zugehörigen cpt und damit ergibt sich eine<br />
erhebliche Reduktion in der notwendigen Berechnung. Hat ein Knoten keinen direkten Vorgänger, ist<br />
also die zugehörige Zufallsvariable stochastisch unabhängig, wird anstatt einer cpt nur eine a priori<br />
Wahrscheinlichkeit angegeben:<br />
p(Zi|P(Zi)) = p(Zi)<br />
C.7.1 Inferenz in einem BBN<br />
Unter Inferenz in einem BBN wird das Schließen unter Zuhilfenahme von dem gegebenen Wissen<br />
über die Zustände einiger Knoten auf die Wahrscheinlichkeit eines Zustands eines anderen Knotens<br />
verstanden. Der gesuchte Knoten ist normalerweise nicht direkt beobachtbar, über ihn liegt deshalb<br />
kein direktes Wissen vor. Im Normalfall aber ist für eine Teilmenge der Knoten eines BBN der Wert<br />
der zugehörigen Zufallsvariable bekannt oder kann wenigstens mit einer Wahrscheinlichkeit (Likelihood)<br />
angegeben werden.<br />
Nach Charniak [Cha91] sind die bekannten Inferenzalgorithmen in exakte (exact) und approximierte<br />
(approximate) Inferenz zu unterteilen. Bei der exakten Inferenz wird nach der Richtung des Schließens<br />
zwischen Top-down-Inferenz und Bottom-up-Inferenz unterschieden. Top-down- oder kausale<br />
Inferenz liegt vor, wenn die Werte der Vorgänger eines Knotens bekannt sind und eine Wahrscheinlichkeit<br />
für den Knoten selbst gesucht ist. In dem Sinne verursachen die Werte der Vorgängerknoten<br />
den Wert des Ausgangsknotens 16 . Ein solcher Fall ist beispielweise bei der gesuchten Wahrscheinlichkeit<br />
p(C|A) in dem BBN aus Abbildung C.18 zu sehen. Wenn man die Knoten der Einfachheit<br />
halber als boolsche Variablen auffasst, ergibt sich durch Aufsummieren über die möglichen Zustände<br />
aller übrigen Vorgänger:<br />
p(C|A) = p(C, B|A) + p(C, ¬B|A)<br />
Aus Gleichung C.73 folgt:<br />
p(C|A) = p(C|B, A)p(B|A)<br />
� �� �<br />
p(C,B|A)<br />
+ p(C|¬B, A)p(¬B|A)<br />
� �� �<br />
p(C,¬B|A)<br />
Mit Hilfe von Gleichung C.74 und der Tatsache, dass A und B keine Vorgänger haben, ergibt sich:<br />
p(C|A) = p(C|B, A)p(B) + p(C|¬B, A)p(¬B)<br />
Alle Wahrscheinlichkeiten auf der rechten Seite sind in den entsprechenden cpts oder als a priori<br />
Wahrscheinlichkeit gegeben. Durch Einsetzen in die entsprechenden Terme kann die gesuchte Wahrscheinlichkeit<br />
p(C|A) berechnet werden.<br />
Die Bottom-up-Inferenz geht davon aus, dass der Zustand eines Knotens bekannt ist und eine Wahrscheinlichkeit<br />
für einen Vorgänger gesucht wird. Da hierbei die Auswirkung bekannt ist und der<br />
Grund hierfür gesucht wird, spricht man auch von diagnostischer Inferenz. Die gesuchte bedingte<br />
Wahrscheinlichkeit muss mit dem Bayes-Theorem umgeformt werden, weil bei der Angabe einer cpt<br />
die Kenntnis des Zustandes der Vorgängerknoten vorausgesetzt wird. Das Bayes-Theorem lautet in<br />
allgemeiner Form:<br />
p(ai|b) = p(b|ai)p(ai)<br />
�<br />
j p(b|aj)p(aj)<br />
(C.75)<br />
16 In dieser Arbeit den Wert der Anwendbarkeit eines Verhaltens.