Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Appendix C<br />
Ergebnisse der Variationsrechnung<br />
In diesem Anhang wird eine der zentralen Eigenschaften des ANTS-Algorithmus begründet,<br />
nämlich dass er den unteren Stumpf einer Verteilungsdichte p approximiert.<br />
Die dafür verwendete Methode ist die Variationsrechnung. Da sich dieser Kalkül aber<br />
nicht auf beliebige Funktionen p anwenden lässt, gelten die im folgenden gemachten<br />
Aussagen nicht in aller mathematischer Strenge, sondern sind als Heuristiken zu verstehen,<br />
die in vielen Fällen unter Verwendung <strong>von</strong> ausreichend gutartigen Funktionenklassen<br />
richtig sind.<br />
Zunächst möchte ich an einem einfachen Beispiel demonstrieren, wie die Verwendung<br />
des Variationskalküls viele ansonsten schwer zu beweisende Aussagen vereinfacht. Anschließend<br />
soll das stationäre Verhalten des ANTS-Algorithmus untersucht und die<br />
Behauptung (4-14) gezeigt werden.<br />
C.1 Warum eine ML-Schätzung die Verteilungsdichte<br />
approximiert<br />
In Abschnitt 1.1 wurde klar, dass der stationäre Zustand des multivar-Algorithmus, der<br />
durch die Gleichungen (1-13) bis (1-15) charakterisiert ist, eine Maximum-likelihood-<br />
Dichteschätzung darstellt. Anhand der Erklärung des ML-Prinzips auf den Seiten 15f<br />
wurde klar, dass es sich bei ˆp tatsächlich um ein Modell der Verteilungsdichte p handelt,<br />
die dem Datensatz zugrundeliegt. Diese Frage, ob p und ˆp im Idealfall eines<br />
vollständigen Datensatzes und einer beliebig guten Approximationsfähigkeit durch ˆp<br />
gleich werden können, wurde <strong>von</strong> Dersch (1995) beantwortet, der die mögliche Gleichheit<br />
<strong>von</strong> p und ˆp feststellte. Als Bedingung nannte er, dass die Breiten der verwendeten<br />
Normalverteilungen <strong>von</strong> der gleichen Größenordnung sein sollen wie ihre Abstände. Mit<br />
dem ML-Prinzip ist diese Bedingung noch genauer gefasst worden.<br />
In diesem Abschnitt möchte ich nun mit einer formalen Methode das Ergebnis ˆp = p<br />
für beliebig genaue Approximierbarkeit durch ˆp (d.h. beliebig viele Neuronen) erneut<br />
ableiten. Dazu betrachtet man die Log-Likelihood aus (1-7) und erweitert sie zu dem