21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Appendix C<br />

Ergebnisse der Variationsrechnung<br />

In diesem Anhang wird eine der zentralen Eigenschaften des ANTS-Algorithmus begründet,<br />

nämlich dass er den unteren Stumpf einer Verteilungsdichte p approximiert.<br />

Die dafür verwendete Methode ist die Variationsrechnung. Da sich dieser Kalkül aber<br />

nicht auf beliebige Funktionen p anwenden lässt, gelten die im folgenden gemachten<br />

Aussagen nicht in aller mathematischer Strenge, sondern sind als Heuristiken zu verstehen,<br />

die in vielen Fällen unter Verwendung <strong>von</strong> ausreichend gutartigen Funktionenklassen<br />

richtig sind.<br />

Zunächst möchte ich an einem einfachen Beispiel demonstrieren, wie die Verwendung<br />

des Variationskalküls viele ansonsten schwer zu beweisende Aussagen vereinfacht. Anschließend<br />

soll das stationäre Verhalten des ANTS-Algorithmus untersucht und die<br />

Behauptung (4-14) gezeigt werden.<br />

C.1 Warum eine ML-Schätzung die Verteilungsdichte<br />

approximiert<br />

In Abschnitt 1.1 wurde klar, dass der stationäre Zustand des multivar-Algorithmus, der<br />

durch die Gleichungen (1-13) bis (1-15) charakterisiert ist, eine Maximum-likelihood-<br />

Dichteschätzung darstellt. Anhand der Erklärung des ML-Prinzips auf den Seiten 15f<br />

wurde klar, dass es sich bei ˆp tatsächlich um ein Modell der Verteilungsdichte p handelt,<br />

die dem Datensatz zugrundeliegt. Diese Frage, ob p und ˆp im Idealfall eines<br />

vollständigen Datensatzes und einer beliebig guten Approximationsfähigkeit durch ˆp<br />

gleich werden können, wurde <strong>von</strong> Dersch (1995) beantwortet, der die mögliche Gleichheit<br />

<strong>von</strong> p und ˆp feststellte. Als Bedingung nannte er, dass die Breiten der verwendeten<br />

Normalverteilungen <strong>von</strong> der gleichen Größenordnung sein sollen wie ihre Abstände. Mit<br />

dem ML-Prinzip ist diese Bedingung noch genauer gefasst worden.<br />

In diesem Abschnitt möchte ich nun mit einer formalen Methode das Ergebnis ˆp = p<br />

für beliebig genaue Approximierbarkeit durch ˆp (d.h. beliebig viele Neuronen) erneut<br />

ableiten. Dazu betrachtet man die Log-Likelihood aus (1-7) und erweitert sie zu dem

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!