21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Kapitel 2<br />

On-line Lernen mit univar<br />

In der Einleitung wurde anhand des einfachen ANN aus Abb. 6 und seiner Lernregel (15)<br />

der Widerstreit zwischen Lernen und Vergessen aufgezeigt, der für alle sequentiellen<br />

stochastischen Lernalgorithmen der Neuroinformatik charakteristisch ist, sobald zeitlich<br />

korrelierte Daten aus on-line Beobachtungen gelernt werden. Anhand <strong>von</strong> Abb. 6b<br />

wurde das Problem der Kopplung <strong>von</strong> Lern- und Systemdynamik erklärt.<br />

Es soll nun untersucht werden, welche Probleme tatsächlich bei dem Versuch auftreten,<br />

die Verteilungsdichte einer on-line Datensequenz mit dem im letzten Kapitel<br />

eingeführten MVNN zu approximieren. Wie bereits anhand <strong>von</strong> Abb. 13 begründet<br />

wurde, ist die erste Phase der multivariaten Dichteschätzung, die univar-Phase, für<br />

die dynamischen Aspekte des Lernens weit anfälliger als die zweite. Hier und in den<br />

restlichen Kapiteln der Arbeit wird deshalb <strong>von</strong> dem univariaten Fall des Dichtemodells<br />

(1-3) ausgegangen, bei dem alle Komponenten identische Varianzen und Gewichte<br />

haben,<br />

Σr = σ 2 I und Pr = 1/M ∀r ∈ {1, . . ., M}. (2-1)<br />

Da die wesentliche Eigenschaft des univar-Algorithmus das hierarchische Clustering<br />

ist, das durch den Aufspaltungsprozess des Codebuchs während des σ-Annealings erzeugt<br />

wird, muss das Problem des on-line Lernens anhand der Phasenübergänge demonstriert<br />

werden. Wie der erste Abschnitt qualitativ zeigen wird, kann auch hier eine<br />

starke Kopplung der Lern- and die Systemdynamik auftreten und die Phasenübergänge<br />

beeinflussen. Im zweiten Abschnitt werden die Effekte dieser Kopplung anhand eines<br />

stark vereinfachten prototypischen Modells quantitativ analysiert.<br />

Da der Begriff des on-line Lernens in der Neuroinformatik nicht durchgängig mit derselben<br />

Bedeutung verwendet wird, 1 möchte ich noch einmal kurz definieren, was in<br />

dieser Arbeit unter einem on-line lernenden ANN verstanden wird:<br />

Alle Datenpunkte werden in ihrer natürlichen Reihenfolge nacheinander (sequentiell)<br />

präsentiert, wodurch zeitliche Korrelationen im Datenstrom erhalten bleiben.<br />

1 Die meisten Autoren verwenden on-line synonym zu sequentiell. In den wenigen Arbeiten, die sich<br />

mit zeitlich korrelierten Daten beschäftigen, ist deshalb <strong>von</strong> natürlichem on-line Lernen im Gegensatz<br />

zum randomisierten Lernen (Heskes & Wiegerinck, 1998) oder <strong>von</strong> veränderlichen Umgebungen<br />

(Heskes & Kappen, 1993) die Rede. Ich werde bei der einfachen Unterscheidung zwischen sequentiell<br />

und on-line bleiben.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!