Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Kapitel 2<br />
On-line Lernen mit univar<br />
In der Einleitung wurde anhand des einfachen ANN aus Abb. 6 und seiner Lernregel (15)<br />
der Widerstreit zwischen Lernen und Vergessen aufgezeigt, der für alle sequentiellen<br />
stochastischen Lernalgorithmen der Neuroinformatik charakteristisch ist, sobald zeitlich<br />
korrelierte Daten aus on-line Beobachtungen gelernt werden. Anhand <strong>von</strong> Abb. 6b<br />
wurde das Problem der Kopplung <strong>von</strong> Lern- und Systemdynamik erklärt.<br />
Es soll nun untersucht werden, welche Probleme tatsächlich bei dem Versuch auftreten,<br />
die Verteilungsdichte einer on-line Datensequenz mit dem im letzten Kapitel<br />
eingeführten MVNN zu approximieren. Wie bereits anhand <strong>von</strong> Abb. 13 begründet<br />
wurde, ist die erste Phase der multivariaten Dichteschätzung, die univar-Phase, für<br />
die dynamischen Aspekte des Lernens weit anfälliger als die zweite. Hier und in den<br />
restlichen Kapiteln der Arbeit wird deshalb <strong>von</strong> dem univariaten Fall des Dichtemodells<br />
(1-3) ausgegangen, bei dem alle Komponenten identische Varianzen und Gewichte<br />
haben,<br />
Σr = σ 2 I und Pr = 1/M ∀r ∈ {1, . . ., M}. (2-1)<br />
Da die wesentliche Eigenschaft des univar-Algorithmus das hierarchische Clustering<br />
ist, das durch den Aufspaltungsprozess des Codebuchs während des σ-Annealings erzeugt<br />
wird, muss das Problem des on-line Lernens anhand der Phasenübergänge demonstriert<br />
werden. Wie der erste Abschnitt qualitativ zeigen wird, kann auch hier eine<br />
starke Kopplung der Lern- and die Systemdynamik auftreten und die Phasenübergänge<br />
beeinflussen. Im zweiten Abschnitt werden die Effekte dieser Kopplung anhand eines<br />
stark vereinfachten prototypischen Modells quantitativ analysiert.<br />
Da der Begriff des on-line Lernens in der Neuroinformatik nicht durchgängig mit derselben<br />
Bedeutung verwendet wird, 1 möchte ich noch einmal kurz definieren, was in<br />
dieser Arbeit unter einem on-line lernenden ANN verstanden wird:<br />
Alle Datenpunkte werden in ihrer natürlichen Reihenfolge nacheinander (sequentiell)<br />
präsentiert, wodurch zeitliche Korrelationen im Datenstrom erhalten bleiben.<br />
1 Die meisten Autoren verwenden on-line synonym zu sequentiell. In den wenigen Arbeiten, die sich<br />
mit zeitlich korrelierten Daten beschäftigen, ist deshalb <strong>von</strong> natürlichem on-line Lernen im Gegensatz<br />
zum randomisierten Lernen (Heskes & Wiegerinck, 1998) oder <strong>von</strong> veränderlichen Umgebungen<br />
(Heskes & Kappen, 1993) die Rede. Ich werde bei der einfachen Unterscheidung zwischen sequentiell<br />
und on-line bleiben.