Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Kapitel 4<br />
Neuigkeitsorientiertes Lernen<br />
In Kapitel 2 wurde die Verschiebung des Phasenübergangs durch die dynamische Kopplung<br />
<strong>von</strong> Codebuch und System als das on-line Lernproblem des univar-Algorithmus<br />
entdeckt. Dort ergab sich als natürliches Maß für die effektive Beweglichkeit der Codebuchzentren<br />
die inversen Längen des Gedächtniskernes, also im wesentlichen der<br />
Lernparameter ε, moduliert durch die räumliche Aufteilung des Merkmalsraumes, die<br />
durch ar(x) vorgenommen wird. In Zusammenhang mit Abb. 26 konnte gezeigt werden,<br />
dass räumliche Kompetition die effektive Lerndynamik so stark verlangsamen<br />
kann, dass die Dynamikkopplung aufgehoben wird und ein Phasenübergang geschieht.<br />
Phasenübergang und Entkopplung bedingen einander dabei gegenseitig.<br />
Im letzten Kapitel wurde daraufhin anhand des Gewöhnungsverhaltens <strong>von</strong> Aplysia<br />
eine weitere Möglichkeit zur Modulation der Lernrate entdeckt, und zwar der Faktor<br />
f in der Lernregel (3-1). Dieser ist nicht primär räumlicher, sondern auch zeitlicher<br />
Natur, da er <strong>von</strong> Aplysia als Filter für zeitlich redundante Daten verwendet wird. Die<br />
neurophysiologischen Untersuchungen an Aplysia wurden nicht so weit betrieben, dass<br />
sich bereits eine Regel erkennen ließe, wie f aus dem aktuellen Reiz x und dem Netzwerkzustand<br />
θ, der das effektive Gedächtnis an die vergangenen Reizmuster ist, zu<br />
berechnen sei. Da der univar-Algorithmus kein physiologienahes Modell ist, wie aus<br />
Abschnitt 1.2 ersichtlich wird, wäre dieser Ansatz hier auch nicht angemessen. Vielmehr<br />
soll nur das Prinzip der Datenfilterung <strong>von</strong> Aplysia übernommen werden. Dazu<br />
wurde bemerkt, dass f, welches ja die Netzwerkparameter θ verändern soll, auf jeden<br />
Fall auch <strong>von</strong> θ abhängen muss, was die Filterung <strong>von</strong> Datenpunkten selbstreferentiell<br />
werden lässt.<br />
An dieser Stelle soll nun ein konkreter Algorithmus vorgeschlagen werden, der durch<br />
die neue Lernregel (3-1) und eine einfache selbstreferentielle Regel für f(x, θ) in der<br />
Lage ist, die Lern- und die Systemdynamik so weit <strong>von</strong>einander zu trennen, dass ihre<br />
Kopplung zwar nicht immer vollständig unterbunden, aber auf jeden Fall abgeschwächt<br />
wird. Wegen dieser Eigenschaft werde ich ihn ANTS (Algorithm for Neural Timescale<br />
Separation) nennen. Er ist eine Modifikation des univar-Algorithmus und als solcher<br />
auch eine Art Dichteschätzer. Welche Verteilungsdichte er approximiert, und welche<br />
Änderungen an seinem dynamischen Verhalten sich daraus ergeben, wird auf den folgenden<br />
Seiten dargestellt.