21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Kapitel 4<br />

Neuigkeitsorientiertes Lernen<br />

In Kapitel 2 wurde die Verschiebung des Phasenübergangs durch die dynamische Kopplung<br />

<strong>von</strong> Codebuch und System als das on-line Lernproblem des univar-Algorithmus<br />

entdeckt. Dort ergab sich als natürliches Maß für die effektive Beweglichkeit der Codebuchzentren<br />

die inversen Längen des Gedächtniskernes, also im wesentlichen der<br />

Lernparameter ε, moduliert durch die räumliche Aufteilung des Merkmalsraumes, die<br />

durch ar(x) vorgenommen wird. In Zusammenhang mit Abb. 26 konnte gezeigt werden,<br />

dass räumliche Kompetition die effektive Lerndynamik so stark verlangsamen<br />

kann, dass die Dynamikkopplung aufgehoben wird und ein Phasenübergang geschieht.<br />

Phasenübergang und Entkopplung bedingen einander dabei gegenseitig.<br />

Im letzten Kapitel wurde daraufhin anhand des Gewöhnungsverhaltens <strong>von</strong> Aplysia<br />

eine weitere Möglichkeit zur Modulation der Lernrate entdeckt, und zwar der Faktor<br />

f in der Lernregel (3-1). Dieser ist nicht primär räumlicher, sondern auch zeitlicher<br />

Natur, da er <strong>von</strong> Aplysia als Filter für zeitlich redundante Daten verwendet wird. Die<br />

neurophysiologischen Untersuchungen an Aplysia wurden nicht so weit betrieben, dass<br />

sich bereits eine Regel erkennen ließe, wie f aus dem aktuellen Reiz x und dem Netzwerkzustand<br />

θ, der das effektive Gedächtnis an die vergangenen Reizmuster ist, zu<br />

berechnen sei. Da der univar-Algorithmus kein physiologienahes Modell ist, wie aus<br />

Abschnitt 1.2 ersichtlich wird, wäre dieser Ansatz hier auch nicht angemessen. Vielmehr<br />

soll nur das Prinzip der Datenfilterung <strong>von</strong> Aplysia übernommen werden. Dazu<br />

wurde bemerkt, dass f, welches ja die Netzwerkparameter θ verändern soll, auf jeden<br />

Fall auch <strong>von</strong> θ abhängen muss, was die Filterung <strong>von</strong> Datenpunkten selbstreferentiell<br />

werden lässt.<br />

An dieser Stelle soll nun ein konkreter Algorithmus vorgeschlagen werden, der durch<br />

die neue Lernregel (3-1) und eine einfache selbstreferentielle Regel für f(x, θ) in der<br />

Lage ist, die Lern- und die Systemdynamik so weit <strong>von</strong>einander zu trennen, dass ihre<br />

Kopplung zwar nicht immer vollständig unterbunden, aber auf jeden Fall abgeschwächt<br />

wird. Wegen dieser Eigenschaft werde ich ihn ANTS (Algorithm for Neural Timescale<br />

Separation) nennen. Er ist eine Modifikation des univar-Algorithmus und als solcher<br />

auch eine Art Dichteschätzer. Welche Verteilungsdichte er approximiert, und welche<br />

Änderungen an seinem dynamischen Verhalten sich daraus ergeben, wird auf den folgenden<br />

Seiten dargestellt.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!