21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

3. Neuronale Gewöhnung in Aplysia californica 75<br />

Diese Vereinfachung kann sowohl auf die Verarbeitung <strong>von</strong> Reizmustern angewandt<br />

werden, bei der das Signal lediglich an Motorneuronen oder weitere Netzwerkschichten<br />

weitergegeben wird, als auch auf den gleichzeitig stattfindenden Lernprozess. Für den<br />

univar-Algorithmus, der gemäß der kompetitiven Hebb’schen Regel lernt, muss nun<br />

die entsprechende Regel für unnormierte Reizmuster gefunden werden. Dazu wird das<br />

unnormierte Reizmuster zum Zeitpunkt t in seine Norm f(t) und das auf eins normierte<br />

Muster h(t) zerlegt. Der Gesamtreiz fh wird nun in Gleichung (1-67) eingesetzt, die<br />

ar-Terme ändern sich wegen der kompetitiven Normierung der Aktivitäten in (1-63)<br />

nicht. Aus der kompetitiven Lernregel (1-70) für die Codebuchzentren cr wird dann<br />

cr(t) = cr(t − 1) + εf(t) ar(t) � x(t) − cr(t − 1) � , (3-1)<br />

wobei ar und x dieselben Größen sind wie in der ursprünglichen Version mit normierten<br />

Reizen. Es ist also nur der Term f(t) zur Lernrate hinzugefügt worden.<br />

Es stellen sich zwei Fragen; erstens, wie das Gewicht f(t) aus x(t) und θ(t) bestimmt<br />

werden kann, und zweitens, welche Auswirkungen f(t) auf das univar-Lernen hat. Hinsichtlich<br />

der ersten Frage kann aus Aplysias Gewöhnungsverhalten geschlossen werden,<br />

dass sie zwischen bekannten, sich ständig wiederholenden Reizen, und neuen, für sie<br />

interessanten unterscheidet. Übertragen auf den univar-Algorithmus wäre also zur<br />

Festlegung der Relevanz f(t) des aktuellen Datenpunktes ein Maß für seine ” Neuheit“<br />

anzugeben.<br />

Will man beispielsweise den Gewöhnungsprozess <strong>von</strong> Aplysia auf das univar-Lernen<br />

übertragen, so würde dieser durch stetig sinkende Werte <strong>von</strong> f ausgedrückt. Zur Sensibilisierung<br />

durch ” neue“ Reize sollte f schlagartig wieder auf 1 gesetzt werden. Auf<br />

diese Weise kann f die Gedächtniskerne der Neuronen modulieren und diejenigen Daten<br />

schwächer gewichten, die für das MVNN – wie wiederholte Kiemenberührungen für die<br />

Aplysia – uninteressant sind. Diese Daten würden dann effektiv aus dem Strom der gelernten<br />

Daten ausgeschnitten. Im optimalen Fall sähe die Sequenz der gelernten Punkte<br />

wie in Abb. 7 aus. An Abb. 26c2 wurde bereits festgestellt, dass Gedächtniskerne mit<br />

Lücken nach Gleichung (2-17) länger sind als solche ohne Lücken. Indem f als Datenselektor<br />

fungiert, verlangsamt es die effektive Lerndynamik so, dass sie <strong>von</strong> der<br />

Systemdynamik abgekoppelt werden kann.<br />

Die zweite Frage zielt auf den Zweck der Einführung <strong>von</strong> f(t) ab. In Kapitel 2 wurde<br />

der Zusammenhang zwischen εar(x(t)) und der effektiven Lerndynamik des MVNN<br />

diskutiert. Hier wird nun ein zusätzlicher Term eingefügt, der diese Dynamik modulieren<br />

kann. Durch kleineres f wird die Lerngeschwindigkeit vermindert, und es besteht<br />

die begründete Hoffnung, dass dadurch die Effekte der dynamischen Kopplung an den<br />

on-line Datenstrom abgeschwächt werden können. Wichtig ist dabei, dass f kein konstanter<br />

Faktor sein darf, sondern sowohl vom aktuellen Datenpunkt x(t) als auch <strong>von</strong><br />

der Vorgeschichte des MVNN, also seinen Netzwerkparametern θ abhängen muss. Dadurch<br />

wird die Lerndynamik nicht, wie im Übergang <strong>von</strong> Abb. 23a nach 23b, insgesamt<br />

verlangsamt, sondern nur an denjenigen Stellen im Datenstrom, an denen dies nötig<br />

ist, die also redundante Daten enthalten.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!