Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
3. Neuronale Gewöhnung in Aplysia californica 75<br />
Diese Vereinfachung kann sowohl auf die Verarbeitung <strong>von</strong> Reizmustern angewandt<br />
werden, bei der das Signal lediglich an Motorneuronen oder weitere Netzwerkschichten<br />
weitergegeben wird, als auch auf den gleichzeitig stattfindenden Lernprozess. Für den<br />
univar-Algorithmus, der gemäß der kompetitiven Hebb’schen Regel lernt, muss nun<br />
die entsprechende Regel für unnormierte Reizmuster gefunden werden. Dazu wird das<br />
unnormierte Reizmuster zum Zeitpunkt t in seine Norm f(t) und das auf eins normierte<br />
Muster h(t) zerlegt. Der Gesamtreiz fh wird nun in Gleichung (1-67) eingesetzt, die<br />
ar-Terme ändern sich wegen der kompetitiven Normierung der Aktivitäten in (1-63)<br />
nicht. Aus der kompetitiven Lernregel (1-70) für die Codebuchzentren cr wird dann<br />
cr(t) = cr(t − 1) + εf(t) ar(t) � x(t) − cr(t − 1) � , (3-1)<br />
wobei ar und x dieselben Größen sind wie in der ursprünglichen Version mit normierten<br />
Reizen. Es ist also nur der Term f(t) zur Lernrate hinzugefügt worden.<br />
Es stellen sich zwei Fragen; erstens, wie das Gewicht f(t) aus x(t) und θ(t) bestimmt<br />
werden kann, und zweitens, welche Auswirkungen f(t) auf das univar-Lernen hat. Hinsichtlich<br />
der ersten Frage kann aus Aplysias Gewöhnungsverhalten geschlossen werden,<br />
dass sie zwischen bekannten, sich ständig wiederholenden Reizen, und neuen, für sie<br />
interessanten unterscheidet. Übertragen auf den univar-Algorithmus wäre also zur<br />
Festlegung der Relevanz f(t) des aktuellen Datenpunktes ein Maß für seine ” Neuheit“<br />
anzugeben.<br />
Will man beispielsweise den Gewöhnungsprozess <strong>von</strong> Aplysia auf das univar-Lernen<br />
übertragen, so würde dieser durch stetig sinkende Werte <strong>von</strong> f ausgedrückt. Zur Sensibilisierung<br />
durch ” neue“ Reize sollte f schlagartig wieder auf 1 gesetzt werden. Auf<br />
diese Weise kann f die Gedächtniskerne der Neuronen modulieren und diejenigen Daten<br />
schwächer gewichten, die für das MVNN – wie wiederholte Kiemenberührungen für die<br />
Aplysia – uninteressant sind. Diese Daten würden dann effektiv aus dem Strom der gelernten<br />
Daten ausgeschnitten. Im optimalen Fall sähe die Sequenz der gelernten Punkte<br />
wie in Abb. 7 aus. An Abb. 26c2 wurde bereits festgestellt, dass Gedächtniskerne mit<br />
Lücken nach Gleichung (2-17) länger sind als solche ohne Lücken. Indem f als Datenselektor<br />
fungiert, verlangsamt es die effektive Lerndynamik so, dass sie <strong>von</strong> der<br />
Systemdynamik abgekoppelt werden kann.<br />
Die zweite Frage zielt auf den Zweck der Einführung <strong>von</strong> f(t) ab. In Kapitel 2 wurde<br />
der Zusammenhang zwischen εar(x(t)) und der effektiven Lerndynamik des MVNN<br />
diskutiert. Hier wird nun ein zusätzlicher Term eingefügt, der diese Dynamik modulieren<br />
kann. Durch kleineres f wird die Lerngeschwindigkeit vermindert, und es besteht<br />
die begründete Hoffnung, dass dadurch die Effekte der dynamischen Kopplung an den<br />
on-line Datenstrom abgeschwächt werden können. Wichtig ist dabei, dass f kein konstanter<br />
Faktor sein darf, sondern sowohl vom aktuellen Datenpunkt x(t) als auch <strong>von</strong><br />
der Vorgeschichte des MVNN, also seinen Netzwerkparametern θ abhängen muss. Dadurch<br />
wird die Lerndynamik nicht, wie im Übergang <strong>von</strong> Abb. 23a nach 23b, insgesamt<br />
verlangsamt, sondern nur an denjenigen Stellen im Datenstrom, an denen dies nötig<br />
ist, die also redundante Daten enthalten.