Neuronale Netze - D. Kriesel
Neuronale Netze - D. Kriesel
Neuronale Netze - D. Kriesel
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Wir erinnern uns an die Lernvorschrift für SOMs<br />
∆ck = η(t) · h(i, k, t) · (p − ck)<br />
und arbeiten die drei Faktoren von hinten nach vorne ab:<br />
Lernrichtung: Wir erinnern uns, dass die Neuronenzentren ck Vektoren im Eingangsraum<br />
sind, genau wie das Muster p. Der Faktor (p − ck) gibt uns also den Vektor<br />
vom Neuron k zum Muster p an. Dieser wird nun mit verschiedenen Skalaren<br />
multipliziert:<br />
Unsere Topologiefunktion h besagt, dass nur das Gewinnerneuron und seine beiden<br />
nächsten Nachbarn (hier: 2 und 4) lernen dürfen, indem sie bei allen anderen<br />
Neuronen 0 ausgibt. Eine Zeitabhängigkeit ist nicht gegeben. Unser Vektor (p −<br />
ck) wird also entweder mit 1 oder mit 0 multipliziert.<br />
Die Lernrate gibt, wie immer, die Stärke des Lernens an. Es gilt wie schon gesagt η =<br />
0.5 – wir kommen also insgesamt auf das Ergebnis, dass sich das Gewinnerneuron<br />
und seine Nachbarn (hier: Die Neurone 2, 3 und 4) dem Muster p um die Hälfte<br />
des Weges nähern (dies markieren die Pfeile in der Abbildung).<br />
Obwohl das Zentrum von Neuron 7 vom Eingangsraum aus gesehen wesentlich näher<br />
am Eingangsmuster p liegt als das Neuron 2, lernt das Neuron 2, und das Neuron 7 nicht.<br />
Ich möchte daran noch einmal deutlich machen, dass die Netztopologie bestimmt,<br />
welches Neuron mitlernen darf, und nicht die Lage im Eingangsraum. Dies ist genau der<br />
Mechanismus, durch den eine Topologie einen Eingangsraum aussagekräftig abdecken<br />
kann, ohne mit ihm auf irgendeine Weise verwandt sein zu müssen.<br />
Nach der Adaption der Neurone 2, 3 und 4 wird das nächste Muster angelegt, und so<br />
weiter, und so fort. Ein weiteres Beispiel, wie sich eine solche eindimensionale SOM<br />
im zweidimensionalen Inputraum bei gleichverteilten Inputmustern über die Zeit entwickeln<br />
kann, sehen wir an der Abbildung 10.5 auf Seite 193.<br />
Endzustände von ein- und zweidimensionalen SOMs bei verschieden geformten Inputräumen<br />
sehen wir in der Abbildung 10.6 auf Seite 194. Wie wir sehen, sind nicht alle<br />
Inputräume durch jede Netztopologie schön abdeckbar, es gibt sogenannte freiliegende<br />
Neurone – Neurone, welche in einem Bereich liegen, in dem kein Inputmuster je aufgetreten<br />
ist. Eine eindimensionale Topologie produziert in der Regel weniger freiliegende<br />
Neurone als eine zweidimensionale: Beispielsweise beim Training auf ringförmig angeordnete<br />
Eingabemuster ist es bei einer zweidimensionalen quadratischen Topologie so<br />
gut wie unmöglich, die freiliegenden Neurone in der Mitte des Rings zu verhindern – diese<br />
werden ja während des Trainings in jede Richtung gezogen, so dass sie schlussendlich<br />
einfach in der Mitte bleiben. Das macht die eindimensionale Topologie aber keineswegs