28.09.2013 Aufrufe

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

Neuronale Netze - D. Kriesel

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Wir erinnern uns an die Lernvorschrift für SOMs<br />

∆ck = η(t) · h(i, k, t) · (p − ck)<br />

und arbeiten die drei Faktoren von hinten nach vorne ab:<br />

Lernrichtung: Wir erinnern uns, dass die Neuronenzentren ck Vektoren im Eingangsraum<br />

sind, genau wie das Muster p. Der Faktor (p − ck) gibt uns also den Vektor<br />

vom Neuron k zum Muster p an. Dieser wird nun mit verschiedenen Skalaren<br />

multipliziert:<br />

Unsere Topologiefunktion h besagt, dass nur das Gewinnerneuron und seine beiden<br />

nächsten Nachbarn (hier: 2 und 4) lernen dürfen, indem sie bei allen anderen<br />

Neuronen 0 ausgibt. Eine Zeitabhängigkeit ist nicht gegeben. Unser Vektor (p −<br />

ck) wird also entweder mit 1 oder mit 0 multipliziert.<br />

Die Lernrate gibt, wie immer, die Stärke des Lernens an. Es gilt wie schon gesagt η =<br />

0.5 – wir kommen also insgesamt auf das Ergebnis, dass sich das Gewinnerneuron<br />

und seine Nachbarn (hier: Die Neurone 2, 3 und 4) dem Muster p um die Hälfte<br />

des Weges nähern (dies markieren die Pfeile in der Abbildung).<br />

Obwohl das Zentrum von Neuron 7 vom Eingangsraum aus gesehen wesentlich näher<br />

am Eingangsmuster p liegt als das Neuron 2, lernt das Neuron 2, und das Neuron 7 nicht.<br />

Ich möchte daran noch einmal deutlich machen, dass die Netztopologie bestimmt,<br />

welches Neuron mitlernen darf, und nicht die Lage im Eingangsraum. Dies ist genau der<br />

Mechanismus, durch den eine Topologie einen Eingangsraum aussagekräftig abdecken<br />

kann, ohne mit ihm auf irgendeine Weise verwandt sein zu müssen.<br />

Nach der Adaption der Neurone 2, 3 und 4 wird das nächste Muster angelegt, und so<br />

weiter, und so fort. Ein weiteres Beispiel, wie sich eine solche eindimensionale SOM<br />

im zweidimensionalen Inputraum bei gleichverteilten Inputmustern über die Zeit entwickeln<br />

kann, sehen wir an der Abbildung 10.5 auf Seite 193.<br />

Endzustände von ein- und zweidimensionalen SOMs bei verschieden geformten Inputräumen<br />

sehen wir in der Abbildung 10.6 auf Seite 194. Wie wir sehen, sind nicht alle<br />

Inputräume durch jede Netztopologie schön abdeckbar, es gibt sogenannte freiliegende<br />

Neurone – Neurone, welche in einem Bereich liegen, in dem kein Inputmuster je aufgetreten<br />

ist. Eine eindimensionale Topologie produziert in der Regel weniger freiliegende<br />

Neurone als eine zweidimensionale: Beispielsweise beim Training auf ringförmig angeordnete<br />

Eingabemuster ist es bei einer zweidimensionalen quadratischen Topologie so<br />

gut wie unmöglich, die freiliegenden Neurone in der Mitte des Rings zu verhindern – diese<br />

werden ja während des Trainings in jede Richtung gezogen, so dass sie schlussendlich<br />

einfach in der Mitte bleiben. Das macht die eindimensionale Topologie aber keineswegs

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!