Neuronale Netze - D. Kriesel
Neuronale Netze - D. Kriesel
Neuronale Netze - D. Kriesel
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Adaption der Zentren: Die Zentren der Neurone werden innerhalb des Eingangsraumes<br />
nach der Vorschrift 2<br />
∆ck = η(t) · h(i, k, t) · (p − ck),<br />
versetzt, wobei die Werte ∆ck einfach auf die bisherigen Zentren addiert werden.<br />
Aus dem letzten Faktor wird bereits offensichtlich, dass die Ortsänderung der<br />
Neurone k proportional zu der Entfernung zum eingegebenen Muster p und wie<br />
gewohnt zu einer zeitabhängigen Lernrate η(t) ist. Die oben besprochene Topologie<br />
des <strong>Netze</strong>s nimmt ihren Einfluss durch die Funktion h(i, k, t), die wir im<br />
Folgenden erforschen werden.<br />
Definition 10.4 (SOM-Lernregel). Eine SOM wird trainiert, indem ihr ein Eingabemuster<br />
präsentiert und das Gewinnerneuron dazu ermittelt wird. Das Gewinnerneuron<br />
und seine durch die Topologiefunktion definierten Nachbarneuronen adaptieren dann<br />
ihre Zentren nach der Vorschrift<br />
∆ck = η(t) · h(i, k, t) · (p − ck), (10.1)<br />
ck(t + 1) = ck(t) + ∆ck(t). (10.2)<br />
10.3.1 Die Topologiefunktion bestimmt, wie stark ein lernendes Neuron<br />
seine Nachbarn beeinflusst<br />
Die Topologiefunktion h ist nicht auf dem Eingangsraum, sondern auf dem Gitter<br />
definiert und stellt die Nachbarschaftsbeziehungen zwischen den Neuronen dar – also<br />
die Topologie des <strong>Netze</strong>s. Sie kann zeitabhängig sein (und ist es auch oft) – dies erklärt<br />
den Parameter t. Der Parameter k ist der durch alle Neurone laufende Index, und der<br />
Parameter i ist der Index des Gewinnerneurons.<br />
Prinzipiell ist der Sinn der Funktion, einen großen Wert anzunehmen, falls k Nachbar<br />
des Gewinners oder gar der Gewinner selbst ist, und kleine Werte, falls nicht. Schärfer<br />
definiert: Die Topologiefunktion muss unimodal sein, also genau ein Maximum besitzen<br />
– dieses Maximum muss beim Gewinnerneuron i liegen, das zu sich selbst natürlich die<br />
Entfernung 0 hat.<br />
Zusätzlich macht es uns die Zeitabhängigkeit beispielsweise möglich, die Nachbarschaft<br />
mit der Zeit schrumpfen zu lassen.<br />
2 Achtung: Viele Quellen schreiben diese Vorschrift ηh(p − ck), was dem Leser fälschlicherweise suggeriert,<br />
dass es sich bei h um eine Konstante handelt. Dieses Problem ist einfach lösbar, indem man die<br />
Multiplikationspunkte · nicht weglässt.