22.12.2013 Aufrufe

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Hierarchische Elman-Netze sind eine Verallgemeinerung des Prinzips des Elman-Netzes auf mehrstufige feedforward-<br />

Netze. Neben der Eingabeschicht existieren auch bei allen verdeckten Schichten Kontextzellen, die ihren Input <strong>von</strong><br />

der nächsten Schicht erhalten, aber auch <strong>von</strong> sich selbst. Die Gewichte λ i können in den verschiedenen Kontextschichten<br />

unterschiedliche Werte einnehmen und zeigen somit unterschiedliches Speicherverhalten.<br />

3.4.2 <strong>Lernverfahren</strong> für rekurrente Netze<br />

Auf der Suche nach geeigneten <strong>Lernverfahren</strong> für Jordan- und Elman-Netze bemerkte man, dass, wenn man die<br />

Gewichte der rekurrenten Verbindungen, d.h. der Verbindungen zu den Kontextzellen, vor der eigentlichen Lernphase<br />

fest wählt, das Backpropagation-<strong>Lernverfahren</strong> angewendet werden kann. Die Kontextzellen werden dann<br />

einfach wie Eingabezellen behandelt.<br />

Das Training eines partiell rekurrenten Netzes würde also folgendermassen ablaufen:<br />

1. Die Gewichte der Verbindungen zu den Kontextzellen werden festgelegt. Den indirekten Verbindungen wird<br />

meist das Gewicht 1 zugeordnet.<br />

2. Für jedes Trainingsmuster wird dann ähnlich wie bei Backpropagation folgendes durchgeführt:<br />

- Aus dem Eingabemuster wird ohne Beachtung der rekurrenten Verbindungen die Ausgabe berechnet.<br />

- Berechnung der Fehlersignale für jede Ausgabezelle aus der Differenz zwischen erwünschter und tatsächlicher<br />

Ausgabe.<br />

- Rückwärtspropagierung der Fehlersignale <strong>von</strong> der Ausgabeschicht bis zur Eingabeschicht. Die rekurrenten<br />

Verbindungen werden ignoriert.<br />

- Berechnung der Gewichtsänderungen mit Hilfe der Fehlersignale und Adaption der Gewichte.<br />

- Berechnung des Zustands der Kontextzellen für den nächsten Durchgang aus den Ausgabezellen oder<br />

Kontextzellen selber. Dies ist der einzige Schritt, der unterschiedlich zum Backpropagation-Verfahren<br />

ist.<br />

3.5 Modell <strong>von</strong> Kohonen 15<br />

Bis jetzt sind erst <strong>Lernverfahren</strong> vorgestellt worden, die mit Hilfe<br />

eines ”Lehrers” gelernt haben, d.h. dass dem Netz zu jedem Eingabemuster<br />

auch das dazugehörige Ausgabemuster präsentiert wurde. Wie<br />

können aber KNN lernen, ohne dass sie wissen, wie der richtige Output<br />

auszusehen hat? Mit dieser Frage hat sich der finnische Ingenieur Teuvo<br />

Kohonen anfangs der 80er Jahre auseinandergesetzt und dabei die<br />

sog. selbstorganisierenden Karten entwickelt. Diese besitzen erstaunliche<br />

Eigenschaften.<br />

3.5.1 Prinzip der selbstorganisierenden Karten<br />

Abb. 16: Ein Kohonen-Netzwerk<br />

Kohonen-Netzwerke bestehen aus zwei Schichten, einer Eingabe- und einer Kohonenschicht (entspricht der Ausgabeschicht).<br />

Alle Neuronen der Eingabeschicht sind vollständig mit der Kohonenschicht verbunden. In der Kohonenschicht<br />

sind zusätzlich alle Neuronen untereinander verbunden. Es existieren jedoch keine direkten Rückkopplungen.<br />

Die selbstorganisierenden Karten lernen mit einem unüberwachten <strong>Lernverfahren</strong>, d.h. dem Netz werden nur mehrere<br />

Eingabemuster präsentiert, die Lösung muss dieses aber selber finden. Damit steht es <strong>von</strong> allen Modellen, die<br />

bisher vorgestellt wurden unserem Gehirn eindeutig am nächsten. Tatsächlich kann man bei ihm viele Parallelen<br />

22

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!