21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

ar(t+1) = Θ ��<br />

q<br />

E.2 Lernende Neuronale Netze 3<br />

� �<br />

� 1 falls q wrqaq(t) − sr :=<br />

wrqaq(t) > sr,<br />

0 sonst.<br />

Der Schwellenwert sr ist mithin einer der zusätzlich zu den wqr zu spezifizierenden<br />

Parameter aus der Menge θ.<br />

Feed-forward-Netzwerke<br />

Alle in der vorliegenden Arbeit verwendeten Netzwerke sind feed-forward-Schichtennetze.<br />

Allgemein sind sie dadurch definiert, dass sich ihre Knoten so in Untermengen<br />

einteilen lassen, dass die Aktivitätsberechnung in einer Menge lediglich die Aktivitäten<br />

einer weiteren Menge benötigt. Die Mengen sind auf diese Weise hintereinandergeschaltet.<br />

Abbildung 2 zeigt den Graphen eines einfachen feed-forward Netzes aus zwei<br />

Schichten, welches nach Rosenblatt (1958) als Perzeptron bezeichnet wird. Die Aktivitäten<br />

a der unteren Schicht hängen nur <strong>von</strong> denen der oberen Schicht, x, ab. Die<br />

Aktivitäten x errechnen sich aus Eingaben, die nicht als Teil des Netzwerkes angesehen<br />

werden. Sie sind Reize, die dem Netz <strong>von</strong> außen präsentiert werden.<br />

Eingabeschicht<br />

aus N Knoten<br />

Ausgabeschicht<br />

aus M Knoten<br />

x1 x2 x3 x4 x5<br />

w11<br />

w31<br />

w21<br />

a1 a2 a3<br />

w35<br />

Aktivität x ∈ R N<br />

Aktivität a ∈ R M<br />

(3)<br />

Übertragungsgewichte<br />

W ∈ R N×M<br />

Abbildung 2: Das Perzeptron: ein feed-forward-Netz aus zwei Knotenschichten<br />

ohne laterale Verschaltung. Es gibt nur Kanten <strong>von</strong> allen oberen zu allen unteren<br />

Knoten. Eingezeichnet sind auch die Aktivitäten x und a der Knoten sowie die<br />

Übertragungsgewichte W der Kanten.<br />

E.2 Lernende Neuronale Netze<br />

Das Netzwerk aus Abb. 1 berechnet seine Aktivitäten immer und immer wieder, bis<br />

ein stationäres Aktivitätsmuster oder ein Grenzzyklus gefunden wurde. Feed-forward<br />

Netze propagieren jeden Reiz auf der Eingabeschicht einmal durch alle nachgeschalteten<br />

Schichten. Sie beide und jedes andere Neuronale Netz, das der Definition (2)<br />

entspricht, sind darauf angewiesen, die richtigen Parameter θ zu besitzen, die dem<br />

Problem angepasst sind, zu dessen Lösung das Netz eingesetzt werden soll. Es stellt<br />

sich nun die Frage, wie die Verschaltungen und die Parameter derart bestimmt werden<br />

können, dass ein Netz eine gegebene Aufgabe der Informationsverarbeitung löst.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!