Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
ar(t+1) = Θ ��<br />
q<br />
E.2 Lernende Neuronale Netze 3<br />
� �<br />
� 1 falls q wrqaq(t) − sr :=<br />
wrqaq(t) > sr,<br />
0 sonst.<br />
Der Schwellenwert sr ist mithin einer der zusätzlich zu den wqr zu spezifizierenden<br />
Parameter aus der Menge θ.<br />
Feed-forward-Netzwerke<br />
Alle in der vorliegenden Arbeit verwendeten Netzwerke sind feed-forward-Schichtennetze.<br />
Allgemein sind sie dadurch definiert, dass sich ihre Knoten so in Untermengen<br />
einteilen lassen, dass die Aktivitätsberechnung in einer Menge lediglich die Aktivitäten<br />
einer weiteren Menge benötigt. Die Mengen sind auf diese Weise hintereinandergeschaltet.<br />
Abbildung 2 zeigt den Graphen eines einfachen feed-forward Netzes aus zwei<br />
Schichten, welches nach Rosenblatt (1958) als Perzeptron bezeichnet wird. Die Aktivitäten<br />
a der unteren Schicht hängen nur <strong>von</strong> denen der oberen Schicht, x, ab. Die<br />
Aktivitäten x errechnen sich aus Eingaben, die nicht als Teil des Netzwerkes angesehen<br />
werden. Sie sind Reize, die dem Netz <strong>von</strong> außen präsentiert werden.<br />
Eingabeschicht<br />
aus N Knoten<br />
Ausgabeschicht<br />
aus M Knoten<br />
x1 x2 x3 x4 x5<br />
w11<br />
w31<br />
w21<br />
a1 a2 a3<br />
w35<br />
Aktivität x ∈ R N<br />
Aktivität a ∈ R M<br />
(3)<br />
Übertragungsgewichte<br />
W ∈ R N×M<br />
Abbildung 2: Das Perzeptron: ein feed-forward-Netz aus zwei Knotenschichten<br />
ohne laterale Verschaltung. Es gibt nur Kanten <strong>von</strong> allen oberen zu allen unteren<br />
Knoten. Eingezeichnet sind auch die Aktivitäten x und a der Knoten sowie die<br />
Übertragungsgewichte W der Kanten.<br />
E.2 Lernende Neuronale Netze<br />
Das Netzwerk aus Abb. 1 berechnet seine Aktivitäten immer und immer wieder, bis<br />
ein stationäres Aktivitätsmuster oder ein Grenzzyklus gefunden wurde. Feed-forward<br />
Netze propagieren jeden Reiz auf der Eingabeschicht einmal durch alle nachgeschalteten<br />
Schichten. Sie beide und jedes andere Neuronale Netz, das der Definition (2)<br />
entspricht, sind darauf angewiesen, die richtigen Parameter θ zu besitzen, die dem<br />
Problem angepasst sind, zu dessen Lösung das Netz eingesetzt werden soll. Es stellt<br />
sich nun die Frage, wie die Verschaltungen und die Parameter derart bestimmt werden<br />
können, dass ein Netz eine gegebene Aufgabe der Informationsverarbeitung löst.