Heuristiken
Heuristiken
Heuristiken
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Perceptron-<br />
Netzwerk<br />
Adaline-<br />
Netzwerk<br />
7.4 Perceptron, Adaline und Backpropagation<br />
Es gibt eine Reihe von verschiedenen Modellen Neuronaler Netze. Diese unterscheiden<br />
sich in der zugrundeliegenden Struktur, den verwendeten Eingabe-<br />
, Aktivierungs- und Ausgabefunktionen und den angewendeten Lernverfahren<br />
bzw. Lernalgorithmen.<br />
Das rückkopplungsfreiePerceptron-Netzwerk , welches 1958 von ROSEN-<br />
BLATT [] entwickelt wurde, besteht aus drei Ebenen; es enthält also eine versteckte<br />
Schicht.<br />
Die Verbindung zwischen der Eingabe- und der mittleren Schicht ist aber mit<br />
festen, nicht lernenden Gewichten versehen. Die Neuronen der mittleren<br />
und der Ausgabeschicht stehen alle durch lernfähige Gewichte miteinander in<br />
Verbindung.<br />
Das Percepton lernt aus Beispielen und arbeitet mit der Hebb-Regel. Als Aktivierungsfunktion<br />
werden die Identität und binäre Schwellwerte eingesetzt.<br />
Einfache Klassifizierungsprobleme können relativ gut mit dem Perceptron gelöst<br />
werden.<br />
Das Adaline-Netzwerk (Adaptive Linear Neuron Network) wurde von WIDROW<br />
und HOFF 1960 [] veröffentlicht. Es besteht aus zwei Schichten, ist rückkopplungsfrei,<br />
arbeitet mit einer binären Schwellwertfunktion und verwendet die<br />
Delta-Regel als Lernregel.<br />
Das Adaline-Netzwerk kann wie alle Netzwerke mit zwei Schichten nur linear<br />
separierbare Funktionen erlernen, bietet jedoch gegenüber dem Perceptron den<br />
Vorteil der Möglichkeit zur Ausgabe reellwertiger Zahlen.<br />
Backpropagation-Das<br />
Backpropagation-Netzwerk (oder mehrschichtiges Perzeptron) ist das<br />
Netzwerk wohl populärste neuronale Netz, da es auch nicht linear separierbare Problemstellungen<br />
lösen kann. Es wurde Mitte der 80er Jahre von RUMEL-<br />
HART, HINTON und WILLIAMS [] entwickelt und ist ein rückkopplungsfreies<br />
Netzwerk, das neben der Ein- und der Ausgabeschicht beliebig viele weitere Zwischenschichten<br />
haben kann. Die verdeckten Schichten und die Ausgabeschicht<br />
sind vollständig miteinander verbunden.<br />
Die verwendete Lernregel ist die verallgemeinerte Delta-Regel.<br />
Als Aktivierungsfunktion wird meist eine sigmoidale Funktion eingesetzt.<br />
Das Backpropagation-Netzwerk wird insbesondere dann eingesetzt, wenn ein<br />
Problem mit nichtlinearen Beziehungen zwischen Ein- und Ausgabedaten<br />
41