03.10.2013 Aufrufe

Heuristiken

Heuristiken

Heuristiken

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Perceptron-<br />

Netzwerk<br />

Adaline-<br />

Netzwerk<br />

7.4 Perceptron, Adaline und Backpropagation<br />

Es gibt eine Reihe von verschiedenen Modellen Neuronaler Netze. Diese unterscheiden<br />

sich in der zugrundeliegenden Struktur, den verwendeten Eingabe-<br />

, Aktivierungs- und Ausgabefunktionen und den angewendeten Lernverfahren<br />

bzw. Lernalgorithmen.<br />

Das rückkopplungsfreiePerceptron-Netzwerk , welches 1958 von ROSEN-<br />

BLATT [] entwickelt wurde, besteht aus drei Ebenen; es enthält also eine versteckte<br />

Schicht.<br />

Die Verbindung zwischen der Eingabe- und der mittleren Schicht ist aber mit<br />

festen, nicht lernenden Gewichten versehen. Die Neuronen der mittleren<br />

und der Ausgabeschicht stehen alle durch lernfähige Gewichte miteinander in<br />

Verbindung.<br />

Das Percepton lernt aus Beispielen und arbeitet mit der Hebb-Regel. Als Aktivierungsfunktion<br />

werden die Identität und binäre Schwellwerte eingesetzt.<br />

Einfache Klassifizierungsprobleme können relativ gut mit dem Perceptron gelöst<br />

werden.<br />

Das Adaline-Netzwerk (Adaptive Linear Neuron Network) wurde von WIDROW<br />

und HOFF 1960 [] veröffentlicht. Es besteht aus zwei Schichten, ist rückkopplungsfrei,<br />

arbeitet mit einer binären Schwellwertfunktion und verwendet die<br />

Delta-Regel als Lernregel.<br />

Das Adaline-Netzwerk kann wie alle Netzwerke mit zwei Schichten nur linear<br />

separierbare Funktionen erlernen, bietet jedoch gegenüber dem Perceptron den<br />

Vorteil der Möglichkeit zur Ausgabe reellwertiger Zahlen.<br />

Backpropagation-Das<br />

Backpropagation-Netzwerk (oder mehrschichtiges Perzeptron) ist das<br />

Netzwerk wohl populärste neuronale Netz, da es auch nicht linear separierbare Problemstellungen<br />

lösen kann. Es wurde Mitte der 80er Jahre von RUMEL-<br />

HART, HINTON und WILLIAMS [] entwickelt und ist ein rückkopplungsfreies<br />

Netzwerk, das neben der Ein- und der Ausgabeschicht beliebig viele weitere Zwischenschichten<br />

haben kann. Die verdeckten Schichten und die Ausgabeschicht<br />

sind vollständig miteinander verbunden.<br />

Die verwendete Lernregel ist die verallgemeinerte Delta-Regel.<br />

Als Aktivierungsfunktion wird meist eine sigmoidale Funktion eingesetzt.<br />

Das Backpropagation-Netzwerk wird insbesondere dann eingesetzt, wenn ein<br />

Problem mit nichtlinearen Beziehungen zwischen Ein- und Ausgabedaten<br />

41

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!