22.12.2013 Aufrufe

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

3 Modelle<br />

Im Laufe der letzen fünfzehn Jahre sind unzählige Modelle entstanden, die meistens für einen bestimmten Aufgabentyp<br />

entwickelt wurden oder einen bestimmten biologischen Aspekt aufzeigen wollten. Darum kann man eigentlich<br />

nicht sagen, dass ein Modell besser oder leistungsfähiger ist als das andere, man kann höchstens sagen, dass es für<br />

eine bestimmte Aufgabe besser geeignet ist. Von all den Modellen, die existieren, wurde hier eine Auswahl unter<br />

den interessantesten und bekanntesten KNN gemacht.<br />

3.1 Perzeptron 7,8<br />

Das Perzeptron wurde schon in den 60er Jahren entwickelt und ist eigentlich der Vorfahre der anderen Modelle.<br />

Anhand <strong>von</strong> ihm wurden das erste Mal die oben beschriebenen theoretischen Voraussetzungen für KNN definiert.<br />

3.1.1 Aufbau eines Perzeptrons<br />

Abb. 7: Ein einstufiges Perzeptron<br />

Das Perzeptron besteht aus zwei Schichten. In der ersten Schicht hat<br />

es n Neuronen, die über trainierbare Verbindungen vollständig mit den<br />

nächsten Zellen verbunden sind. Die zweite Schicht ist die Ausgabeschicht<br />

und besteht aus nur einem Neuron, das die Nummer n + 1 = j hat. Die<br />

Eingabe, Aktivierung und Ausgabe der Neuronen dürfen nur binäre Werte<br />

annehmen, jedoch sind die Gewichte und Schwellenwerte reelle Zahlen.<br />

Daraus folgt, dass die Aktivierungsfunktion die Schwellenwertfunktion<br />

sein muss. Der Output des Neurons j ist also 1, wenn der Input net j grösser ist als der Schwellenwert θ j des<br />

Neurons j, andernfalls 0. Mathematisch ausgedrückt:<br />

⎧<br />

⎨ 1 falls net j ≥ θ j<br />

o j = a j =<br />

, mit net<br />

⎩<br />

j =<br />

0 falls net j < θ j<br />

n∑<br />

o i · w ij<br />

Interessant ist es nun zu untersuchen, welche binären Funktionen sich mit einem solch einfachen Netz lösen lassen.<br />

Die Topologie des Perzeptrons setzt voraus, dass nur binäre Funktionen, die jedem möglichen n-dimensionalen<br />

Eingabevektor entweder die Zahl 0 oder 1 zuordnen, in Frage kommen. Im nächsten Abschnitt wird die Frage<br />

geklärt, ob jede beliebige binäre Funktion <strong>von</strong> einem Perzeptron dargestellt werden kann.<br />

3.1.2 Lineare Trennbarkeit<br />

Die lineare Trennbarkeit lässt sich am besten anhand eines Beispiels auf-<br />

zeigen. Ein Perzeptron mit zwei Eingabeneuronen soll die logische AND-<br />

Funktion ausführen, d.h. nur eine 1 ausgeben, wenn beide Eingaben 1<br />

sind, sonst soll es eine 0 ausgeben. Mathematisch:<br />

o j = 1 , falls net j = o 1 w 1j + o 2 w 2j ≥ θ j .<br />

Für w 2j > 0 ist dies äquivalent zu der Ungleichung<br />

i=1<br />

o 2 ≥ 1<br />

w 2j<br />

(θ j − o 1 w 1j ).<br />

Abb. 8: Lineare Trennbarkeit<br />

Da w 1j , w 2j und θ j konstant sind, beschreibt diese Ungleichung eine Halbebene in der durch o 1 und o 2 gebildeten<br />

Ebene (siehe Abb. 8). Bei positivem w 2j stellen alle Gitterpunkte innerhalb dieser Halbebene Kombinationen <strong>von</strong><br />

o 1 und o 2 dar, für welche die Ausgabe 1 ist, ausserhalb ist die Ausgabe 0. Wenn man w 1j , w 2j und θ j z.B. so wählt,<br />

12

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!