21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.5. NEURONALE NETZE (VA.2.2.3, 13.04.2004) 385<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

£<br />

<br />

<br />

<br />

<br />

Θs(y) =<br />

Bild 4.5.2: Die Sigmoid Funktion für drei Werte <strong>von</strong> α<br />

1 : y ≥ 0<br />

0 : y < 0<br />

<br />

(Schwellwertfunktion) . (4.5.3)<br />

Die Sigmoid Funktion (4.5.1) ist in Bild 4.5.2 gezeigt. Sie ist, speziell auch mit α = 1, eine<br />

übliche Wahl für die Nichtlinearität und lässt sich als Approximation eines Schwellwertes<br />

durch eine differenzierbare Funktion auffassen. Die Differenzierbarkeit ist für das unten gezeigte<br />

Training wichtig. Man erhält für die Ableitung<br />

dΘ(y)<br />

dy<br />

= αΘ(y) (1 − Θ(y)) . (4.5.4)<br />

Vom Anwender eines MLP sind eine Reihe <strong>von</strong> Entwurfsentscheidungen zu treffen. Die Eingabegrößen<br />

bzw. die Merkmale sind zu wählen; die Netzwerkstruktur muss festgelegt werden,<br />

d. h. wieviele verborgene Schichten gibt es und wieviele Knoten gibt es in einer verborgenen<br />

Schicht; eine bestimmte Nichtlinearität und ein Trainingsverfahren sind zu wählen; das Ergebnis<br />

muss geeignet kodiert werden, d. h. die Zahl der Ausgabeknoten und die Darstellung der<br />

Ausgabegröße muss gewählt werden. Die Klärung dieser Fragen erfolgt in der Regel durch vergleichende<br />

Experimente. Das Problem der Festlegung geeigneter Merkmale ist, wie in Kapitel 3<br />

erläutert, das Standardproblem der Mustererkennung. Zum Training der unbekannten Gewichte<br />

gibt es eine Reihe <strong>von</strong> Algorithmen, insbesondere die Fehlerrückführung in Satz 4.17. Für<br />

die Definition, Berechnung und das Training <strong>von</strong> MLP und anderen neuronalen Netzen gibt<br />

es verschiedene Softwarewerkzeuge, <strong>von</strong> denen einige auch Optionen zur automatischen Optimierung<br />

der Netzwerkstruktur enthalten. Die verfügbaren Softwarewerkzeuge, die sehr guten<br />

Leistungen bei der <strong>Klassifikation</strong> <strong>von</strong> <strong>Mustern</strong> (nach sorgfältiger experimenteller Festlegung<br />

obiger Fragen) sowie die in Satz 4.18 zusammengefassten prinzipiellen Eigenschaften <strong>von</strong> MLP<br />

haben diese zu einem wichtigen Ansatz zur <strong>Klassifikation</strong> <strong>von</strong> <strong>Mustern</strong> gemacht.<br />

Berechnung<br />

Die Berechnungen des MLP erfolgen schichtweise <strong>von</strong> der Eingabe– zur Ausgabeschicht. Man<br />

berechnet je Knoten (Neuron) in der Schicht l + 1 die Gesamterregung y (l+1)<br />

j als gewichtete<br />

Summe der Eingaben <strong>von</strong> der vorherigen Schicht. Das Ergebnis wird über eine Nichtlinearität Θ

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!