21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.5. NEURONALE NETZE (VA.2.2.3, 13.04.2004) 389<br />

Satz 4.17 (Fehlerrückführungs–Algorithmus) (“error–back–propagation”) Das Training<br />

des MLP erfolgt nach den Gleichungen:<br />

w (l)<br />

ij<br />

d (L)<br />

j<br />

d (l−1)<br />

j<br />

← w(l)<br />

ij<br />

=<br />

=<br />

<br />

+ βd(l)<br />

j<br />

δj − f (L)<br />

j<br />

M (l) −1<br />

k=0<br />

(l−1)<br />

f i l = L, L − 1, . . . , 1 , (4.5.20)<br />

<br />

1 − f (L)<br />

<br />

j f (L)<br />

j , (4.5.21)<br />

d (l)<br />

k w(l)<br />

<br />

kj<br />

1 − f (l−1)<br />

j<br />

<br />

f (l−1)<br />

j l = L, L − 1, . . . , 2 . (4.5.22)<br />

Das Training wird iterativ durchgeführt, wobei sukzessive Muster f einer Stichprobe an<br />

der Eingabeschicht angeboten werden. Mit (4.5.5) bzw. (4.5.9) wird die Ausgabe des Netzes<br />

berechnet. Für die <strong>Klassifikation</strong> <strong>von</strong> <strong>Mustern</strong> wird vorausgesetzt, dass die Trainingsstichprobe<br />

klassifiziert ist, d. h. der Wert <strong>von</strong> δκ(c) in (4.5.11) oder (4.5.12) ist bekannt. Beginnend<br />

mit der Ausgabeschicht kann nun (4.5.21) ausgewertet werden und neue Gewichte w (L)<br />

ij mit<br />

(4.5.20) berechnet werden. Dann werden schrittweise neue Gewichte in den unteren Schichten<br />

mit (4.5.22) berechnet. Der Fehler (δj − f (L)<br />

j ) wird also <strong>von</strong> der Ausgabeschicht zur Eingabeschicht<br />

„zurückgeführt“, und daher kommt der Name für diesen Trainingsalgorithmus, nämlich<br />

Fehlerrückführungs–Algorithmus (bzw. “error–back–propagation algorithm”).<br />

Das Training eines neuronalen Netzes kann sehr langwierig sein. Daher wurden verschiedene<br />

Ansätze zur Beschleunigung des Trainings vorgeschlagen. Mit der Einführung eines Momententerms<br />

wird die Änderung der Gewichte modifiziert zu<br />

∆w (l)<br />

ij,N<br />

(l−1)<br />

= βd(l)<br />

j,Nf i,N<br />

+ γ∆w(l)<br />

ij,N−1 , (4.5.23)<br />

wobei β und γ Parameter sind, die experimentell festgelegt werden. Weitere Varianten des Trainings<br />

sind der zitierten Literatur zu entnehmen.<br />

Eigenschaften<br />

Da sich mit dem MLP beliebige Funktionen approximieren lassen, eignet es sich sowohl für<br />

die <strong>Klassifikation</strong> <strong>von</strong> <strong>Mustern</strong> als auch z. B. für die Vorhersage, Inversion oder Glättung <strong>von</strong><br />

Funktionen. Einige wichtige Aussagen sind im Folgenden zusammengefasst, wobei für Beweise<br />

auf die angegebene Literatur verwiesen wird.<br />

Satz 4.18 Das MLP erlaubt<br />

1. die Definition jeder logischen Funktion (zwei Schichten <strong>von</strong> Gewichten sind hinreichend,<br />

Beweis: s. z. B. [Muroga, 1971]);<br />

2. die Approximation jeder nichtlinearen Funktion (zwei Schichten <strong>von</strong> Gewichten sind<br />

hinreichend, Beweis: s. z. B. [Hornik et al., 1989, White, 1990]);<br />

3. die Definition beliebiger Klassengrenzen im R n (zwei Schichten <strong>von</strong> Gewichten sind<br />

hinreichend, Beweis: s. z. B. [Makhoul et al., 1989]).<br />

Die Tatsache, dass zwei Schichten für die Approximationen hinreichend sind, schließt nicht<br />

aus, dass u. U. drei oder noch mehr Schichten eine schnellere Konvergenz des Trainings erlauben<br />

und daher vorzuziehen sind. Insbesondere für die <strong>Klassifikation</strong> werden oft L = 3 Schichten<br />

<strong>von</strong> Gewichten vorgeschlagen, wobei die Argumentation anschaulich darin besteht, dass

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!