21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

392 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

wobei · z. B. der EUKLID-Abstand ist. Die Approximation ist<br />

ϕ(c) =<br />

N<br />

aϱ g (||c − ϱ c||) . (4.5.25)<br />

ϱ=1<br />

Diese Gleichung erinnert im Prinzip an die PARZEN-Schätzung in (4.2.142), S. 354. Eine mögliche<br />

Basisfunktion ist die Normalverteilung. Es wird gefordert, dass für eine Stützstelle (bzw.<br />

ein Trainingsmuster) j c der Funktionswert j ϕ und die Approximation ϕ( j c) übereinstimmen.<br />

Das liefert das lineare Gleichungssystem<br />

j ϕ = ϕ( j c) (4.5.26)<br />

=<br />

N<br />

aϱ g || j c − ϱ c|| , j = 1, . . . , N (4.5.27)<br />

ϱ=1<br />

für die unbekannten Koeffizienten aϱ. Die Terme g (|| j c − ϱ c||) werden im ϱ–ten Knoten berechnet.<br />

Um das zu ermöglichen werden die Gewichte festgelegt zu<br />

wνϱ = ϱ cν . (4.5.28)<br />

Die noch verbleibenden Parameter aϱ ergeben sich mit (4.5.26) zu<br />

⎛<br />

⎜<br />

⎝<br />

a1<br />

.<br />

aN<br />

⎞<br />

⎟<br />

⎠ =<br />

⎛<br />

⎜<br />

⎝<br />

g (|| 1 c − 1 c||) . . . g || 1 c − N c|| <br />

.<br />

g || N c − 1 c|| . . . g || N c − N c|| <br />

⎞−1<br />

⎛<br />

Mit (4.5.28) und (4.5.29) sind alle Parameter des Netzwerks bestimmt.<br />

4.5.4 Merkmalskarte<br />

⎟<br />

⎠<br />

⎜<br />

⎝<br />

1 ϕ<br />

.<br />

N ϕ<br />

⎞<br />

⎟<br />

⎠ . (4.5.29)<br />

Der als KOHONEN-Abbildung, Merkmalskarte oder auch topologische Karte bezeichnete Ansatz<br />

erlaubt ein unüberwachtes Lernen <strong>von</strong> Ähnlichkeiten in Beobachtungen, d. h. es ist keine<br />

klassifizierte Stichprobe zum Training erforderlich. Die Merkmalskarte stellt ähnliche Beobachtungsvektoren<br />

in benachbarten Gebieten dar, sodass Ähnlichkeiten auch visuell erkennbar<br />

sind.<br />

Das Prinzip ist in Bild 4.5.6 gezeigt. Eine Menge <strong>von</strong> Ausgabegrößen (oder Ausgabeneuronen)<br />

y0, y1, . . . , yM ′ −1 wird in einem zweidimensionalen Gitter angeordnet. Jedem Ausgabeneuron<br />

yj ist ein Gewichtsvektor wj zugeordnet. Eine Beobachtung f (oder ein Merkmalsvektor c)<br />

wird mit allen Gewichtsvektoren verglichen und mit der Minimumabstandsklassifikation wird<br />

der ähnlichste Gewichtsvektor wκ ausgewählt, dessen zugehöriges Ausgabeneuron yκ aktiviert<br />

wird. Durch ein geeignetes Training wird erreicht, dass Beobachtungen aus ähnlichen Klassen<br />

auf benachbarte Ausgaben abgebildet werden. Die Klassen werden nicht vom Entwickler<br />

vorgegeben, sondern im Training unüberwacht gelernt.<br />

Wenn die Gewichtsvektoren trainiert sind, wird mit diesen die Ausgabe<br />

yj =<br />

M−1 <br />

wjifi = w T j f , 0 ≤ j ≤ M ′ − 1 (4.5.30)<br />

i=0

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!