21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

304 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

Zur Definition eines Klassifikators gibt es unterschiedliche Ansätze, <strong>von</strong> denen hier vier<br />

vorgestellt werden, nämlich der statistisch optimale Klassifikator in Abschnitt 4.1 und Definition<br />

4.2, die Support Vektor Maschine in Abschnitt 4.3 und Definition 4.10, der Polynomklassifikator<br />

in Abschnitt 4.4 und Definition 4.13 sowie das Mehrschichtperzeptron in Abschnitt 4.5<br />

mit dem Fehlermaß (4.5.13). Nach experimentellen Befunden sind alles sehr leistungsfähige<br />

Ansätze für die <strong>Klassifikation</strong>; ihre Einzelheiten gehen aus den genannten Abschnitten hervor.<br />

Es wird daran erinnert, dass die Probleme der <strong>Klassifikation</strong> und Regression eng verwandt<br />

sind, wie bereits in Abschnitt 1.3 kurz erwähnt wurde. In beiden Fällen kommt es darauf an, aus<br />

einer Stichprobe mit Zusatzinformation y gemäß (1.3.1), S. 19, eine Funktion zu berechnen, mit<br />

der die Zusatzinformation für nicht in der Stichprobe enthaltene Muster möglichst zuverlässig<br />

geschätzt werden kann, d. h. die eine möglichst gute Generalisierung erlaubt. Bei der <strong>Klassifikation</strong><br />

ist die zu schätzende Zusatzinformation die Musterklasse, also y ∈ {1, 2, . . . , k}; bei der<br />

Regression ist sie ein Funktionswert, also y ∈ R oder allgemeiner y ∈ R n . Die Schätzfunktion<br />

hat i. Allg. die Form y = d(f, a), wobei a ein wählbarer Parametervektor ist. Zur Berechnung<br />

der Schätzfunktion gibt es im Wesentlichen zwei grundsätzliche Vorgehensweisen, <strong>von</strong> denen<br />

jede wieder zahlreiche Varianten aufweist.<br />

1. Man ermittelt zunächst ein stochastisches Modell der Beobachtungen f in Form der klassenbedingten<br />

Verteilungsdichten der Muster f bzw. der daraus extrahierten Merkmale c.<br />

Wenn die Verteilungsdichten bekannt sind, lassen sich Klassifiaktions– und Regressionsproblem<br />

lösen. Diese Vorgehensweise ist die Basis der statistischen Klassifikatoren.<br />

2. Man bestimmt die Schätzfunktion direkt, insbesondere ohne vorher Verteilungsdichten<br />

<strong>von</strong> Beobachtungen zu bestimmen. Dieses ist die Vorgehensweise bei Support Vektor<br />

Maschinen, Polynomklassifikatoren und Mehrschichtperzeptrons.<br />

Satz 4.14, S. 371, zeigt, dass es zwischen beiden Vorgehensweisen Beziehungen gibt. Daraus<br />

geht auch hervor, dass die allgemeine Lösung des Regressionsproblems ebenfalls statistische<br />

Information in Form <strong>von</strong> Verteilungsdichten (zur Berechnung des in Satz 4.14 auftretenden Erwartungswertes)<br />

erfordert. Zur Vereinfachung analytischer und numerischer Rechnungen wird<br />

allerdings oft statt der allgemeinen Schätzfunktion y = d(f, a) eine spezielle im Parametervektor<br />

a lineare Schätzfunktion y = d(f, a) = a T ϕ(f) gewählt. In diesem Falle kann man die<br />

Schätzfunktion auch direkt aus der Stichprobe berechnen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!