21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

360 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

4.3 Support Vektor Maschinen (VA.1.1.3, 13.04.2004)<br />

<strong>Klassifikation</strong> mit sog. Support Vektor Maschinen (SVM) ist verglichen mit den statistischen<br />

Klassifikatoren ein noch relativ neuer Ansatz. Bei diesem wird eine für die <strong>Klassifikation</strong> wesentliche<br />

Teilmenge der Stichprobenelemente in der Trainingsmenge – eben die „Support Vektoren“<br />

– durch konvexe quadratische Optimierung in der Lernphase so bestimmt, dass die Klassentrennung<br />

im Merkmalsraum möglichst gut ist. Während insbesondere in Abschnitt 4.1 da<strong>von</strong><br />

ausgegangen wurde, dass die erforderlichen statistischen Kenngrößen entweder exakt oder zumindest<br />

hinreichend genau bekannt sind, d. h. mit einer repräsentativen Stichprobe geschätzt<br />

wurden, wird hier ausdrücklich der Einfluss einer endlichen Stichprobe berücksichtigt. Die Basis<br />

dafür geht aus dem nächsten Abschnitt hervor. Bei der gesamten Diskussion wird nur ein<br />

Zweiklassenproblem betrachtet. Die beiden zu trennenden Klassen werden, wie in der Darstellung<br />

der SVM üblich, mit den Indizes +1 bzw. −1 versehen. Für mehr als zwei Klassen gibt es<br />

eine Reihe <strong>von</strong> Vorschlägen.<br />

Ein k–Klassenproblem kann auf k Zweiklassenprobleme zurückgeführt werden, indem man<br />

k Klassifikatoren trainiert, die jeweils eine Klasse <strong>von</strong> den k − 1 verbleibenden unterscheiden,<br />

die Strategie „eine gegen alle anderen“. Der erste Klassifikator unterscheidet also die Klasse Ω1<br />

<strong>von</strong> den Klassen {Ω2, . . . , Ωk}, der zweite die Klasse Ω2 <strong>von</strong> den Klassen {Ω1, Ω3, . . . , Ωk},<br />

usw.<br />

Ein weiterer Ansatz zur Rückführung des allgemeinen <strong>Klassifikation</strong>sproblems auf Zweiklassenprobleme<br />

ist charakterisiert durch die Kurzform „eine gegen eine“. Dabei werden alle<br />

verschiedenen Paare <strong>von</strong> Klassen unterschieden, d. h. k(k − 1)/2 Klassifikatoren zur Unterscheidung<br />

<strong>von</strong> ωκ und ωλ, κ = 2, . . . , k, λ = 1, . . . , κ − 1 realisiert. Für jede Klasse gibt es damit<br />

mehrere binäre Entscheidungen, sodass sich die Frage nach der endgültigen Entscheidung<br />

erhebt. Eine einfache und nach experimentellen Ergebnissen sehr wirksame Strategie besteht<br />

darin, bei jeder der durchgeführten <strong>Klassifikation</strong>en der dabei ausgewählten Klasse einen Punkt<br />

zu geben und sich dann endgültig für die Klasse mit maximaler Punktezahl zu entscheiden.<br />

Obwohl hier mehr Klassifikatoren trainiert werden müssen als bei der Vorgehensweise „eine<br />

gegen alle anderen“, ist der Rechenaufwand für Training und Test bei dieser Strategie wegen<br />

der kleineren Stichprobenumfänge geringer, soweit den in den Literaturhinweisen erwähnten<br />

Vergleichen zu entnehmen ist. Die Strategie „eine gegen eine“ ist danach für das Mehrklassenproblem<br />

zu bevorzugen, zumal sie auch ausgezeichnete Erkennungsraten liefert.<br />

Ein dritter Ansatz besteht darin, jeweils eine Klasse <strong>von</strong> den restlich noch verbleibenden<br />

zu unterscheiden, d. h. es werden (k − 1) Klassifikatoren zur Unterscheidung <strong>von</strong> ω1 und<br />

{ω2, ω3, . . . , ωk}, <strong>von</strong> ω2 und {ω3, ω4, . . . , ωk}, . . . , und <strong>von</strong> ωk−1 und ωk realisiert. Die Trennbarkeit<br />

der Klassen hängt hier i. Allg. <strong>von</strong> der gewählten Reihenfolge der Klassen ab.<br />

Schließlich gibt es Ansätze, das Mehrklassenproblem, ähnlich wie bei den statistischen<br />

Klassifikatoren, „in einem Schritt“ zu lösen. Da diese in einem experimentellen Vergleich nicht<br />

überzeugend abschnitten, wird dafür auf die Literatur verwiesen.<br />

4.3.1 Die VC–Dimension<br />

Von zwei zu trennenden Klassen sei eine klassifizierte Stichprobe <strong>von</strong> <strong>Mustern</strong> ϱ f, repräsentiert<br />

durch ihre Merkmale ϱ c ∈ R n , gegeben<br />

ω = {{ ϱ c, yϱ}, ϱ = 1, 2, . . . , N, yϱ ∈ {−1, 1}} . (4.3.1)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!