21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

444 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

mit einem Klassifikator mit m Parametern auch realisieren kann, ist<br />

D(N, m)<br />

PNm =<br />

2N ⎧ m ⎨<br />

<br />

1−N N−1<br />

2 j<br />

=<br />

j=0<br />

⎩<br />

1<br />

:<br />

:<br />

N > m<br />

N ≤ m<br />

. (4.10.3)<br />

Setzt man N = l(m + 1), l = 1, 2, . . . , so gilt<br />

lim<br />

m→∞ Pl(m+1),m =<br />

⎧<br />

⎨<br />

⎩<br />

1 : l < 2<br />

0, 5 : l = 2<br />

0 : l > 2<br />

. (4.10.4)<br />

Für große Werte <strong>von</strong> m (etwa ab m ≥ 30) nähert sich also der Verlauf <strong>von</strong> PNm einer Sprungfunktion.<br />

Die Zahl<br />

Nc = 2(m + 1) (4.10.5)<br />

wird auch als Kapazität des Klassifikators bezeichnet. Trainiert man für k = 2 Klassen einen<br />

Klassifikator mit m Parametern unter Verwendung <strong>von</strong> N < Nc <strong>Mustern</strong>, so kann man fast<br />

sicher sein, dass die gesuchte Klassenzuordnung realisierbar ist bzw. dass die Stichprobe separierbar<br />

ist. Wird N > Nc , so kann man fast sicher sein, dass die Stichprobe nicht separierbar<br />

ist. Eine realistische Aussage über die Eigenschaften eines Klassifikators ist also i. Allg. nur zu<br />

erwarten, wenn er mit N > Nc <strong>Mustern</strong> trainiert wurde. Der Vorteil dieser Aussage ist, dass sie<br />

völlig unabhängig <strong>von</strong> speziellen Funktionen ϕj in (4.10.1) oder <strong>von</strong> Annahmen über Verteilungsdichten<br />

der Merkmale ist. Ein Maß für die Kapazität <strong>von</strong> Trennfunktionen gibt Satz 4.12,<br />

S. 361. Diese Allgemeinheit ist allerdings auch eine Schwäche, da keinerlei Bezug auf spezielle<br />

Eigenschaften eines Problemkreises genommen wird. Beispielsweise genügt bei der speziellen<br />

Struktur der Muster in Bild 3.9.1, S. 247, links bereits je ein Muster aus Ω1 und Ω2, um einen<br />

linearen Klassifikator so zu trainieren, dass alle Muster richtig klassifiziert werden. Die Forderung<br />

N > Nc ist daher nur als ein Anhaltspunkt zu betrachten, der durch weitere Überlegungen<br />

zu ergänzen ist.<br />

Typ des Klassifikators und Merkmalszahl<br />

Der erwähnte allgemeine Zusammenhang zwischen verschiedenen Einflussgrößen hat erhebliche<br />

Aufmerksamkeit gefunden. Je nach Voraussetzungen ergeben sich „optimistische“ bzw.<br />

„pessimistische“ Ergebnisse, d. h. die geschätzte Fehlerrate ist kleiner bzw. größer als die<br />

tatsächliche. Für den Fall <strong>von</strong> k = 2 Klassen lässt sich eine Beziehung zwischen dem erforderlichen<br />

Stichprobenumfang Nκ je Klasse (κ = 1, 2 ), der Zahl der Merkmale n, dem<br />

MAHALANOBIS-Abstand der Klassen (3.9.35), S. 253, und der Zuverlässigkeit der geschätzten<br />

Fehlerwahrscheinlichkeit hergestellen. Nach dem Training des Klassifikators mit Nκ <strong>Mustern</strong><br />

je Klasse ergibt sich aus der <strong>Klassifikation</strong> einer unabhängigen Stichprobe ein Schätzwert<br />

pf (s. (4.10.7)), dessen Erwartungswert E{pf} berechnet werden kann. Mit einer sehr großen<br />

Stichprobe, Nκ → ∞, erhält man einen Schätzwert p∞, der bei optimaler <strong>Klassifikation</strong> mit<br />

pB identisch ist. Das Verhältnis β = E{pf}/p∞ wird als Maß für die Zuverlässigkeit der<br />

Schätzung verwendet. Bild 4.10.1 zeigt die Abhängigkeit zwischen Nκ, κ = 1, 2, und n für<br />

den MAHALANOBIS-Abstand 5,5, da dieser große Wert zu einer kleinen Fehlerwahrscheinlichkeit<br />

(etwa 0,3%) gehört, deren zuverlässige Schätzung wiederum eine große Stichprobe<br />

erfordert. Die Kurven wurden für den quadratischen Klassifikator (Q) in (4.2.118), S. 349, und

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!