21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.10. DIMENSIONIERUNGSPROBLEME (VA.1.1.3, 13.04.2004) 447<br />

zu schätzen, daher genügt es, diese zu betrachten. In Bild 4.10.2d sind Konfidenzintervalle des<br />

Korrelationskoeffizienten ϱ über der näherungsweise normalverteilten transformierten Variablen<br />

z = 0, 5 log[(1 + ϱ)/(1 − ϱ)] aufgetragen. Man sieht, dass mit 1000 <strong>Mustern</strong> der richtige<br />

Wert |ϱ| ≤ 0, 06 ist, wenn der Schätzwert ϱ = 0 ist.<br />

Aufteilung der Stichprobe<br />

In der Regel muss eine gegebene Stichprobe zur Schätzung der Parameter und der Fehlerwahrscheinlichkeit<br />

herangezogen werden. Dafür gibt es folgende Methoden.<br />

1. Die Dimensionierung des Klassifikators (Lernphase) erfolgt mit der gesamten Stichprobe,<br />

anschließend wird mit der gleichen Stichprobe die Fehlerwahrscheinlichkeit geschätzt.<br />

Abgesehen <strong>von</strong> wirklich repräsentativen Stichproben sind die so ermittelten Schätzwerte<br />

optimistisch, d. h. der Schätzwert pf ist zu klein.<br />

2. Von der Stichprobe mit N <strong>Mustern</strong> werden (N − 1) zum Training genommen, und dann<br />

wird das eine ausgelassene Muster klassifiziert, das Ergebnis notiert (“leave–one–out”).<br />

Dieses wird für alle N Muster wiederholt. Der Schätzwert ergibt sich analog aus (3.9.9)<br />

und ist besonders zuverlässig. Die Methode ist recht aufwendig, da N verschiedene Klassifikatoren<br />

zu berechnen sind. Da sich aber nur jeweils ein Muster ändert, kann die Berechnung<br />

rekursiv mit (4.2.59), (4.2.62), (4.4.36) erfolgen.<br />

3. Als Kompromiss zwischen 1. und 2. wird die Stichprobe mit Nκ <strong>Mustern</strong> je Klasse<br />

ωκ, κ = 1, . . . , k in L disjunkte Blöcke mit je Nκ/L <strong>Mustern</strong> zerlegt, wobei Nκ/L<br />

zweckmäßigerweise ganzzahlig sein sollte. Der Klassifikator wird mit (L − 1) Blöcken<br />

trainiert und mit einem Block zu je Nκ/L <strong>Mustern</strong> getestet; dieses wird L–mal mit jeweils<br />

verschiedenen Blöcken zum Test und dem Rest zum Training wiederholt. Statt N<br />

Klassifikatoren sind nur L zu realisieren. Ein Spezialfall ist L = 2 , d. h. die Stichprobe<br />

wird in je eine gleich große Lern– und Teststichprobe zerlegt. Die für L = 2 gewonnenen<br />

Schätzwerte sind „pessimistisch“, d. h. pf ist zu groß.<br />

4. In manchen Fällen, z. B. beim Training neuronaler Netze, wird neben der Trainings– und<br />

Teststichprobe noch eine Validierungsstichprobe verwendet, d. h. die gegebene Stichprobe<br />

in drei Untermengen zerlegt. Die obige Blockzerlegung kann dafür herangezogen werden.<br />

Von den L Blöcken werden L−2 zum Training, einer zur Validierung und einer zum<br />

Test verwendet und das Ganze L–mal wiederholt.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!