21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.8. UNÜBERWACHTES LERNEN (VA.1.2.3, 13.04.2004) 427<br />

Wenn eine Stichprobe ω in zwei Teilmengen ωκ bzw. ωλ mit Nκ bzw. Nλ Elementen cκ ∈ ωκ<br />

bzw. cλ ∈ ωλ zerlegt wurde, wird das Informationspotential als Ansatz zur Definition einer<br />

Kostenfuntkion<br />

Φ(ωκ, ωλ) = 1<br />

NκNλ<br />

<br />

Nκ Nλ <br />

j=1 k=1<br />

j<br />

g0 ( cκ − k cλ)|2σ 2<br />

für diese beiden Teilmengen verwendet. Es wird eine Indikatorfunktion<br />

χ( j c, k <br />

0<br />

c) =<br />

: jc ∈ ωλ ∧ k 1 : sonst<br />

c ∈ ωλ , λ ∈ {1, . . . , k}<br />

(4.8.40)<br />

(4.8.41)<br />

definiert, die nur dann den Wert Eins annimmt, wenn zwei Merkmale ( j c, k c) zu verschiedenen<br />

Klassen gehören. Damit kann man auch schreiben<br />

Φ(ωκ, ωλ) = 1<br />

NκNλ<br />

N<br />

j=1 k=1<br />

N<br />

χ( j c, k j k 2<br />

c)g0 ( c − c)|2σ . (4.8.42)<br />

In der obigen Doppelsumme werden nun durch die Indikatorfunktion nur solche Paare <strong>von</strong><br />

Merkmalen ausgewählt, die zu verschiedenen Klassen gehören, wie es in (4.8.40) durch die<br />

zusätzliche Indizierung der Merkmalsvektoren mit dem Klassenindex auch erreicht wird. Diese<br />

zunächst für zwei Klassen definierte Kostenfunktion wird auf k Klassen verallgemeinert, indem<br />

man über alle verschiedenen Paare <strong>von</strong> Klassen mittelt<br />

Φ4(ω1, . . . , ωk) =<br />

=<br />

2<br />

k(k − 1)<br />

2<br />

k(k − 1)<br />

k κ−1<br />

Φ(ωκ, ωλ)<br />

κ=2 λ=1<br />

k κ−1 Nκ Nλ<br />

1 <br />

g0<br />

NκNλ<br />

κ=2 λ=1 j=1 k=1<br />

Mit (4.8.41) lässt sich in Analogie zu (4.8.42) auch eine Kostenfunktion<br />

Φ5(ω1, . . . , ωk) =<br />

1<br />

2N1N2 . . . Nk<br />

N<br />

j=1 k=1<br />

( j cκ − k cλ)|2σ 2 .<br />

N<br />

χ( j c, k <br />

j k 2<br />

c)g0 ( c − c)|2σ <br />

(4.8.43)<br />

(4.8.44)<br />

definieren. In einer guten Zerlegung der Stichprobe ist Φ4 bzw. Φ5 klein, da g0 mit wachsendem<br />

Abstand <strong>von</strong> Merkmalsvektoren rasch abfällt und in verschiedenen Teilmengen nur relativ weit<br />

<strong>von</strong>einander entfernte Merkmalsvektoren liegen sollten.<br />

Die Aufgabe besteht nun darin, eine Zerlegung <strong>von</strong> ω zu finden, die Φ4 bzw. Φ5 minimiert.<br />

Dieses erfolgt in zwei Schritten, nämlich der Berechnung einer anfänglichen Zerlegung <strong>von</strong> ω<br />

und der anschließenden Optimierung <strong>von</strong> Φ(ω).<br />

Die anfängliche Zerlegung kann auf unterschiedliche Arten erfolgen, z. B. auch mit dem<br />

Algorithmus in Bild 4.8.2. Da noch ein Optimierungsschritt folgt, wird jedoch ein vereinfachter<br />

Algorithmus zur anfänglichen Zerlegung benutzt. Nach Vorgabe der Zahl k <strong>von</strong> Klassen werden<br />

Untermengen der Stichprobe vom Umfang Na = N/k gebildet. Es werden Na Elemente aus<br />

ω zufällig ausgewählt. Diese sind die Startpunkte für die Auswahl weiterer Elemente. Sei ca,1<br />

der erste zufällig gewählte Merkmalsvektor, der das erste Element in der Untermenge ωa,1 wird.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!