21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

254 KAPITEL 3. MERKMALE (VK.2.3.3, 13.04.2004)<br />

Häufigkeiten analog zu Abschnitt 2.2.2, approximieren. Zur Bestimmung <strong>von</strong> Verteilungsdichten<br />

wird auch auf Abschnitt 4.2 verwiesen.<br />

Die Beschränkung auf einzelne Merkmale cν und die Schätzung der Verteilungsdichten mit<br />

dem Histogramm hat den weiteren Vorteil, dass sich die Integrale in (3.9.14) – (3.9.22) dann auf<br />

einfach auszuwertende Summen reduzieren. Als Beispiel wird hier nur die Transinformation<br />

G T in (3.9.16) betrachtet. Das Merkmal cν möge jeweils einen <strong>von</strong> m möglichen diskreten<br />

Werten cνj, j = 1, . . . , m annehmen. Wie in Abschnitt 2.1.3 erörtert wurde, lässt sich ein<br />

kontinuierlicher Wertebereich für cν stets in dieser Weise quantisieren. Damit geht (3.9.16)<br />

über in die diskrete Form<br />

G T =<br />

k<br />

m<br />

κ=1 j=1<br />

pκp(cνj |Ωκ) log p(cνj |Ωκ)<br />

p(cνj)<br />

. (3.9.40)<br />

Wenn eine genügend große klassifizierte Stichprobe gegeben ist, bereitet die Schätzung <strong>von</strong><br />

p(cνj |Ωκ) keine Probleme. Die obige Diskussion zeigt, dass man unter Umständen nur die<br />

Güte einzelner Merkmale cν für sich beurteilen wird. Sind aber cµ und cν zwei Merkmale und<br />

gilt für eine reelle, nicht abnehmende Funktion g die Beziehung<br />

p(cν = g(cµ)) = 1 , (3.9.41)<br />

dann kann man auf cν verzichten. Es lässt sich zeigen, dass es dann stets eine nur <strong>von</strong> cµ abhängige<br />

Entscheidungsregel gibt, welche Muster mit gleicher Fehlerwahrscheinlichkeit wie eine<br />

<strong>von</strong> cµ und cν abhängige Entscheidungsregel klassifiziert. Es ist also nützlich, nicht solche<br />

Merkmale zu verwenden, zwischen denen Abhängigkeiten bestehen. Mit dem Korrelationskoeffizienten<br />

ρµν =<br />

E{(cµ − E{cµ})(cν − E{cν})}<br />

E{(cµ − E{cµ}) 2 }E{(cν − E{cν}) 2 }<br />

lassen sich wenigstens lineare Abhängigkeiten der Form<br />

(3.9.42)<br />

cν = acµ + b (3.9.43)<br />

zwischen zwei Merkmalen bewerten. Natürlich werden solche auch vom MAHALANOBIS-<br />

Abstand (3.9.35) erfasst. Dieser ist also geeignet, eine Menge <strong>von</strong> Merkmalen bzw. einen Merkmalsvektor<br />

unter Berücksichtigung linearer statistischer Abhängigkeiten zu bewerten, wenn<br />

dieser, wie schon gesagt, näherungsweise normalverteilt ist.<br />

3.9.3 Auswahlverfahren<br />

Im Abschnitt 3.9.1 wurde dargelegt, dass zur exakten Bestimmung der besten Untermenge <strong>von</strong><br />

n Merkmalen alle n ′ <br />

Untermengen durch Schätzung der Fehlerrate zu bewerten sind und die<br />

n<br />

mit der kleinsten auszuwählen ist. Diese Methode scheidet i. Allg. wegen des damit verbundenen<br />

Aufwandes aus. Bild 3.9.2a verdeutlicht die vollständige Suchmethode. Jeder Kantenzug<br />

<strong>von</strong> links nach rechts enthält die Bewertung einer Untermenge mit n = 3 Merkmalen, z. B.<br />

der dick gezeichnete die der Menge c1, c3, c4. Entsprechend den n ′ n ′ <br />

Untermengen gibt es n<br />

n<br />

Kantenzüge. Das triviale Verfahren der zufälligen Auswahl <strong>von</strong> n aus n ′ Merkmalen scheidet<br />

wegen der i. Allg. unbefriedigenden Qualität der so gefundenen Untermenge aus. Zwischen<br />

diesen beiden Extremen liegen die im Folgenden diskutierten Auswahlverfahren.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!