21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

4.1. STATISTISCHE ENTSCHEIDUNGSTHEORIE (VA.1.2.3, 13.04.2004) 315<br />

erreicht. Mit (4.1.2) gilt für den BAYES-Klassifikator (s. (4.1.3))<br />

p(Ωλ |c) = pλp(c|Ωλ)<br />

p(c)<br />

. (4.1.34)<br />

Da p(c) unabhängig vom Index λ ist, nehmen die a posteriori Wahrscheinlichkeiten p(Ωλ |c)<br />

für den gleichen Index ihr Maximum an wie die Ausdrücke pλp(c|Ωλ) in (4.1.33). Sind zudem<br />

die a priori Wahrscheinlichkeiten gleich, so ist die Maximierung <strong>von</strong> p(Ωλ |c) äquivalent<br />

der Maximierung <strong>von</strong> p(c|Ωλ). Ein solcher Klassifikator wird als Maximum-likelihood-<br />

Klassifikator bezeichnet. Eine zur Entscheidungsregel (4.1.33) äquivalente Formulierung besteht<br />

darin, den Index κ der ausgewählten Klasse zu berechnen aus<br />

κ = argmax p(Ωλ |c) = argmax pλp(c|Ωλ) . (4.1.35)<br />

λ∈{1,...,k}<br />

λ∈{1,...,k}<br />

Dieses Ergebnis wird zusammengefasst in<br />

Satz 4.3 Der BAYES-Klassifikator, der bei erzwungener Entscheidung die Fehlerwahrscheinlichkeit<br />

minimiert, berechnet die k a posteriori Wahrscheinlichkeiten (4.1.34) und entscheidet<br />

sich für die Klasse mit maximaler a posteriori Wahrscheinlichkeit; dieses entspricht<br />

der Anwendung der Entscheidungsregel (4.1.33) bzw. (4.1.35).<br />

Es wird noch darauf hingewiesen, dass sich auch die allgemeinen Prüfgrößen (4.1.13) oder<br />

(4.1.18) mit (4.1.34) umformen lassen, sodass bei der Bestimmung des Minimums (4.1.15) nur<br />

die a posteriori Wahrscheinlichkeiten verwendet werden. Man kann also wahlweise die Terme<br />

pλp(c|Ωλ) oder p(Ωλ |c) nehmen, da der normierende Faktor p(c) <strong>von</strong> pλp(c|Ωλ) unabhängig<br />

ist. Für die numerische Berechnung wird man in der Regel <strong>von</strong> pλp(c|Ωλ) ausgehen, da die a<br />

priori Wahrscheinlichkeiten pλ und die bedingten Dichten p(c|Ωλ) als bekannt vorausgesetzt<br />

wurden bzw. unter geeigneten Annahmen mit einer klassifizierten Stichprobe geschätzt werden<br />

können.<br />

4.1.5 Fehlerwahrscheinlichkeit und Kosten<br />

Es wurden zwei Größen zur Beurteilung der Leistungsfähigkeit eines Klassifikators eingeführt,<br />

nämlich die Kosten für bestimmte Entscheidungen und die Wahrscheinlichkeit für das Treffen<br />

bestimmter Entscheidungen. Die Wahrscheinlichkeiten haben den Vorteil, dass sie unmittelbar<br />

anschaulich sind und auch durch Abzählen der verschiedenen Fälle leicht geschätzt werden können.<br />

Beispielsweise kann man bei einem automatischen EKG Auswertesystem abzählen, wie<br />

oft ein tatsächlich normales EKG irrtümlich als anormal und ein tatsächlich anormales EKG irrtümlich<br />

als normal eingestuft wurde – vorausgesetzt, es gibt eine übergeordnete Instanz, welche<br />

die richtige Diagnose kennt. Minimierung der Fehlerwahrscheinlichkeit bedeutet, dass man die<br />

Summe der mit den a priori Wahrscheinlichkeiten bewichteten beiden Fehlerarten minimiert.<br />

In diesem Beispiel wird man aber vermutlich den Fall, dass ein anormales EKG für normal<br />

gehalten wird, stärker bewichten wollen, damit er weniger häufig auftritt. Dieses ist durch Zuordnen<br />

<strong>von</strong> Kosten zu den einzelnen Entscheidungen möglich. Andererseits ist es schwierig,<br />

solche Kosten konkret in einer Währungseinheit anzugeben, und es müssen unrealistische Kostenzuordnungen<br />

vermieden werden. Werden nämlich im obigen Beispiel sehr hohe Kosten der<br />

Fehlklassifikation eines anormalen EKG zugeordnet, so wird es für den Klassifikator „am billig-

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!