21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

342 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

gesetzt. Aus der zitierten Literatur geht hervor, dass die Dichte p(aκ) in (4.2.70) selbstreproduzierend<br />

ist. Man erhält die MAPS (bzw. die BAYES-Schätzwerte) nach Beobachtung <strong>von</strong> Nκ<br />

<strong>Mustern</strong> ϱ cκ ∈ ωκ aus denen nach der Beobachtung <strong>von</strong> Nκ − 1 <strong>Mustern</strong> zu<br />

µ κNκ = (β0 + Nκ − 1)µ κ,Nκ−1 + Nκcκ (β0 + Nκ)<br />

ΣκNκ = ν0 + Nκ − 1<br />

Σκ,Nκ−1 +<br />

ν0 + Nκ<br />

β0 + Nκ − 1<br />

(ν0 + Nκ)(β0 + Nκ)<br />

,<br />

Nκcκ Nκcκ T<br />

− µ κ,Nκ−1 − µ κ,Nκ−1 .<br />

(4.2.73)<br />

Dabei ist µ κ0 = µ 0 und Σκ0 = K0. Die rekursive Berechnung <strong>von</strong> Σ −1<br />

κNκ ist mit (4.2.61)<br />

ebenfalls möglich.<br />

Ein Vergleich der MLS (4.2.59) mit den MAPS (4.2.73) zeigt, dass beide sich nur in der Verwendung<br />

<strong>von</strong> Anfangswerten für die Schätzung unterscheiden. Setzt man ν0 = β0 = 0, µ κ0 =<br />

0, Σκ0 = 0, geht (4.2.73) in (4.2.59) über. Das Lernen <strong>von</strong> Parametern statistischer Klassifikatoren<br />

durch laufende Verbesserung der Parameter mit neu beobachteten <strong>Mustern</strong> ist also<br />

problemlos, wenn die Muster bekannte Klassenzugehörigkeit haben (überwachtes Lernen) und<br />

wenn die Merkmale klassenweise normalverteilt sind. Es kann zweckmäßig sein, mit festen Gewichten<br />

zu arbeiten. Zum Beispiel würde man dann den Schätzwert für µ κ in (4.2.59) ersetzen<br />

durch<br />

µ κNκ = (1 − β)µ κ,Nκ−1 + β Nκ cκ , 0 < β ≤ 1 . (4.2.74)<br />

Natürlich ist das kein MLS , und die Konvergenz ist experimentell zu sichern durch geeignete<br />

Wahl <strong>von</strong> β. Der Vorteil einer festen Gewichtung besteht darin, dass eine relativ rasche Adaptation<br />

an neue Beobachtungen erfolgt, wobei die Geschwindigkeit der Adaptation <strong>von</strong> der Wahl<br />

<strong>von</strong> β abhängt.<br />

In Abschnitt 4.2.1 wurde erwähnt, dass mit den Schätzwerten (4.2.8), (4.2.9) für µ κ, Kκ so<br />

gerechnet wird, als seien es die richtigen Werte. Dieses ist natürlich nur eine näherungsweise<br />

Betrachtung. Genaugenommen ist die Verteilungsdichte p(c|Ωκ) = p(c|aκ) der Merkmalsvektoren<br />

zu ersetzen durch p(c|Ωκ, ωκ), um den Einfluss der endlichen Stichprobe zu berücksichtigen.<br />

Dieser besteht darin, dass man nicht die tatsächlichen Parametwerte aκ zur Verfügung hat<br />

sondern Schätzwerte aκ mit der Verteilungsdichte p(aκ|ωκ). Die gesuchte Verteilungsdichte<br />

der Merkmalsvektoren ist damit<br />

<br />

p(c|Ωκ, ωκ) = p(c|aκ) p(aκ|ωκ) daκ . (4.2.75)<br />

Raκ<br />

Setzt man für die Verteilungsdichte der Merkmalsvektoren eine GAUSS-Verteilung an und für<br />

die der Parameter (4.2.70), so ist die Integration in (4.2.75) ausführbar. Als wesentliche Ergebnisse<br />

sind festzuhalten, dass die resultierende Verteilungsdichte keine GAUSS-Verteilung<br />

ist, dass diese aber für großen Stichprobenumfang gegen eine GAUSS-Verteilung strebt und<br />

dass dieses praktisch schon für relativ kleinen Stichprobenumfang geschieht. In diesem Sinne<br />

ist es gerechtfertigt, mit den Schätzwerten so zu rechnen, als seien es die richtigen. Es bleibt<br />

dagegen das Problem, dass die Annahme klassenweise normalverteilter Merkmale i. Allg. nur<br />

eine Näherung an die tatsächlichen Verhältnisse ist. Bereits in Abschnitt 4.2.1 wurde darauf

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!