21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.4. POLYNOMKLASSIFIKATOR (VA.2.2.3, 07.09.2005) 377<br />

1. Die Auswahl des maximalen Elements in der aktuellen Zeile, wie in Schritt 3 oben erwähnt.<br />

2. Die Auswahl des Polynomterms, der minimale lineare Abhängigkeit zu den schon ausgewählten<br />

hat.<br />

3. Die Auswahl des Polynomterms, der zur maximalen Verminderung des Approximationsfehlers<br />

ε führt.<br />

Die beiden letzten Kriterien sowie die Anwendung des GAUSS–JORDAN-Algorithmus zur Berechnung<br />

<strong>von</strong> A ∗ werden im Folgenden genauer betrachtet.<br />

Minimierung der linearen Abhängigkeiten<br />

Nach (4.4.28) gilt für die optimale Parametermatrix A ∗ = B −1 D. Mit den in (4.4.25) – (4.4.28)<br />

eingeführten Bezeichnungen wird eine m × (m + k) Matrix<br />

<br />

1 <br />

(B |D) = Φ ΦT<br />

1<br />

N N Φ∆T<br />

<br />

≈ E{ϕ(c)ϕ T (c)}|E{ϕ(c)δ T (c)} <br />

eingeführt. Diese wird <strong>von</strong> links mit B −1 multipliziert und ergibt<br />

(4.4.40)<br />

B −1 (B |D) = (I |B −1 D) = (I |A ∗ ) . (4.4.41)<br />

Die Normierung der linken Spalten der Ausgangsmatrix (B |D) ist genau das, was der oben<br />

beschriebene GAUSS–JORDAN-Algorithmus bewirkt .<br />

Eine geeignete Pivotisierung empfiehlt sich auch für diesen Fall. Man kann zeigen, dass<br />

die Pivotisierung durch Auswahl des größten Hauptdiagonalelementes der Auswahl desjenigen<br />

Merkmals (bzw. desjenigen Polynomterms) entspricht, das am wenigsten linear abhängig <strong>von</strong><br />

den schon ausgewählten Merkmalen ist. Die schon ausgewählten Merkmale entsprechen bereits<br />

normierten Spalten der Matrix B. Für die Qualität der Merkmale ist es sinnvoll, solche<br />

zu wählen, die keine oder nur geringe lineare Abhängigkeiten aufweisen, wie es auch schon in<br />

Abschnitt 3.9.2 diskutiert wurde. Bricht man die Normierung nach m ′ < m Schritten ab, d. h.<br />

normiert nur m ′ Spalten der Matrix B, so erhält man die optimale Parametermatrix A ∗′<br />

m ′ Zeilen und k Spalten. Das bedeutet, dass man statt der m Polynomterme, welche die Merkmale<br />

für die <strong>Klassifikation</strong> darstellen, nur die m ′ mit den geringsten linearen Abhängigkeiten<br />

verwendet. Man bekommt also durch das Verfahren eine analytische Merkmalsauswahl.<br />

Maximierung der Abnahme des Fehlers<br />

Statt der Pivotisierung durch Auswahl des größten Hauptdiagonalelementes ist es aus Sicht der<br />

<strong>Klassifikation</strong> sinnvoll, diejenige Spalte zu normieren, die zur größten Abnahme des Fehlers ε<br />

in (4.4.14) führt. Zu diesem Zweck wird die Matrix in (4.4.40) erweitert zu der Matrix<br />

S = E{(ϕ T , δ T ) T (ϕ T , δ T )}<br />

<br />

T m×m E{ϕϕ }<br />

T m×k<br />

E{ϕδ }<br />

(m+k)×(m+k)<br />

=<br />

≈ 1<br />

N<br />

E{δϕ T } k×m E{δδ T } k×k<br />

ΦΦ T Φ∆ T<br />

∆Φ T ∆∆ T<br />

mit<br />

<br />

. (4.4.42)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!