21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

374 KAPITEL 4. NUMERISCHE KLASSIFIKATION (VK.2.3.3, 07.09.2005)<br />

und (4.4.19) geht über in<br />

A ∗ =<br />

−1 <br />

1<br />

1<br />

Φ ΦT<br />

N N Φ∆T<br />

<br />

= B −1 D . (4.4.28)<br />

Wenn der Vektor ϕ <strong>von</strong> Funktionen ϕν aus m Komponenten besteht und k Klassen zu<br />

unterscheiden sind, ist A ∗ eine m × k Matrix, zu deren Berechnung die Inversion einer m × m<br />

Matrix erforderlich ist. Für einen Merkmalvektor mit n Komponenten cν und ein vollständiges<br />

Polynom p-ten Grades in cν ist wie in (3.8.43), S. 232,<br />

<br />

n + p<br />

m = =<br />

p<br />

(n + p)(n + p − 1) . . . (n + 1)<br />

1 · 2 · . . . · p<br />

. (4.4.29)<br />

Daraus ergibt sich, dass die Inversion <strong>von</strong> E{ϕϕ T } schon für p = 2 ab etwa n = 100, entsprechend<br />

m = 5151, ein Problem wird. Dazu kommt ein weiteres Problem. Wegen den in der<br />

Regel zwischen Merkmalen auftretenden linearen Abhängigkeiten ist es bei Wahl der ϕν gemäß<br />

(4.4.4), (4.4.5) möglich, dass die Matrix E{ϕϕ T } nicht regulär ist. Aus diesen Gründen<br />

ist es zweckmäßig, die Berechnung <strong>von</strong> A wie in Abschnitt 4.4.4 erläutert vorzunehmen. Die<br />

dort beschriebene Vorgehensweise erlaubt es zudem, in jedem Rechenschritt genau den Term<br />

des Polynoms hinzu zu nehmen, der zur stärksten Abnahme des Approximationsfehlers ε in<br />

(4.4.14) führt. Nach ν Schritten erhält man die beste Lösung mit den ν besten Merkmalen bzw.<br />

den besten Termen des Polynoms, d. h. man hat eine analytische Merkmalsauswahl; man kann<br />

dieses auch als sparsamen Schätzwert des Regressionspolynoms bezeichnen, da alle nicht genügend<br />

guten Terme unterdrückt werden.<br />

3. Iterative Lösung<br />

Die in (4.4.15) geforderte Minimierung <strong>von</strong> (4.4.14) ist grundsätzlich auch iterativ mit dem<br />

Ansatz<br />

AN+1 = AN − βNRN<br />

(4.4.30)<br />

möglich, wobei A0 eine beliebige Anfangsmatrix, RN die Richtung im N-ten Iterationsschritt<br />

und βN ein Faktor ist, der die Schrittweite bestimmt (s. (1.6.7), S. 36). Als Richtungen kommen<br />

der Gradient ∂ε/∂A in (4.4.21) oder auch ein zyklisches Durchlaufen aller Koordinaten, in<br />

diesem Falle aller Elemente <strong>von</strong> A, in Frage.<br />

4. Stochastische Approximation<br />

Beim iterativen Ansatz (4.4.30) muss der in (4.4.14) bzw. in (4.4.21) auftretende Erwartungswert<br />

geschätzt werden. Das ist möglich, wenn eine klassifizierte Stichprobe bekannt ist. Wenn<br />

aber Muster laufend beobachtet werden und bei jeder neuen Beobachtung ein verbesserter Wert<br />

für A berechnet werden soll, eignet sich (4.4.30) nicht. Das Problem kann prinzipiell mit der<br />

stochastischen Approximation (s. (1.6.29), S. 39) gelöst werden. Zu minimieren sei i. Allg. eine<br />

Funktion<br />

g(A) = E {s(A, c)} . (4.4.31)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!