21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.4. POLYNOMKLASSIFIKATOR (VA.2.2.3, 07.09.2005) 375<br />

wobei s <strong>von</strong> den Parametern A und der Zufallsvariablen c abhängt; ein Spezialfall ist (4.4.14).<br />

Ausgehend <strong>von</strong> einem beliebigen Startwert A0 wird bei Beobachtung des N–ten Wertes N c der<br />

Zufallsvariablen c ein verbesserter Wert<br />

AN = AN−1 − βN ∇ As(AN−1, N c) (4.4.32)<br />

berechnet. Obwohl die zu minimierende Funktion g(A) einen Erwartungswert enthält, ist dessen<br />

Kenntnis in (4.4.32) nicht erforderlich. Bedingungen für die Konvergenz der stochastischen<br />

Approximation (4.4.32) sind in der erwähnten Literatur angegeben.<br />

5. Rekursive Berechnung<br />

Bezeichnet man in (4.4.23) den mit N Stichprobenelementen geschätzten Erwartungswert mit<br />

E{g}N, so gilt<br />

E{g(c)} 1<br />

N<br />

E{g}N = 1<br />

N<br />

= N − 1<br />

N<br />

g( ϱ c) = E{g}N ,<br />

ϱ=1<br />

N−1<br />

<br />

ϱ=1<br />

g( ϱ c) + g( N c)<br />

<br />

N E{g}N−1 + 1<br />

N g(N c) . (4.4.33)<br />

Der Schätzwert E{g}N kann also mit dem vorherigen Schätzwert E{g}N−1 der neuen Beobachtung<br />

N c berechnet werden. Eine verallgemeinerte Form ist<br />

E{g}N = (1 − βN)E{g}N−1 + βNg( N c) , (4.4.34)<br />

wobei in (4.4.33) βN = N −1 ist. Entsprechendes gilt auch für (4.4.14). Setzt man in (4.4.19)<br />

AN = E{ϕϕ T −1 T<br />

}N E{ϕδ }N<br />

(4.4.35)<br />

und führt die mit N Stichprobenwerten berechneten Erwartungswerte entsprechend (4.4.33)<br />

auf die mit (N − 1) Werten berechneten zurück, ergibt sich eine Beziehung zwischen AN und<br />

AN−1. Die Rechnung ergibt<br />

AN = AN−1 + βN<br />

<br />

T −1 <br />

N T N T N<br />

E{ϕϕ }N ϕ( c) δ ( c) − ϕ ( c)AN−1 . (4.4.36)<br />

Der Bezug zwischen (4.4.32) und (4.4.36) ist offensichtlich, da in diesem Falle<br />

−∇ As = ϕ(δ T − ϕ T A) (4.4.37)<br />

ist. Eine Verallgemeinerung ist die zusätzliche Matrix [E{ϕϕ}N] −1 in (4.4.36). Approximiert<br />

man diese durch die Einheitsmatrix (“quick and dirty”), sind (4.4.32) und (4.4.36) identisch.<br />

Gleichungen zur Parameterberechnung wie in (4.4.32) oder in (4.4.36) spielen bei Lernalgorithmen<br />

eine große Rolle, da sie die laufende Verbesserung des Klassifikators aufgrund neuer<br />

Beobachtungen ermöglichen. Darauf wird im Abschnitt 4.8 nochmals eingegangen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!