21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

1.6. OPTIMIERUNGSVERFAHREN 39<br />

initialisiere Parameter mit B (0)<br />

, setze i = −1<br />

setze i = i + 1<br />

E–Schritt: berechne Q (i+1)<br />

B | B (i)<br />

M–Schritt: berechne B (i+1)<br />

UNTIL B (i+1)<br />

= B (i)<br />

geschätzter Parameter: B = B (i)<br />

= argmax<br />

{ B (i+1)<br />

Q<br />

}<br />

(i+1)<br />

B | B (i)<br />

Bild 1.6.1: Der EM–Algorithmus iteriert die Schritte “expectation” (E–Schritt) und “maximization”<br />

(M–Schritt) bis zur Kovergenz gegen ein lokales Optimum<br />

Der Term Q(·) wird als Q–Funktion bzw. als KULLBACK–LEIBLER-Statistik bezeichnet.<br />

Satz 1.4 Zur Maximierung <strong>von</strong> L, d. h. zur Maximum-likelihood-Schätzung <strong>von</strong> B ist die<br />

Maximierung der KULLBACK-LEIBLER-Statistik Q hinreichend.<br />

Beweis: s. z. B. [Dempster et al., 1977], [Hornegger, 1996], Kapitel 3.<br />

Wenn statt einer Beobachtung x eine Stichprobe { 1 x, . . . , N x} <strong>von</strong> Beobachtungen gemacht<br />

wurde, erhält man die KULLBACK–LEIBLER-Statistik Q der Stichprobe aus den<br />

KULLBACK–LEIBLER-Statistiken ϱ Q der einzelnen Beobachtungen gemäß<br />

<br />

(i+1)<br />

Q B | B (i)<br />

=<br />

N<br />

ϱ=1<br />

<br />

ϱ<br />

(i+1)<br />

Q B | B (i)<br />

. (1.6.28)<br />

Daraus ergibt sich das Grundschema des EM–Algorithmus in Bild 1.6.1. Zur Erarbeitung<br />

einer konkreten Version müssen die Daten x, y und die Dichten p(x, y|B), p(y|x, B)<br />

ermittelt werden; dann muss die KULLBACK–LEIBLER-Statistik Q berechnet und ein geeignetes<br />

Maximierungsverfahren dafür bestimmt werden. Gegenüber einer direkten Maximumlikelihood-Schätzung<br />

erscheint der EM–Algorithmus daher zunächst wie ein Umweg. Der Vorteil<br />

des EM–Algorithmus liegt jedoch darin, dass das hochdimensionale Maximum-likelihood-<br />

Schätzproblem oft in Teilprobleme separiert wird, wodurch die Komplexität reduziert wird, und<br />

dass es für die Nullstellen des Gradienten <strong>von</strong> Q oft geschlossene Lösungen gibt.<br />

Ein wichtiges Beispiel für die Nutzung des EM–Algorithmus ist die Schätzung der Parameter<br />

einer Mischungsverteilung in Abschnitt 4.8.2.<br />

1.6.5 Stochastische Approximation<br />

Die Verfahren der stochastischen Approximation eignen sich für Minimierungsprobleme des<br />

Typs<br />

g(a ∗ ) = min<br />

a {g(a)} , g(a) = E{s(a, x)} . (1.6.29)<br />

Es wird also der Erwartungswert einer Funktion s minimiert, die <strong>von</strong> der Variablen x und<br />

dem Parameter a abhängt. Dieses ist zum einen möglich, wenn man vollständige statistische

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!