21.12.2012 Aufrufe

Klassifikation von Mustern

Klassifikation von Mustern

Klassifikation von Mustern

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

4.8. UNÜBERWACHTES LERNEN (VA.1.2.3, 13.04.2004) 421<br />

erfüllt. Eine solche Komponente wird in zwei Mischungskomponenten zerlegt, deren Startparameter<br />

analog zu (4.8.20) bestimmt werden, es wird erneut die Iteration mit (4.8.21) und (4.8.22)<br />

bis zur Konvergenz ausgeführt, und es wird erneut (4.8.23) gepüft. Diese Schritte werden wiederholt,<br />

bis sich nichts mehr ändert.<br />

Varianten dieser Vorgehensweise bestehen darin, die Kovarianzmatrizen Σκ,l auf Diagonalmatrizen<br />

einzuschränken; die Auffrischung der Parameter in (4.8.22) nicht für alle Mischungskomponenten<br />

durchzuführen, sondern nur für die eine mit maximaler a posteriori Wahrscheinlichkeit<br />

in (4.8.21); die Gleichungen (4.8.21) und (4.8.22) je Muster oder je Stichprobe zu<br />

durchlaufen; die Iteration nicht mit zwei Mischungskomponenten zu starten sondern mit einer<br />

Anzahl, die durch vorangehende Analyse <strong>von</strong> Häufungsgebieten bestimmt wurde, z. B. mit Hilfe<br />

der Vektorquantisierung in Abschnitt 2.1.4 oder mit Verfahren aus Abschnitt 4.8.4; oder die<br />

(beim EM–Algorithmus als bekannt vorausgesetzte aber unbekannte) Klassenanzahl nicht über<br />

(4.8.23) zu bestimmen, sondern durch Verwendung <strong>von</strong> Paaren <strong>von</strong> Mischungskomponenten,<br />

wofür auf die zitierte Literatur verwiesen wird.<br />

Berechnung <strong>von</strong> MAPS<br />

Zur Berechnung <strong>von</strong> MAPS (bzw. <strong>von</strong> BAYES-Schätzwerten) wird auf die entkoppelten rekursiven<br />

Gleichungen (4.2.73) zurückgegriffen, wobei die Entkopplung heuristisch durch eine<br />

Variante der Entscheidungsüberwachung erfolgt; dieses ist im Prinzip auch für die MLS nach<br />

(4.2.59) möglich sowie für die nichtrekursiven Versionen dieser Schätzwerte. Die Vorgehensweise<br />

ist ähnlich wie oben, wobei wir hier als Beispiel <strong>von</strong> einer unklassifizierten Stichprobe<br />

und nur einer Mischungskomponente je Klasse ausgehen.<br />

Zunächst werden Startwerte der Parameter bestimmt, die entweder zufällig gewählt werden<br />

oder, natürlich wesentlich besser, aus einer kleinen klassifizierten Stichprobe berechnet werden.<br />

Mit diesen Startwerten werden für ein Muster aus der Stichprobe (für die rekursive Parameterschätzung)<br />

oder für alle Muster der Stichprobe (für die nichtrekursive Parameterschätzung)<br />

die a posteriori Wahrscheinlichkeiten der Klassen berechnet. Bei der harten oder festen Entscheidungsüberwachung<br />

wird das Muster mit (4.1.33), S. 314, klassifiziert und die zugeordnete<br />

Klasse als richtige Klasse betrachtet. Statt mit (4.8.18) werden danach die Parameter der ermittelten<br />

Klasse mit (4.2.73) verbessert. Mit den verbesserten Parametern wird wiederum neu<br />

klassifiziert und danach neue Parameter berechnet. Die Schritte <strong>Klassifikation</strong> und Parameterschätzung<br />

werden bis zur Konvergenz iteriert. Da eine nicht randomisierte Entscheidung vom<br />

System getroffen und der Lernprozess dadurch überwacht wird, bezeichnet man diese Vorgehensweise<br />

als (feste) Entscheidungsüberwachung. Die Konvergenz ist experimentell zu prüfen.<br />

Statt der festen Entscheidungsüberwachung kann eine randomisierte verwendet werden. Mit<br />

den vorhandenen Schätzwerten für die Parameter werden Schätzwerte p(Ωλ | j c), λ = 1, . . . , k<br />

für die a posteriori Wahrscheinlichkeiten gemäß (4.1.34), S. 315, berechnet. Das beobachtete<br />

Muster j c wird der Klasse Ωκ mit der Wahrscheinlichkeit p(Ωκ| j c) zugeordnet. Die Parameter<br />

dieser Klasse werden mit (4.2.59) (MLS ) oder (4.2.73) (MAPS ) verbessert. Auch hier wird bis<br />

zur Konvergenz iteriert. Zu Aussagen über die Konvergenz, die unter bestimmten Bedingungen<br />

gesichert werden kann, wird auf die Literatur verwiesen.<br />

In diesem Sinne ist der EM–Algorithmus die Variante der Entscheidungsüberwachung, bei<br />

der nicht nur einer, sondern alle Parameter aufgefrischt werden, und zwar mit einem Anteil, der<br />

ihrer a posteriori Wahrscheinlichkeit entspricht.<br />

In jedem Falle ist eine wesentliche Verbesserung des Konvergenzverhaltens zu erwarten,<br />

wenn man nicht mit beliebigen Startwerten für die Parameter beginnt, sondern mit einigermaßen

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!