21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

90 4. Neuigkeitsorientiertes Lernen<br />

skalen im System auch mit unterschiedlicher Kompression zu reagieren. Dies wird<br />

anhand einer Verteilungsdichte mit stark unterschiedlichen Clustergewichten wie in<br />

Abb. 48 deutlich. Die präsentierte Verteilungsdichte dort weist einen großen und einen<br />

kleinen Cluster auf, die beide <strong>von</strong> der Schwelle ǫA abgeschnitten werden. Dementsprechend<br />

wird der große stärker komprimiert als der kleine.<br />

Auf diese Weise wird das Problem symmetrisiert, und die Gewichte der tatsächlich<br />

gelernten Cluster werden einander angeglichen. Das zu lernende System aus zwei<br />

Zuständen mit unterschiedlichen Gewichten entpricht etwa demjenigen, deren theoretisch<br />

erwartete Phasenübergangskurven in Abb. 34a gezeigt sind. Dort sind Systeme<br />

mit ähnlichen Gewichten schwächer dynamisch gekoppelt als solche mit sehr unterschiedlichen<br />

Clustergewichten. Im Bereich nicht zu starker dynamischer Kopplung,<br />

also bei τS-Werten, die zwischen σ/σS = 0.5 und 1 eingezeichnet sind, bedeutet eine<br />

Angleichung der beiden statistischen Gewichte also eine Entkopplung der Dynamiken.<br />

Auch die beiden unterschiedlichen Lebensdauern aus Abb. 48 werden einander durch<br />

die im ANTS vorgenommene Datenselektion angeglichen und somit aus dem dynamisch<br />

gekoppelten Bereich entfernt.<br />

Diese Fähigkeit, unterschiedlich auf unterschiedliche Lebensdauern im System zu reagieren,<br />

entsteht im ANTSdadurch, dass eine feste oder nur langsam veränderliche<br />

Schwelle verwendet wird. Die Aufmerksamkeitsschwelle unterscheidet nicht zwischen<br />

verschiedenen Datenclustern. Es zeigt sich hier, dass die Zeitskala der Aufmerksamkeit<br />

eine wichtige Rolle bei der Kompression unterschiedlicher Lebensdauern spielt. Ist ǫA<br />

zu beweglich, dann passt sie sich, wie im Beispiel aus Abb. 47c, während der Lebensdauer<br />

jedes Clusters an, und zwar so, dass sie leicht nach oben korrigiert wird, wodurch<br />

ständig weitere Daten gelernt werden. Das Bild in 48 wird durch diese Schwellenanpassung<br />

relativiert. Die effektiv wirksame Schwelle liegt bei dem großen Cluster mit<br />

den langen Lebensdauern höher als bei dem kleinen. Die unterschiedliche Zeitskalenkompression<br />

wird auf diese Weise etwas abgeschwächt.<br />

Leider geht mit der Interpretation der Update-Regel (4-7) als gleitende Mittelwertsbildung<br />

auch die Bedeutung <strong>von</strong> 1/η als deren Zeitskala verloren. Es ist also sehr<br />

schwierig, die genaue Relaxationsgeschwindigkeit der Aufmerksamkeitsschwelle ǫA zu<br />

bestimmen oder einzustellen. Diese ist jedoch nur dann wichtig, wenn man an einer<br />

maximalen Kompression unterschiedlicher Lebensdauern interessiert ist. Für alle hier<br />

besprochenen Beispiele reicht die grobe Approximation durch 1/η aus.<br />

Wie bereits in Abb. 34b deutlich wurde, eignen sich Systeme aus nur zwei Zuständen<br />

nur bedingt, um Effekte zu demonstrieren, die auf der Angleichung <strong>von</strong> statistischen<br />

Gewichten beruhen. Schon im einfachen Fall <strong>von</strong> α = 1 können die theoretischen<br />

Ergebnisse nur sehr schwer in numerischen Simulationen reproduziert werden. Aus<br />

diesem Grund kann die unterschiedliche Zeitskalenkompression in Abb. 48 hier nicht<br />

an einem solchen System vorgeführt werden.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!