Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
90 4. Neuigkeitsorientiertes Lernen<br />
skalen im System auch mit unterschiedlicher Kompression zu reagieren. Dies wird<br />
anhand einer Verteilungsdichte mit stark unterschiedlichen Clustergewichten wie in<br />
Abb. 48 deutlich. Die präsentierte Verteilungsdichte dort weist einen großen und einen<br />
kleinen Cluster auf, die beide <strong>von</strong> der Schwelle ǫA abgeschnitten werden. Dementsprechend<br />
wird der große stärker komprimiert als der kleine.<br />
Auf diese Weise wird das Problem symmetrisiert, und die Gewichte der tatsächlich<br />
gelernten Cluster werden einander angeglichen. Das zu lernende System aus zwei<br />
Zuständen mit unterschiedlichen Gewichten entpricht etwa demjenigen, deren theoretisch<br />
erwartete Phasenübergangskurven in Abb. 34a gezeigt sind. Dort sind Systeme<br />
mit ähnlichen Gewichten schwächer dynamisch gekoppelt als solche mit sehr unterschiedlichen<br />
Clustergewichten. Im Bereich nicht zu starker dynamischer Kopplung,<br />
also bei τS-Werten, die zwischen σ/σS = 0.5 und 1 eingezeichnet sind, bedeutet eine<br />
Angleichung der beiden statistischen Gewichte also eine Entkopplung der Dynamiken.<br />
Auch die beiden unterschiedlichen Lebensdauern aus Abb. 48 werden einander durch<br />
die im ANTS vorgenommene Datenselektion angeglichen und somit aus dem dynamisch<br />
gekoppelten Bereich entfernt.<br />
Diese Fähigkeit, unterschiedlich auf unterschiedliche Lebensdauern im System zu reagieren,<br />
entsteht im ANTSdadurch, dass eine feste oder nur langsam veränderliche<br />
Schwelle verwendet wird. Die Aufmerksamkeitsschwelle unterscheidet nicht zwischen<br />
verschiedenen Datenclustern. Es zeigt sich hier, dass die Zeitskala der Aufmerksamkeit<br />
eine wichtige Rolle bei der Kompression unterschiedlicher Lebensdauern spielt. Ist ǫA<br />
zu beweglich, dann passt sie sich, wie im Beispiel aus Abb. 47c, während der Lebensdauer<br />
jedes Clusters an, und zwar so, dass sie leicht nach oben korrigiert wird, wodurch<br />
ständig weitere Daten gelernt werden. Das Bild in 48 wird durch diese Schwellenanpassung<br />
relativiert. Die effektiv wirksame Schwelle liegt bei dem großen Cluster mit<br />
den langen Lebensdauern höher als bei dem kleinen. Die unterschiedliche Zeitskalenkompression<br />
wird auf diese Weise etwas abgeschwächt.<br />
Leider geht mit der Interpretation der Update-Regel (4-7) als gleitende Mittelwertsbildung<br />
auch die Bedeutung <strong>von</strong> 1/η als deren Zeitskala verloren. Es ist also sehr<br />
schwierig, die genaue Relaxationsgeschwindigkeit der Aufmerksamkeitsschwelle ǫA zu<br />
bestimmen oder einzustellen. Diese ist jedoch nur dann wichtig, wenn man an einer<br />
maximalen Kompression unterschiedlicher Lebensdauern interessiert ist. Für alle hier<br />
besprochenen Beispiele reicht die grobe Approximation durch 1/η aus.<br />
Wie bereits in Abb. 34b deutlich wurde, eignen sich Systeme aus nur zwei Zuständen<br />
nur bedingt, um Effekte zu demonstrieren, die auf der Angleichung <strong>von</strong> statistischen<br />
Gewichten beruhen. Schon im einfachen Fall <strong>von</strong> α = 1 können die theoretischen<br />
Ergebnisse nur sehr schwer in numerischen Simulationen reproduziert werden. Aus<br />
diesem Grund kann die unterschiedliche Zeitskalenkompression in Abb. 48 hier nicht<br />
an einem solchen System vorgeführt werden.