21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

88 4. Neuigkeitsorientiertes Lernen<br />

1<br />

x/σS<br />

−1<br />

x/σS<br />

x(t)<br />

C(t)<br />

(a)<br />

0 TS t<br />

x(t) x(t)<br />

1<br />

−1<br />

1<br />

x/σS<br />

−1<br />

C(t)<br />

(b)<br />

0 TS t<br />

x(t)<br />

C(t)<br />

(c)<br />

0 TS t<br />

t<br />

TS<br />

(d)<br />

0<br />

0 TS t<br />

Abbildung 47: Kompression <strong>von</strong> Lebensdauern<br />

im System, sichtbar anhand dreier verschiedener<br />

Lernszenarien: in (a) ohne Selektion (α = 1), in<br />

(b) mit Selektion (α = 0.3), ohne die Schwelle zu<br />

verändern, und in (c) mit langsamer Anpassung<br />

<strong>von</strong> ǫA. Die gelernten Daten sind jeweils schwarz<br />

bei (±1) eingezeichnet. In (d) ist die Entwicklung<br />

der subjektiven Zeit tL aus (b) dargestellt. Man<br />

sieht deutlich die Zeitspannen, während derer sie<br />

” stehenbleibt,“ weil keine relevanten Daten mehr<br />

gesehen werden. Der Datensatz besteht aus zwei<br />

Punktquellen bei (±1). Die Lernparameter sind<br />

mit TS/TL = 5.0, und σ = 0.8σS in (a) in der<br />

entarteten, in (b) und (c) dagegen bereits in der<br />

aufgespalteten Phase (vgl. Abb. 46).<br />

4.2.3 Dynamikentkopplung durch Zeitskalenkompression<br />

Die Verteilungsdichte des in Abb. 45 gelernten Datensatzes ist diejenige, die bereits in<br />

Abb. 42a, b präsentiert wurde. Beide Datencluster werden <strong>von</strong> der Schwelle αǫA abgeschnitten,<br />

und da sie gleiche Form und gleiches statistisches Gewicht haben, werden sie<br />

dadurch auch gleich stark komprimiert. Dasselbe findet in Abb. 46 statt, dort werden<br />

zwei punktförmige Datenquellen mit gleichen statistischen Gewichten komprimiert.<br />

Dass dieser Prozess nicht nur eine Kompression <strong>von</strong> statistischen Gewichten, sondern<br />

auch <strong>von</strong> Zeitskalen bedeutet, so wie sie in Abb. 7 als Ziel des Algorithmus vorgestellt<br />

wurde, kann am Beispiel aus Abbildung 47 demonstriert werden. Wieder besteht die<br />

Datenquelle aus zwei deterministisch abwechselnden Punktverteilungen. In Abb. 47a<br />

ist ein stark dynamisch gekoppelter Lernprozess, ähnlich demjenigen aus Abb. 26a1<br />

zu sehen. Es findet keine Aufspaltung statt, da sich der Lerner mit einem Zeitskalen-<br />

Verhältnis τS = 5.0 bei dem gegebenen Verhältnis der Breiten σ/σS = 0.8 über der<br />

Phasenübergangskurve befindet (vgl. Abb. 46).<br />

Zum Vergleich ist in Abb. 47b ein ANTS-Training mit fester Schwelle ǫA dargestellt,<br />

t<br />

tL

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!