Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
50 2. On-line Lernen mit univar<br />
der gegenseitigen Kompetition kurzfristig <strong>von</strong>einander (z.B. bei den beiden Pfeilen in<br />
Abb. 22a), können sich aber wieder am Ort des neuen Systemzustandes sammeln. Auf<br />
diese Weise wird die Kompetition zwischen den beiden Neuronen immer wieder aufgehoben,<br />
und zwar auch dann, wenn σ eigentlich so klein ist, dass sie entsprechend der<br />
optimalen Kurve (wieder gepunktet eingezeichnet) bereits zu einer Aufspaltung geführt<br />
haben sollte. Dies ist in allen Bereichen <strong>von</strong> Abb. 22a mit σ < σS, also rechts vom<br />
senkrechten Strich der Fall, sieht man vom Bereich kleiner σ < 0.7σS ab; hier scheint<br />
sich eine Aufspaltung abzuzeichnen.<br />
Wir bezeichnen diesen Fall eines schnell relaxierenden Codebuchs, das sich an wechselnde<br />
Systemzustände anpassen kann, als ” dynamisch gekoppelt.“<br />
Natürlich lässt sich dieser Fehler des Lernverfahrens, die dynamische Kopplung des<br />
Codebuchs an die Systemzustände, zunächst durch eine drastische Verkleinerung <strong>von</strong><br />
ε beheben (Abb. 22b, ε ist um einen Faktor 500 kleiner als in 22a). 2 Dadurch kommt<br />
es jedoch wieder zu den erwähnten Retardierungseffekten. Mit Tr = 200 TS ist die<br />
Verzögerung diesmal so stark, dass sie die Aufspaltung des Codebuchs während der<br />
kurzen Gesamtlerndauer <strong>von</strong> T =20 TS vollständig verhindert. Der Lernprozess müsste<br />
also entsprechend langsamer durchgeführt werden. Das Ergebnis eines 500-mal langsameren<br />
Annealingprozesses auf denselben Daten ist in Abbildung 23b zu sehen. Hier ist<br />
T =10 4 TS, wodurch das Verhalten des Codebuchs als Funktion des Lernparameters σ<br />
ähnlich wird wie beim randomisierten Lernen in Abb. 21, wo T =10 3 TS gilt. Dieses Ergebnis<br />
zeigt, dass bei dynamisch entkoppeltem Lernen, bei der entweder ε klein oder TS<br />
klein sein muss, die Retardierung durch ein kleineres ε problemlos durch langsameres<br />
σ-Abkühlen aufgehoben werden kann.<br />
Der dynamischen Kopplung dagegen, die in 22a stattfindet, ist durch langsameres<br />
Annealing nicht beizukommen. Sie bleibt auch in Abb. 23a über weite Bereiche der<br />
σ-Werte bestehen. Wie in 22a bricht das Codebuch erst bei σ≈0.7σS langsam auf, was<br />
jedoch wegen der geringen Auflösung in Abb. 23a nicht zu bemerken ist. Abbildung 24<br />
zeigt wieder den Abkühlprozess aus Abb. 23a, er wird jedoch bis zu wesentlich kleineren<br />
σ/σS-Werten durchgeführt. Jetzt wird eine Aufspaltung sichtbar, und zwar bei σ ≈<br />
0.6σS. Die dynamische Kopplung kann demnach durch weiteres Abkühlen aufgehoben<br />
und so ein Phasenübergang erzwungen werden. An dem in Abb. 24 dargestellten<br />
Verhalten cr(σ) ändert sich auch bei langsamerem Abkühlen nichts.<br />
Die Verschiebung der Aufspaltung zu kleineren Werten σ/σS ist im dynamisch gekoppelten<br />
Fall (Tr ≈ 0.4 TS) demnach kein Artefakt, wie es die Retardierung durch zu<br />
kleines ε ist, sondern eine echte Eigenschaft der Lerndynamik.<br />
Der Phasenübergang, der bei σ/σS = 1 erwartet wird, tritt im Fall starker Kopplung<br />
immer bei zu kleinen Werten <strong>von</strong> σ/σS auf. Dies ist im Zusammenhang mit der Dichteschätzung<br />
durch univar nicht erwünscht, denn es kommt wesentlich auf den hierarchi-<br />
2 Ein ähnlicher Vergleich <strong>von</strong> Lernkurven mit großen und kleinen ε findet sich schon in Abb. 6b in der<br />
Einleitung. Dort wurde das Problem des on-line Lernens nicht am Phasenübergang demonstriert,<br />
sondern an der globalen Mittelwertsbildung. Jede einzelne lokale multivariate Geometrieoptimierung<br />
in der zweiten Phase eines multivar-Trainings weist ähnliches dynamisches Verhalten auf wie<br />
dasjenige in Abb. 6b.