21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2.1 Die Kopplung <strong>von</strong> Lern- und Systemdynamik 47<br />

<strong>von</strong> lokalen Momenten statt. Auch hier lässt sich eine ähnliche Gleichheit <strong>von</strong> zweitem<br />

lokalem Moment σ2 S des Systems und σ2krit vermuten, die den nächsten Phasenübergang<br />

verursacht. Insgesamt ist der univar-Algorithmus auf randomisierten Daten also ein<br />

Raumskalendetektor.<br />

Randomisierte Daten<br />

Bereits bei trivialer Systemdynamik, etwa bei randomisierten Daten (TS ≤2), treten bei<br />

σ = σS nichttriviale Effekte auf. Das kritische Langsamwerden dort ist eine bekannte<br />

Eigenschaft <strong>von</strong> Phasenübergängen zweiter Ordnung. Wird in einem univar-Training<br />

σ relativ schnell abgekühlt, so kommt es aufgrund des kritischen Langsamwerdens zu<br />

einer Verzögerung der Phasentrennung. Abbildung 21 zeigt diese Retardierung anhand<br />

des randomisierten Datensatzes aus Abb. 6a. Sie wird zusätzlich noch durch die Wahl<br />

des Lernparameters ε in der Lernregel (1-41) verstärkt, der bei kleinen Werten dazu<br />

führt, dass sich mit dem gesamten Lernverhalten des MVNN auch die Phasentrennung<br />

verzögert.<br />

Man sieht, wie sich durch die verrauschten Daten ein leichtes Schwanken auf die Codebuchzentren<br />

überträgt und wie der Aufspaltungsprozess verzögert wird. Das optimale<br />

Aufspaltungsverhalten ist zum Vergleich gepunktet eingezeichnet. Der Parameter ε,<br />

der invers in die Relaxationszeit des Codebuchs nach den Gleichungen (2-6) bis (2-8)<br />

eingeht, ist mit dem Wert ε = 0.05 auf der einen Seite zu groß, das Rauschen verhindern<br />

zu können, auf der anderen Seite ist er jedoch zu klein, das Codebuch schnell<br />

genug aufspalten zu lassen. Um solche Retardierungseffekte zu vermeiden, muss der<br />

Abkühlprozess am Phasenübergang so langsam durchgeführt werden, dass das MVNN<br />

auch bei kleinem ε die Möglichkeit hat, das kritische Langsamwerden zu überwinden<br />

und in den Optimalzustand zu relaxieren. Die gepunktete optimale Kurve wurde auf<br />

diese Weise bestimmt.<br />

x/σS<br />

1<br />

−1<br />

σ/σS =1 0.9 0.8 0.7<br />

c ∗ 1 (σ)<br />

c ∗ 2 (σ)<br />

t = 0 t −→ t = 10 3 TS<br />

Abbildung 21: Rasches σ-Annealing bei randomisiertem Lernen (TS =2). Das Codebuch besteht aus<br />

zwei Zentren univariater Normalverteilungen. Bei relativ kurzem Lernprozess (T =2000=10 3 TS, TL=<br />

40=20TS, schwarze Linien) und dementsprechend schnellem Abkühlen wird die Quasi-Entartung der<br />

beiden Codebuchzentren zwar am erwarteten Punkt bei σ=σS aufgehoben (Pfeil), die Relaxationszeit<br />

ist jedoch in der Nähe des Phasenübergangs zu groß, als dass die Codebuchzentren cr bei der schnellen<br />

Kühlung ihre Gleichgewichtslagen c ∗ r finden könnten. Das jeweils optimale Codebuch (c ∗ r, gepunktete<br />

Line), das genau bei der Standardabweichung σS aufbricht, wurde durch extrem langsames Annealing<br />

bestimmt.<br />

c1(t)<br />

c2(t)

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!