Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
86 4. Neuigkeitsorientiertes Lernen<br />
log 10 τS<br />
2<br />
0<br />
−2<br />
−4<br />
0<br />
α = 1<br />
σS<br />
α = 0.35<br />
Abbildung 45: Phasendiagramm des ersten Aufbrechens in einem System, das zwischen zwei verrauschten<br />
Zuständen deterministisch schaltet. Der Lerner besteht aus M = 20 Neuronen und wurde<br />
nach dem ANTS sowohl mit allen (α=1), als auch mit 35 Prozent der Daten trainiert. Beim selektierenden<br />
Lernen ist die Kurve zu größeren σ verschoben. Sie ist noch weiter verschoben als es die Breite<br />
σ c S des Verteilungsstumpfes pc erwarten ließe, die etwa auch die Breite des gelernten Datensatzes ist.<br />
Die gepunktete Linie nahe den (α=0.35)-Phasenübergängen ist aus der durchgezogenen Kurve links<br />
durch Streckung um den Faktor 1.31 in σ-Richtung und Verschieben um log 10(0.45) in τS-Richtung<br />
entstanden.<br />
ein Datenanteil <strong>von</strong> α=0.35 gelernt wird, dann wird die Kurve zu größeren σkrit-Werten<br />
verschoben, wie zu erwarten war.<br />
Bemerkenswert und unerwartet an Abbildung 45 ist dagegen, dass die verschobene<br />
Kurve nicht bei σ = σ c S , der Standardabweichung des Stumpfes pc abfällt, sondern<br />
bei noch größeren Werten σkrit. Es führt also hier nicht nur die globale Varianz des<br />
insgesamt gelernten Datensatzes zum Phasenübergang.<br />
Dies kann verstanden werden, wenn man sich die gelernten Punkte aus Sicht der einzelnen<br />
Normalkomponenten ansieht. Da die Spitzen der Mischung A(· ; θ) zur Datenselektion<br />
führen, also gerade dort weniger gelernt wird, wo sich auch die Zentren der<br />
Komponenten befinden, werden verstärkt Punkte an den Flanken der Normalverteilungen<br />
gelernt. Dies bedeutet, dass der Datensatz aus Sicht der einzelnen Komponenten<br />
eine noch größere lokale Varianz hat als es die globale vermuten ließe.<br />
Verschiebung in τS-Richtung<br />
Durch die Selektion der Datenpunkte findet die erwünschte Modulierung der Lernrate<br />
statt. Beim Weitertrainieren des Lerners im quasi-stationären Zustand bekommt man<br />
dadurch, dass bei jedem Punkt x die ursprüngliche Lernrate mit f(x) multipliziert wird,<br />
effektiv einen um α skalierten Lernparameter. Denn dann ändern sich Codebuch und<br />
Aktivitätswerte ar nur unwesentlich, und man kann den Mittelwert auseinanderziehen,<br />
σ c S<br />
ε 〈far〉 X ≈ ε 〈f〉 X 〈ar〉 X = εα 〈ar〉. (4-17)<br />
?<br />
σ