21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

86 4. Neuigkeitsorientiertes Lernen<br />

log 10 τS<br />

2<br />

0<br />

−2<br />

−4<br />

0<br />

α = 1<br />

σS<br />

α = 0.35<br />

Abbildung 45: Phasendiagramm des ersten Aufbrechens in einem System, das zwischen zwei verrauschten<br />

Zuständen deterministisch schaltet. Der Lerner besteht aus M = 20 Neuronen und wurde<br />

nach dem ANTS sowohl mit allen (α=1), als auch mit 35 Prozent der Daten trainiert. Beim selektierenden<br />

Lernen ist die Kurve zu größeren σ verschoben. Sie ist noch weiter verschoben als es die Breite<br />

σ c S des Verteilungsstumpfes pc erwarten ließe, die etwa auch die Breite des gelernten Datensatzes ist.<br />

Die gepunktete Linie nahe den (α=0.35)-Phasenübergängen ist aus der durchgezogenen Kurve links<br />

durch Streckung um den Faktor 1.31 in σ-Richtung und Verschieben um log 10(0.45) in τS-Richtung<br />

entstanden.<br />

ein Datenanteil <strong>von</strong> α=0.35 gelernt wird, dann wird die Kurve zu größeren σkrit-Werten<br />

verschoben, wie zu erwarten war.<br />

Bemerkenswert und unerwartet an Abbildung 45 ist dagegen, dass die verschobene<br />

Kurve nicht bei σ = σ c S , der Standardabweichung des Stumpfes pc abfällt, sondern<br />

bei noch größeren Werten σkrit. Es führt also hier nicht nur die globale Varianz des<br />

insgesamt gelernten Datensatzes zum Phasenübergang.<br />

Dies kann verstanden werden, wenn man sich die gelernten Punkte aus Sicht der einzelnen<br />

Normalkomponenten ansieht. Da die Spitzen der Mischung A(· ; θ) zur Datenselektion<br />

führen, also gerade dort weniger gelernt wird, wo sich auch die Zentren der<br />

Komponenten befinden, werden verstärkt Punkte an den Flanken der Normalverteilungen<br />

gelernt. Dies bedeutet, dass der Datensatz aus Sicht der einzelnen Komponenten<br />

eine noch größere lokale Varianz hat als es die globale vermuten ließe.<br />

Verschiebung in τS-Richtung<br />

Durch die Selektion der Datenpunkte findet die erwünschte Modulierung der Lernrate<br />

statt. Beim Weitertrainieren des Lerners im quasi-stationären Zustand bekommt man<br />

dadurch, dass bei jedem Punkt x die ursprüngliche Lernrate mit f(x) multipliziert wird,<br />

effektiv einen um α skalierten Lernparameter. Denn dann ändern sich Codebuch und<br />

Aktivitätswerte ar nur unwesentlich, und man kann den Mittelwert auseinanderziehen,<br />

σ c S<br />

ε 〈far〉 X ≈ ε 〈f〉 X 〈ar〉 X = εα 〈ar〉. (4-17)<br />

?<br />

σ

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!