21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

2.1 Die Kopplung <strong>von</strong> Lern- und Systemdynamik 53<br />

ponentialfunktion ähnlich wie die Momentenentwicklung in Abschnitt 1.1. Das nullte<br />

(Normierung) und das erste Moment einer Funktion g(t−t ′ ) (auf R+) sollen denjenigen<br />

der Exponentialfunktion gleich sein, 3<br />

� ∞<br />

g(s) ds<br />

0<br />

! � ∞<br />

= α exp(−s/τ) ds = ατ, und (2-15)<br />

0<br />

� ∞<br />

g(s) s ds ! � ∞<br />

= α exp(−s/τ) s ds = ατ 2 . (2-16)<br />

0<br />

0<br />

Deswegen sind die Parameter zur exponentiellen Approximation durch folgende Integrale<br />

gegeben,<br />

� ∞ � � ∞<br />

τ = g(s) s ds g(s) ds und (2-17)<br />

0<br />

α =<br />

0<br />

1<br />

� ∞<br />

g(s) ds.<br />

τ<br />

(2-18)<br />

0<br />

Die Größe τ aus (2-17) ist die gesuchte effektive Länge des Gedächtniskerns gr(t, ·) und<br />

somit die effektive Relaxationszeit T r des r-ten Codebuchzentrums. Sie umfasst die<br />

gesamte Vergangenheit des Lerners, ist also ein besseres Maß für die effektive Dynamik<br />

als die instantane Relaxationszeit Tr(t). Allerdings verändern sich auch die T r(t) mit<br />

der Zeit t, denn je nach Aktivierung ar(t) bekommt ein Neuron ein langes oder ein<br />

kurzes Gedächtnis.<br />

Mit T r(t) kann nun demonstriert werden, wie die oben angekündigte Verlangsamung<br />

der Lerndynamik durch das σ-Annealing verursacht wird, wenn sich das MVNN im<br />

Zustand stark gekoppelter Dynamik befindet. Dazu soll das Beispiel oben noch weiter<br />

vereinfacht werden. Es wird eine Datenquelle betrachtet, die nicht als Markovsystem<br />

schaltet, sondern deterministisch nach je TS Datenpunkten. Die Zustände seien nicht<br />

verrauscht, sondern exakt (±1). Dann ergeben sich Codebuchentwicklungen, wie sie<br />

in Abbildung 26 in der linken Spalte gezeigt sind. Sie alle sind idealisierte Ausschnitte<br />

aus Abb. 24, <strong>von</strong> oben nach unten für jeweils kleineres σ.<br />

In Abb. 26a ist das Codebuch quasi entartet. Die Gedächtniskerne der beiden Neuronen<br />

sind identisch und haben die nach (2-6) erwartete Länge, nämlich T r(t)=40. Die<br />

Gedächtniskerne sind nur für den letzten eingezeichneten Codebuchzustand dargestellt.<br />

Mit ihrer Länge T r(t) reichen sie nur unwesentlich über jeweils einen Systemzustand<br />

hinaus, denn mit TS =80=2 T r(t) ist die Systemdynamik langsamer als die Lerndynamik.<br />

Dadurch ergeben sich die starken Schwankungen der Codebuchzentren, ähnlich<br />

wie in Abb. 22a.<br />

Darunter, in Abb. 26b, bricht das Codebuch im Laufe seines Weges <strong>von</strong> einer Datenquelle<br />

zur anderen immer wieder deutlich auf. Die gleiche Situation konnte bereits<br />

an den beiden Pfeilen in Abb. 22a beobachtet werden, hier ist sie nun etwas besser<br />

sichtbar. Das kurzfristige Aufbrechen beruht auf der – im Vergleich zu Abb. 26a –<br />

3 Hier wird zur Vereinfachung der Notation das Argument <strong>von</strong> g umgedreht, g(t−t ′ )=gr(t, t ′ ). Durch<br />

t ′ statt s ausgedrückt, wird gr(t, t ′ ) <strong>von</strong> −∞ bis t integriert.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!