Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
2.1 Die Kopplung <strong>von</strong> Lern- und Systemdynamik 53<br />
ponentialfunktion ähnlich wie die Momentenentwicklung in Abschnitt 1.1. Das nullte<br />
(Normierung) und das erste Moment einer Funktion g(t−t ′ ) (auf R+) sollen denjenigen<br />
der Exponentialfunktion gleich sein, 3<br />
� ∞<br />
g(s) ds<br />
0<br />
! � ∞<br />
= α exp(−s/τ) ds = ατ, und (2-15)<br />
0<br />
� ∞<br />
g(s) s ds ! � ∞<br />
= α exp(−s/τ) s ds = ατ 2 . (2-16)<br />
0<br />
0<br />
Deswegen sind die Parameter zur exponentiellen Approximation durch folgende Integrale<br />
gegeben,<br />
� ∞ � � ∞<br />
τ = g(s) s ds g(s) ds und (2-17)<br />
0<br />
α =<br />
0<br />
1<br />
� ∞<br />
g(s) ds.<br />
τ<br />
(2-18)<br />
0<br />
Die Größe τ aus (2-17) ist die gesuchte effektive Länge des Gedächtniskerns gr(t, ·) und<br />
somit die effektive Relaxationszeit T r des r-ten Codebuchzentrums. Sie umfasst die<br />
gesamte Vergangenheit des Lerners, ist also ein besseres Maß für die effektive Dynamik<br />
als die instantane Relaxationszeit Tr(t). Allerdings verändern sich auch die T r(t) mit<br />
der Zeit t, denn je nach Aktivierung ar(t) bekommt ein Neuron ein langes oder ein<br />
kurzes Gedächtnis.<br />
Mit T r(t) kann nun demonstriert werden, wie die oben angekündigte Verlangsamung<br />
der Lerndynamik durch das σ-Annealing verursacht wird, wenn sich das MVNN im<br />
Zustand stark gekoppelter Dynamik befindet. Dazu soll das Beispiel oben noch weiter<br />
vereinfacht werden. Es wird eine Datenquelle betrachtet, die nicht als Markovsystem<br />
schaltet, sondern deterministisch nach je TS Datenpunkten. Die Zustände seien nicht<br />
verrauscht, sondern exakt (±1). Dann ergeben sich Codebuchentwicklungen, wie sie<br />
in Abbildung 26 in der linken Spalte gezeigt sind. Sie alle sind idealisierte Ausschnitte<br />
aus Abb. 24, <strong>von</strong> oben nach unten für jeweils kleineres σ.<br />
In Abb. 26a ist das Codebuch quasi entartet. Die Gedächtniskerne der beiden Neuronen<br />
sind identisch und haben die nach (2-6) erwartete Länge, nämlich T r(t)=40. Die<br />
Gedächtniskerne sind nur für den letzten eingezeichneten Codebuchzustand dargestellt.<br />
Mit ihrer Länge T r(t) reichen sie nur unwesentlich über jeweils einen Systemzustand<br />
hinaus, denn mit TS =80=2 T r(t) ist die Systemdynamik langsamer als die Lerndynamik.<br />
Dadurch ergeben sich die starken Schwankungen der Codebuchzentren, ähnlich<br />
wie in Abb. 22a.<br />
Darunter, in Abb. 26b, bricht das Codebuch im Laufe seines Weges <strong>von</strong> einer Datenquelle<br />
zur anderen immer wieder deutlich auf. Die gleiche Situation konnte bereits<br />
an den beiden Pfeilen in Abb. 22a beobachtet werden, hier ist sie nun etwas besser<br />
sichtbar. Das kurzfristige Aufbrechen beruht auf der – im Vergleich zu Abb. 26a –<br />
3 Hier wird zur Vereinfachung der Notation das Argument <strong>von</strong> g umgedreht, g(t−t ′ )=gr(t, t ′ ). Durch<br />
t ′ statt s ausgedrückt, wird gr(t, t ′ ) <strong>von</strong> −∞ bis t integriert.