Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
A. Gedächtniskerne 99<br />
Eine exponentiell abnehmende Lernrate ε(t) = ε(0) exp(−t/τ), wie sie momentan<br />
im multivar-Algorithmus implementiert ist, führt bei τ ≫ t zu einem exponentiell<br />
zerfallenden Gedächtniskern ähnlich demjenigen in Gleichung (A-9). Denn in<br />
diesem Fall kann <strong>von</strong><br />
ε(t) = ε(0) e −t/�≈ ε(0) (A-11)<br />
ausgegangen werden. Er wird mit steigendem t langsam länger.<br />
Wenn dagegen schnell exponentiell abgekühlt wird, werden die Lernraten nach t ≫<br />
τ Iterationsschritten so klein, dass praktisch nichts mehr hinzugelernt wird. Man<br />
bekommt dann eine zerfallenden Gewichtung, also einen Gedächtniskern, der dem<br />
vorigen gerade entgegengesetzt ist. Ausgehend <strong>von</strong> einem Lernparameter<br />
ε(t) = (1−e −1/�)e −t/�= (1−q)q t , (A-12)<br />
wobei q := e −1/�< 1 gelten soll, bekommt man unter der Annahme t ≫ τ eine<br />
sehr kleine Lernrate, also verändern sich die Codebuchzentren kaum noch. Dann<br />
ist c(t+1)≈c(t) und die Lernregel für die Zentren kann wiefolgt genähert werden,<br />
c(t) = c(t−1) + ε(t)(x(t) − c(t−1))<br />
c(t) ≈ (1 − q t )c(t−1) + q t+1 c(t) + q t (1 − q)x(t) (A-13)<br />
t�<br />
= x(t ′ ��<br />
�t<br />
t′<br />
t′<br />
− −<br />
)e e�für t ≫ τ. (A-14)<br />
t ′ =1<br />
t ′ =1<br />
Es gehen also fast ausschließlich die ersten Datenpunkte in die Repräsentation ein,<br />
da die Schrittweiten später zu klein werden.<br />
Der generische Fall im univar-Algorithmus ist derjenige, in dem ε langsam verkleinert<br />
wird. Dabei bekommt man Gedächtniskerne, die etwa denen mit konstantem ε<br />
entsprechen. Wegen<br />
(1−ε) t−t′<br />
= exp � (t − t ′ ) ln(1−ε) � �<br />
t −<br />
�<br />
t′<br />
= exp −<br />
τ<br />
und (A-15)<br />
1/τ = − ln(1−ε) ≈ ε (A-16)<br />
ist die Länge dieses Gedächtniskernes etwa 1/ε. Er ” gleitet“ bei der Mittelung über den<br />
Datenstrom, wobei er sich selbst auch leicht verändert und länger wird, weil er parametrisch<br />
<strong>von</strong> t abhängt. Auf diese Weise bekommt man das erwähnte Mittelungsfenster<br />
als den Träger des Gedächtniskerns, in den oben besprochenen Beispielen immer das<br />
Intervall [0, t−1]. In diesem Fenster wird mit gr(t, ·) als Gewichtung der Mittelwert<br />
aller Datenpunkte berechnet.