Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
42 2. On-line Lernen mit univar<br />
Nach jedem Datenpunkt x werden sowohl alle Netzwerk-, als auch alle Lernparameter<br />
aktualisiert.<br />
Dem ANN ist zunächst keine der im System enthaltenen Raum- oder Zeitskalen<br />
bekannt. Es muss jede Parameteradaption allein aufgrund seines eigenen ” Wissens“<br />
bestimmen, also aufgrund der aktuellen Netz- und Lernparameter, des Datenpunktes<br />
sowie der funktionalen Form der Abbildungen A und P. In praktischen<br />
Anwendungen darf diese Forderung natürlich etwas abgeschwächt werden. So ist<br />
eine Abschätzung der maximalen Varianz der Daten zu Zwecken der Initialisierung<br />
<strong>von</strong> Vorteil (vgl. etwa (MV-1)). Ferner kann für jedes organische oder technische<br />
System, das die Beobachtungsdaten detektiert, eine maximale Zeitskala in Form<br />
seiner gesamten Lebens- und Lerndauer vorausgesetzt werden.<br />
2.1 Die Kopplung <strong>von</strong> Lern- und Systemdynamik<br />
2.1.1 Die Dynamik des univar-Lerners<br />
Die Lernregel (1-41) des univar-Algorithmus macht das Codebuch C(t) = {c1(t), . . .,<br />
cM(t)} zu einem zeitdiskreten dynamischen System, welches sich nach der Differenzengleichung<br />
∆cr(t) = ∆cr(t)<br />
∆t = ε ar(xt) � xt − cr(t) �<br />
(2-2)<br />
entwickelt. Dabei ist ∆t ≡ 1 der elementare Zeittakt, nichts anderes als die Dauer<br />
zwischen zwei präsentierten Datenpunkten. Ersetzt man die Beweglichkeit εar(xt) des<br />
r-ten Neurons formal durch die Lernrate<br />
˜εr(t) := εar(xt), (2-3)<br />
so wird am Vergleich mit Gleichung (15) aus der Einleitung deutlich, dass (2-2) nichts<br />
anderes als die Dynamik einer gleitenden Mittelwertsbildung ist. Ist ˜εr sehr klein, dann<br />
kann das zeitdiskrete dynamische System (2-2) durch das entsprechende kontinuierliche<br />
ersetzt werden, das der gewöhnlichen Differentialgleichung<br />
dcr<br />
dt (t) = ˜εr(t) � xt − cr(t) � . (2-4)<br />
genügt. Wenn ˜ε zusätzlich konstant ist, und wenn es für dieses System einen stationären<br />
Attraktor c ∗ r gibt, also einen stationären stabilen Zustand, auf den es sich zubewegt,<br />
so geschieht dies exponentiell mit der Relaxationszeit Tr =1/˜εr,<br />
cr(t) − c ∗ r = � cr(0) − c ∗ r<br />
� exp(−t/Tr). (2-5)<br />
Wie bereits mehrfach angeklungen, ist die konstante Lernrate ˜εr dann eine Art Konvergenzgeschwindigkeit<br />
und ihr Inverses die Zeitskala, auf der diese Konvergenz stattfindet.<br />
Es müssen hier mehrere Fälle unterschieden werden: