21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

42 2. On-line Lernen mit univar<br />

Nach jedem Datenpunkt x werden sowohl alle Netzwerk-, als auch alle Lernparameter<br />

aktualisiert.<br />

Dem ANN ist zunächst keine der im System enthaltenen Raum- oder Zeitskalen<br />

bekannt. Es muss jede Parameteradaption allein aufgrund seines eigenen ” Wissens“<br />

bestimmen, also aufgrund der aktuellen Netz- und Lernparameter, des Datenpunktes<br />

sowie der funktionalen Form der Abbildungen A und P. In praktischen<br />

Anwendungen darf diese Forderung natürlich etwas abgeschwächt werden. So ist<br />

eine Abschätzung der maximalen Varianz der Daten zu Zwecken der Initialisierung<br />

<strong>von</strong> Vorteil (vgl. etwa (MV-1)). Ferner kann für jedes organische oder technische<br />

System, das die Beobachtungsdaten detektiert, eine maximale Zeitskala in Form<br />

seiner gesamten Lebens- und Lerndauer vorausgesetzt werden.<br />

2.1 Die Kopplung <strong>von</strong> Lern- und Systemdynamik<br />

2.1.1 Die Dynamik des univar-Lerners<br />

Die Lernregel (1-41) des univar-Algorithmus macht das Codebuch C(t) = {c1(t), . . .,<br />

cM(t)} zu einem zeitdiskreten dynamischen System, welches sich nach der Differenzengleichung<br />

∆cr(t) = ∆cr(t)<br />

∆t = ε ar(xt) � xt − cr(t) �<br />

(2-2)<br />

entwickelt. Dabei ist ∆t ≡ 1 der elementare Zeittakt, nichts anderes als die Dauer<br />

zwischen zwei präsentierten Datenpunkten. Ersetzt man die Beweglichkeit εar(xt) des<br />

r-ten Neurons formal durch die Lernrate<br />

˜εr(t) := εar(xt), (2-3)<br />

so wird am Vergleich mit Gleichung (15) aus der Einleitung deutlich, dass (2-2) nichts<br />

anderes als die Dynamik einer gleitenden Mittelwertsbildung ist. Ist ˜εr sehr klein, dann<br />

kann das zeitdiskrete dynamische System (2-2) durch das entsprechende kontinuierliche<br />

ersetzt werden, das der gewöhnlichen Differentialgleichung<br />

dcr<br />

dt (t) = ˜εr(t) � xt − cr(t) � . (2-4)<br />

genügt. Wenn ˜ε zusätzlich konstant ist, und wenn es für dieses System einen stationären<br />

Attraktor c ∗ r gibt, also einen stationären stabilen Zustand, auf den es sich zubewegt,<br />

so geschieht dies exponentiell mit der Relaxationszeit Tr =1/˜εr,<br />

cr(t) − c ∗ r = � cr(0) − c ∗ r<br />

� exp(−t/Tr). (2-5)<br />

Wie bereits mehrfach angeklungen, ist die konstante Lernrate ˜εr dann eine Art Konvergenzgeschwindigkeit<br />

und ihr Inverses die Zeitskala, auf der diese Konvergenz stattfindet.<br />

Es müssen hier mehrere Fälle unterschieden werden:

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!