21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

96 5. Zusammenfassung und Ergebnisse der Arbeit<br />

zwei relevante Parameter, σ und ε besitzt. In der ursprünglichen Formulierung bei<br />

randomisiertem Lernen steuern die beiden Parameter getrennt seine räumlichen und<br />

seine zeitlichen Eigenschaften. Die räumlichen Eigenschaften äußern sich in Aufspaltungsphänomenen,<br />

den Phasenübergängen, die zeitlichen bestehen in gleitender Mittelung<br />

über den Datenstrom, was bei kleinen Werten <strong>von</strong> ε starke Retardierungen<br />

hervorrufen kann.<br />

In der on-line Formulierung des univar konnte ich zunächst einen dynamischen Phasenübergang<br />

finden, der aus dem Bereich der dynamischen Kopplung heraus geschieht.<br />

Die Kopplung wird bei dem Auftreten der Phasentrennung aufgehoben. Dieser Phasenübergang<br />

kann sowohl durch Annealing <strong>von</strong> σ als auch <strong>von</strong> ε hervorgerufen werden.<br />

Daraus ergab sich die Phasenübergangskurve als gegenseitige Abhängigkeit der kritischen<br />

Parameter. Im Laufe <strong>von</strong> Kapitel 2 konnte ich die genaue Position dieser Kurve<br />

im Parameterraum auch quantitativ durch mehrere analytische Näherungen angeben.<br />

Das Ergebnis dieser Überlegungen war die Darstellung des on-line lernenden univar als<br />

einen Algorithmus, der durch die bewusste Wahl seines zeitlichen Weges im Parameterraum<br />

Zeitskalen im System zu bestimmen vermag.<br />

In Kapitel 3 wurde zunächst das Gewöhnungs- und Sensibilisierungsverhalten der Meeresschnecke<br />

Aplysia skizziert. Dieses wurde – in ähnlich abstrakter Weise wie bei der<br />

neuronalen Motivation des multivar – als ein Mittel zur selbstorganisierten Datenfilterung<br />

erkannt.<br />

In Kapitel 4 wurde dieses Prinzip der selbstreferentiellen Datenfilterung durch eine modifizierte<br />

univar-Lernregel verwirklicht. Der daraus resultierende Algorithmus, ANTS,<br />

bestimmt die Relevanz eines Datenpunktes an seinem eigenen effektiven Modell der<br />

bislang gelernten Datenpunkte, indem er mittels einer Aufmerksamkeitsschwelle seinen<br />

Neuigkeitsgehalt bestimmt. Dadurch ist er in der Lage, verschiedene Lebensdauern <strong>von</strong><br />

Zuständen im on-line Datenstrom auch unterschiedlich zu behandeln. So vermeidet er<br />

sowohl Retardierungseffekte durch zu kleines ε, als auch die Kopplung der Lern- an die<br />

Systemdynamik, und kann in vielen Fällen das Lernziel, die Bildung eines effektiven<br />

Modells der präsentierten Daten, erreichen.<br />

Der ANTS ist vermutlich der erste on-line Algorithmus, der selbstorganisiert auf verschiedene<br />

Zeitskalen reagiert. Er darf deshalb als ein erster Schritt in Richtung on-line<br />

Datenverarbeitung angesehen werden.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!