21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

108 C. Ergebnisse der Variationsrechnung<br />

C.2 Warum selbstreferentielles Lernen die Datenverteilungsdichte<br />

abschneidet<br />

Behauptung<br />

Der ANTS, bestehend aus den Schritten (TS-1) bis (TS-6) auf Seite 80, oder kurz,<br />

cr(t+1) = cr(t) + εf(xt) ar(xt) � xt − cr(t) � mit (C-8)<br />

�<br />

1 für A(xt) < ǫA<br />

f(xt) := Θ(ǫA−A(xt)) =<br />

(C-9)<br />

0 sonst,<br />

angewandt auf eine stationäre Quelle <strong>von</strong> Datenpunkten mit Verteilungsdichte p führt<br />

im Grenzübergang beliebig guter Approximation, also M → ∞, zu einer Schätzung<br />

des α-Stumpfes pc ,<br />

A → p c �<br />

ǫA für p(x) > αǫA,<br />

:=<br />

(C-10)<br />

p(x)/α sonst.<br />

Dabei soll o.E. angenommen werden, dass p glatt ist, also ˆp bis auf den Rand {p(x)=<br />

αǫA} des Plateaus ebenfalls. Dann gilt der Grenzübergang in (C-10) sogar punktweise.<br />

Beweisidee<br />

Die Beweisidee soll für den stationären Fall formuliert werden. Dann ist die logische<br />

Reihenfolge der im folgenden verwendeten Größen:<br />

1. p und ǫA seien vorgegeben; in jedem Zeitschritt wird ein x gezogen, es werden A(x)<br />

und f(x) berechnet.<br />

2. Im stochastisch stationären Endzustand bewegt sich das Codebuch immer ein wenig,<br />

und man kann für x die Wahrscheinlichkeit berechnen, gelernt zu werden. Sie ist<br />

der (Ensemble-)Erwartungswert <strong>von</strong> f(x),<br />

ωA(x) := 〈f(x)〉 ens . (C-11)<br />

Da f über die Heavyside-Funktion Θ definiert ist, und da der Ensemblemittelwert<br />

bei kleinem ε lediglich eine kleine Verschmierung bedeutet, kann man ωA als durch<br />

ε ” aufgeweichte“ Heavyside-Funktion Θ�schreiben,<br />

ωA(x) = 〈Θ(ǫA−A(x))〉 ens<br />

≈ Θ�(ǫA−A(x)).<br />

(C-12)<br />

Die Funktion ωA ist in Abb. 42c dargestellt. Sie teilt den Merkmalsraum in zwei<br />

Mengen ein, die als ” inneres“ und ” äußeres“ zu verstehen sind. In Γo wird jeder<br />

Punkt gelernt, in Γi wird selektiert,<br />

Γo Menge aller x ∈ M mit Θ(ǫA−A(x) = 1)<br />

Γi Menge aller x ∈ M mit Θ(ǫA−A(x) < 1).

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!