Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
108 C. Ergebnisse der Variationsrechnung<br />
C.2 Warum selbstreferentielles Lernen die Datenverteilungsdichte<br />
abschneidet<br />
Behauptung<br />
Der ANTS, bestehend aus den Schritten (TS-1) bis (TS-6) auf Seite 80, oder kurz,<br />
cr(t+1) = cr(t) + εf(xt) ar(xt) � xt − cr(t) � mit (C-8)<br />
�<br />
1 für A(xt) < ǫA<br />
f(xt) := Θ(ǫA−A(xt)) =<br />
(C-9)<br />
0 sonst,<br />
angewandt auf eine stationäre Quelle <strong>von</strong> Datenpunkten mit Verteilungsdichte p führt<br />
im Grenzübergang beliebig guter Approximation, also M → ∞, zu einer Schätzung<br />
des α-Stumpfes pc ,<br />
A → p c �<br />
ǫA für p(x) > αǫA,<br />
:=<br />
(C-10)<br />
p(x)/α sonst.<br />
Dabei soll o.E. angenommen werden, dass p glatt ist, also ˆp bis auf den Rand {p(x)=<br />
αǫA} des Plateaus ebenfalls. Dann gilt der Grenzübergang in (C-10) sogar punktweise.<br />
Beweisidee<br />
Die Beweisidee soll für den stationären Fall formuliert werden. Dann ist die logische<br />
Reihenfolge der im folgenden verwendeten Größen:<br />
1. p und ǫA seien vorgegeben; in jedem Zeitschritt wird ein x gezogen, es werden A(x)<br />
und f(x) berechnet.<br />
2. Im stochastisch stationären Endzustand bewegt sich das Codebuch immer ein wenig,<br />
und man kann für x die Wahrscheinlichkeit berechnen, gelernt zu werden. Sie ist<br />
der (Ensemble-)Erwartungswert <strong>von</strong> f(x),<br />
ωA(x) := 〈f(x)〉 ens . (C-11)<br />
Da f über die Heavyside-Funktion Θ definiert ist, und da der Ensemblemittelwert<br />
bei kleinem ε lediglich eine kleine Verschmierung bedeutet, kann man ωA als durch<br />
ε ” aufgeweichte“ Heavyside-Funktion Θ�schreiben,<br />
ωA(x) = 〈Θ(ǫA−A(x))〉 ens<br />
≈ Θ�(ǫA−A(x)).<br />
(C-12)<br />
Die Funktion ωA ist in Abb. 42c dargestellt. Sie teilt den Merkmalsraum in zwei<br />
Mengen ein, die als ” inneres“ und ” äußeres“ zu verstehen sind. In Γo wird jeder<br />
Punkt gelernt, in Γi wird selektiert,<br />
Γo Menge aller x ∈ M mit Θ(ǫA−A(x) = 1)<br />
Γi Menge aller x ∈ M mit Θ(ǫA−A(x) < 1).