21.12.2012 Aufrufe

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

Diplomarbeit von Michael Schindler

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

aus:<br />

C.2 Warum selbstreferentielles Lernen die Datenverteilungsdichte abschneidet 113<br />

�ªi<br />

1<br />

h(x) := A(x) − ǫA,<br />

≈<br />

ln A/ǫA<br />

ǫA<br />

, (C-35)<br />

h<br />

�<br />

ǫA<br />

˜p = ǫA + h +<br />

h<br />

p<br />

�<br />

p p<br />

+ ln<br />

α α αǫA<br />

≈<br />

=<br />

�ªi<br />

�ªi<br />

�ªi<br />

ǫA + γ1<br />

ǫA,<br />

�ªi<br />

�ªi<br />

1<br />

dx + γ2<br />

h(x)<br />

x<br />

h(x) dx<br />

(C-36)<br />

mit nicht näher spezifizierten reellen Zahlen γ1 und γ2. Der letzte Schritt folgt aus<br />

der Symmetrie des Cosinus in (C-33) bezüglich der x-Achse, woraus � 1/ cos = 0<br />

folgt, und daraus, dass er, weil er in Ωi beliebig oft oszilliert, o.E. auch gerade ist,<br />

� x/ cos(x)dx = 0.<br />

Demnach ist ˜p zwar eine Distribution und nimmt als solche an keiner Stelle den Wert<br />

ǫA an, doch hat sie, als Verteilungsdichte betrachtet – die ja eigentlich nur unter einem<br />

Integral verwendet wird – dieselben Eigenschaften wie wie p c .

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!