Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
aus:<br />
C.2 Warum selbstreferentielles Lernen die Datenverteilungsdichte abschneidet 113<br />
�ªi<br />
1<br />
h(x) := A(x) − ǫA,<br />
≈<br />
ln A/ǫA<br />
ǫA<br />
, (C-35)<br />
h<br />
�<br />
ǫA<br />
˜p = ǫA + h +<br />
h<br />
p<br />
�<br />
p p<br />
+ ln<br />
α α αǫA<br />
≈<br />
=<br />
�ªi<br />
�ªi<br />
�ªi<br />
ǫA + γ1<br />
ǫA,<br />
�ªi<br />
�ªi<br />
1<br />
dx + γ2<br />
h(x)<br />
x<br />
h(x) dx<br />
(C-36)<br />
mit nicht näher spezifizierten reellen Zahlen γ1 und γ2. Der letzte Schritt folgt aus<br />
der Symmetrie des Cosinus in (C-33) bezüglich der x-Achse, woraus � 1/ cos = 0<br />
folgt, und daraus, dass er, weil er in Ωi beliebig oft oszilliert, o.E. auch gerade ist,<br />
� x/ cos(x)dx = 0.<br />
Demnach ist ˜p zwar eine Distribution und nimmt als solche an keiner Stelle den Wert<br />
ǫA an, doch hat sie, als Verteilungsdichte betrachtet – die ja eigentlich nur unter einem<br />
Integral verwendet wird – dieselben Eigenschaften wie wie p c .