Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Diplomarbeit von Michael Schindler
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Funktional<br />
C.1 Warum eine ML-Schätzung die Verteilungsdichte approximiert 107<br />
�<br />
E [ˆp] :=<br />
M<br />
p ln ˆp. (C-1)<br />
Dieses Log-likelihood-Funktional wird unter der Nebenbedingung maximiert, dass ˆp<br />
immer auf eins normiert bleibt, �<br />
ˆp = 1. (C-2)<br />
M<br />
Da diese Nebenbedingung ebenfalls eine Integralbedingung ist, handelt es sich um ein<br />
isoperimetrisches Variationsproblem. Man kann die Maximierung <strong>von</strong> E, eingeschränkt<br />
auf die durch (C-2) definierte Mannigfaltigkeit, durch Maximierung des Funktionals L<br />
mit einem reellen Lagrange-Parameter λ,<br />
� �<br />
L[ˆp] = p ln ˆp + λ<br />
�<br />
�<br />
ˆp − 1 , (C-3)<br />
ersetzen (siehe Tapia & Thompson, 1978, Appendix I oder Klingbeil, 1988). Wenn man<br />
nun die Definition der Variationsableitung δL/δˆp verwendet (Bishop, 1995, Appendix<br />
D),<br />
�<br />
δL = L[ˆp + δˆp] − L[ˆp] =:<br />
M<br />
δL<br />
δˆp δˆp dx + O(δˆp2 ), (C-4)<br />
dann bekommt man die notwendige Bedingung für die Maximierung <strong>von</strong> L,<br />
δL<br />
δˆp<br />
= p<br />
ˆp + λ ! = 0. (C-5)<br />
Aus p=−λ ˆp und der Normierung <strong>von</strong> p folgt sofort der Wert des Lagrange-Parameters<br />
λ=−1 und die Behauptung der Dichteschätzung,<br />
ˆp = p. (C-6)<br />
Dies gilt natürlich nur, wenn man ˆp tatsächlich beliebig ” nahe“ an p bringen kann,<br />
also wenn p ebenfalls eine endliche Mischung <strong>von</strong> Normalverteilungen ist. Ansonsten<br />
müsste die Variation auf die Menge der Mischungen <strong>von</strong> Normalverteilungen eingeschränkt<br />
werden, was schwieriger aufzuschreiben ist. Man bekommt dann M Lagrange-<br />
Parameter (einen für jedes Codebuchzentrum), was letztendlich nur wieder den stationären<br />
Zustand (1-13) der Lernregeln wiederholt. Wenn man die zweite Ableitung des<br />
Funktionals bestimmt, so bekommt man<br />
was als Funktion kleiner als Null ist, denn es ist auch<br />
δ2L p<br />
= − < 0, (C-7)<br />
δˆp 2 ˆp 2<br />
ˆp(x) > 0 für alle x ∈ M, und<br />
p(x) > 0 für mindestens ein x ∈ M.<br />
Mit Gleichung (C-7) ist also die asymptotische Stabilität des stationären Zustandes<br />
p= ˆp <strong>von</strong> multivar bewiesen.