Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...
Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...
Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
4.2. ML-Schätzer im k-Stichprobenfall 33<br />
4.2 Asymptotische Normalität <strong>des</strong> ML-Schätzers<br />
im k-Stichprobenfall<br />
<strong>Die</strong> Ergebnisse <strong>des</strong> vorigen Abschnittes werden nun auf den k-Stichprobenfall erweitert, wobei<br />
hierbei entscheidend ist, dass die Fallzahlen in den einzelnen Stichproben unterschiedlich<br />
seien können. Deshalb können die Stichproben nicht zu einer zusammengefasst und wie der<br />
1-Stichprobenfall behandelt werden. Unter der Annahme F, dass die Fallzahlen asymptotisch<br />
von gleicher Ordnung, lassen sich jedoch analoge Ergebnisse zur <strong>asymptotische</strong>n Normalität<br />
<strong>des</strong> ML-Schätzers herleiten. Es wird sich zeigen, dass sich die Kovarianzmatrix der <strong>asymptotische</strong>n<br />
<strong>Verteilung</strong> aus den Fisher-Informationsmatrizen der einzelnen Stichproben zusammensetzt,<br />
mit Gewichtung entsprechend ihrer relativen <strong>asymptotische</strong>n Fallzahlen.<br />
Es wird also der k-Stichprobenfall mit Regularitätsbedingungen R und Bedingung F betrachtet.<br />
Analog zu (4.1) und (4.2) wird <strong>für</strong> jede Stichprobe i = 1, . . . , k<br />
definiert. Es wird<br />
A (i)<br />
n i<br />
(θ i ) = 1 ∑n i<br />
U i (X ij , θ i ) = 1 ∑n i<br />
( ) d<br />
T<br />
log f i (X ij , θ i ) , (4.6)<br />
n i n<br />
j=1<br />
i dθ<br />
j=1 i<br />
B n (i)<br />
i<br />
(θ i ) = 1 ∑n i<br />
W i (X ij , θ i ) = 1 ∑n i<br />
d 2<br />
log f i (X ij , θ i ) (4.7)<br />
n i n i<br />
A (i)<br />
n i<br />
j=1<br />
dθ 2 j=1 i<br />
= A (i)<br />
n i<br />
(θ (0)<br />
i<br />
) und B n (i)<br />
i<br />
= B n (i)<br />
i<br />
(θ (0)<br />
i<br />
)<br />
gesetzt. Weiter sei J i die Fisher-Informationsmatrix der i-ten Stichprobe, ausgewertet an der<br />
Stelle <strong>des</strong> wahren Parameters θ (0)<br />
i<br />
, d.h.<br />
[<br />
]<br />
J i = E (0) θ<br />
U i (X i1 , θ (0)<br />
i<br />
) · U i (X i1 , θ (0)<br />
i<br />
) T<br />
i<br />
mit<br />
U i (x, θ) =<br />
( ) d<br />
T<br />
log f i (x, θ) .<br />
dθ i<br />
Es wird mit n = (n 1 , . . . , n k )<br />
A n =<br />
(<br />
A (1) n T<br />
1<br />
B n = diag<br />
, . . . , A (k) T<br />
n k<br />
) T<br />
,<br />
(<br />
)<br />
B n (1)<br />
1<br />
, . . . , B n (k)<br />
k<br />
,<br />
J = diag (J 1 , . . . , J k ) ,<br />
C = diag (c 1 I d , . . . , c k I d )<br />
gesetzt, wobei c i ∈ [0, 1] so, dass n i /n → c i <strong>für</strong> n → ∞ (siehe Bedingung F).