27.08.2014 Aufrufe

Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...

Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...

Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

6.2. Asymptotik im k-Stichprobenfall 55<br />

6.2 Asymptotik im k-Stichprobenfall<br />

<strong>Die</strong> Ergebnisse <strong>des</strong> 1-Stichprobenfalls werden auf den k-Stichprobenfall mit ungleichen Fallzahlen<br />

übertragen. Es wird somit der k-Stichprobenfall mit Regularitätsbedingungen R und<br />

Bedingung F betrachtet. Sei c = (c 1 , . . . , c k ) mit n i /n → c i .<br />

Der Kullback-Leibler Abstand ist <strong>für</strong> den k-Stichprobenfall zu modifizieren.<br />

Definition 6.6. Seien (f i,0 , f i,1 ), i = 1, . . . , k Paare von Dichten bezüglich einem σ-endlichen<br />

Maß ν und w = (w 1 , . . . , w k ), w i > 0, ein Gewichtungsvektor, dann ist der gewichtete<br />

Kullback-Leibler Abstand <strong>für</strong> f 0 = (f 1,0 , . . . , f k,0 ) und f 1 = (f 1,1 , . . . , f k,1 ) definiert als<br />

K(f 0 , f 1 , w) =<br />

k∑<br />

w i K(f i,0 , f i,1 ),<br />

i=1<br />

wenn f i,0 ≪ f i,1 <strong>für</strong> alle i = 1, . . . , k und unendlich sonst.<br />

Für f θ (·) = (f 1 (θ 1 , ·), . . . , f k (θ k , ·)) und f˜θ(·) = (f 1 (˜θ 1 , ·), . . . , f k (˜θ k , ·)) wird<br />

gesetzt.<br />

K(θ, ˜θ, c) = K(f θ , f˜θ,<br />

c)<br />

Bedingung B3: Für i = 1, . . . , k existiert E (0) θ<br />

log f i (X i1 , θ (0)<br />

i<br />

) und es existiert eine Funktion<br />

i<br />

K i (x) mit E (0) θ<br />

K i (X i1 ) < ∞, so dass log f i (x, θ i ) gleichmäßig in Θ 0 im Betrag durch K i (x)<br />

i<br />

beschränkt ist.<br />

Bedingung B4: E (0) θ i<br />

<strong>für</strong> alle i = 1, . . . , k.<br />

[log f i (X i1 , θ i )] 2 existiert <strong>für</strong> θ i ∈ {θ i : θ = (θ 1 , . . . , θ k ) ∈ Θ 0 } ∪ {θ (0)<br />

i<br />

}<br />

Bedingung B3 stellt die zu Bedingung B1 entsprechende k-Stichprobenbedingung dar und<br />

sichert die Wohldefiniertheit <strong>des</strong> gewichteten Kullback-Leibler Abstands zwischen der wahren<br />

<strong>Verteilung</strong> und denen zur Hypothese gehörigen <strong>Verteilung</strong>en. Entsprechend sichert Bedingung<br />

B4 die Existenz von<br />

k∑<br />

i=1<br />

c i Var θ<br />

(0)<br />

i<br />

[<br />

]<br />

log f(X i1 , θ (0)<br />

i<br />

) − log f(X i1 , θ i )<br />

<strong>für</strong> θ ∈ Θ 0 . Im Folgenden wird erneut ˆθ n r = ˆθ Θ 0<br />

n <strong>für</strong> den auf die Hypothese Θ 0 eingeschränkten<br />

ML-Schätzer geschrieben. ˆθ n r wird als restringierter ML-Schätzer bezeichnet.<br />

So kann das Theorem 6.2 entsprechend <strong>für</strong> den k-Stichprobenfall formuliert werden. <strong>Die</strong> Rolle<br />

von θ ∗ wird auch hier anschließend diskutiert.<br />

Theorem 6.7. Der k-Stichprobenfall sei mit nachstehenden Bedingungen gegeben:<br />

(i) <strong>Die</strong> Regularitätsbedingungen R sind <strong>für</strong> alle f i , i = 1, . . . , k erfüllt.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!