Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...
Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...
Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
42 Kapitel 5: Asymptotische <strong>Verteilung</strong> der LQ-Statistik unter Hypothese<br />
Menge approximiert werden können. <strong>Die</strong> Definition 2.4 zur gegenseitigen Approximation von<br />
zwei Mengen wie auch die Definition einer positiv homogenen Menge sind in Abschnitt 2.4<br />
gegeben.<br />
Das folgende Theorem 5.1 stellt eine Verallgemeinerung <strong>des</strong> Resultates von Chernoff (1954)<br />
auf den k-Stichprobenfall mit ungleichen Fallzahlen dar. Gezeigt wird, dass die <strong>asymptotische</strong><br />
<strong>Verteilung</strong> <strong>des</strong> <strong>Likelihood</strong>-<strong>Quotienten</strong> unter k Stichproben, die die Regularitätsbedingungen<br />
R und die Bedingung F <strong>für</strong> die <strong>asymptotische</strong> Fallzahlenverhältnisse erfüllen, gleich der <strong>Verteilung</strong><br />
<strong>des</strong> <strong>Likelihood</strong>-<strong>Quotienten</strong> unter einer Beobachtung einer normalverteilten Zufallsvariablen<br />
mit geeignetem Erwartungswert und geeigneter Varianz ist, wenn Hypothese Θ 0 und<br />
Parameterraum Θ durch positiv homogene Mengen approximiert werden können, wenn der<br />
wahre Wert θ (0) <strong>des</strong> Parameters θ auf dem Rand der Hypothese liegt und wenn der auf die<br />
Hypothese eingeschränkte ML-Schätzer in Wahrscheinlichkeit gegen den wahren Wert konvergiert.<br />
Kurz gefasst, bedeutet das, dass man sich bei <strong>asymptotische</strong>n Untersuchungen <strong>des</strong><br />
<strong>Likelihood</strong>-<strong>Quotienten</strong> auf eine normalverteilte Zufallsvariable Z und die approximierenden<br />
Mengen der Hypothese und <strong>des</strong> Parameterraums zurückziehen kann, wobei Z den Erwartungswert<br />
θ (0) hat und die Kovarianzmatrix von Z die Inverse der Diagonalmatrix mit gewichteten<br />
Fisher-Informationsmatrizen der einzelnen Stichproben auf der Diagonalen ist. Wie bereits<br />
erwähnt, wird ohne Einschränkung der Allgemeinheit θ (0) = 0 vorausgesetzt. <strong>Die</strong> im Abschnitt<br />
4.2 eingeführten Notationen <strong>für</strong> A (i)<br />
n i<br />
, B n (i)<br />
i<br />
, A n ,B n , J und C werden übernommen.<br />
Theorem 5.1. Der k-Stichprobenfall sei gegeben und folgende Bedingungen erfüllt:<br />
(i) <strong>Die</strong> Dichten f i erfüllen die Regularitätsbedingungen R <strong>für</strong> i = 1, . . . , k.<br />
(ii) <strong>Die</strong> Bedingung F ist erfüllt, d.h. n i<br />
n → c i <strong>für</strong> n → ∞ mit 0 < c i < 1, i = 1, . . . , k.<br />
(iii) Es gilt ˆθ Θ 0<br />
n<br />
P<br />
−→ 0.<br />
(iv) <strong>Die</strong> Mengen Θ und Θ 0 können durch die nicht leeren und positiv homogenen Mengen<br />
M bzw. M 0 approximiert werden.<br />
Dann ist die <strong>asymptotische</strong> <strong>Verteilung</strong> von −2 log λ n gegeben durch die <strong>Verteilung</strong> von<br />
inf (Z − θ) T CJ (Z − θ) − inf (Z −<br />
θ∈M 0 θ∈M θ)T CJ (Z − θ)<br />
mit Z ∼ N (0, (CJ) −1 ) und (CJ) −1 = diag ( 1 c 1<br />
J −1<br />
1 , . . . , 1<br />
c k<br />
J −1<br />
k<br />
Bemerkung 5.2. Beispiel 2.2 zeigt, dass die <strong>Verteilung</strong> von<br />
) ist.<br />
inf (Z − θ) T CJ (Z − θ) − inf (Z −<br />
θ∈M 0 θ∈M θ)T CJ (Z − θ)<br />
mit Z ∼ N (0, (CJ) −1 ) gerade die <strong>Verteilung</strong> von minus zweimal dem Logarithmus <strong>des</strong><br />
<strong>Likelihood</strong>-<strong>Quotienten</strong>s <strong>für</strong> den Test von θ ∈ M 0 gegen θ ∈ M\M 0 basierend auf einer Beobachtung<br />
einer normalverteilten Zufallsvariablen mit Erwartungswert 0 und Kovarianzmatrix<br />
(CJ) −1 ist.