Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...
Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...
Die asymptotische Verteilung des Likelihood-Quotienten-Tests für ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
62 Kapitel 6: Asymptotische <strong>Verteilung</strong> der LQ-Statistik unter Alternative<br />
Bemerkung 6.13. Theorem 6.10 umfasst bis auf Bedingung B4 auch die Voraussetzungen<br />
von Theorem 6.7. Somit stellen diese zusammen Bedingungen dar, unter denen die <strong>asymptotische</strong><br />
Normalität der <strong>Likelihood</strong>-<strong>Quotienten</strong>-Statistik gilt.<br />
6.3 Beispiel<br />
Beispiel 6.14. Betrachtet werden zwei normalverteilte Stichproben X 11 , . . . , X 1n1 ∼ N (θ 1 , σ 2 )<br />
und X 21 , . . . , X 2n2 ∼ N (θ 2 , σ 2 ) mit bekannter Varianz σ 2 . Für n = n 1 + n 2 wird<br />
vorausgesetzt. Der Hypothesenraum sei<br />
n 1<br />
n = c 1 + o(n −1 )<br />
Θ 0 = { θ = (θ 1 , θ 2 ) ∈ R 2 : θ 1 − θ 2 ≥ ∆ }<br />
mit ∆ > 0. Es soll die <strong>asymptotische</strong> <strong>Verteilung</strong> <strong>des</strong> <strong>Likelihood</strong>-<strong>Quotienten</strong> unter der Alternative<br />
θ (0) = (0, 0) hergeleitet werden.<br />
<strong>Die</strong> Voraussetzungen von Theorem 6.7 und 6.10 sollen hier nicht im einzelnen diskutiert werden,<br />
da die Anwendung der Resultate im Vordergrund stehen sollen. <strong>Die</strong> vorliegende Normalverteilung<br />
gehört einer exponentiellen Familie an. <strong>Die</strong> meisten Voraussetzungen folgen dann<br />
aus den Eigenschaften einer exponentiellen Familie (siehe hierzu zum Beispiel Brown u. a.<br />
(1981)). <strong>Die</strong> Voraussetzungen (v) und (vi) von Theorem 6.10 sind hingegen nicht ersichtlich<br />
und werden kurz diskutiert. Für i = 1, 2 erhält man<br />
E θ<br />
(0)<br />
i<br />
[<br />
d 2 /dθ 2 i log f i (X i1 , θ i ) ] = − 1 σ 2<br />
unabhängig von θ i . Folglich ist Bedingung (vi) erfüllt. Der restringierte ML-Schätzer liegt<br />
asymptotisch fast sicher auf dem Rand der Hypothese Θ 0 . Mit Hilfe <strong>des</strong> Satzes von der<br />
majorisierten Konvergenz kann Integration und Differentiation so vertauscht werden [siehe<br />
hierzu Ferguson (1996, S.124)], dass<br />
E θ<br />
(0)<br />
i<br />
[d/dθ i log f i (X i1 , θ i )] = d/dθ i E θ<br />
(0)<br />
i<br />
[log f i (X i1 , θ i )]<br />
gilt. Folglich ist Bedingung (v) erfüllt, wenn die Richtungsableitung <strong>des</strong> Kullback-Leibler<br />
Abstands in Richtung <strong>des</strong> Ran<strong>des</strong> der Hypothese Θ 0 im Punkt θ ∗ null ist. Nachstehende<br />
Rechnungen zur Bestimmung von θ ∗ werden dieses zeigen.<br />
Um Theorem 6.7 anwenden zu können, wird zunächst der Punkt in der Hypothese bestimmt,<br />
der den gewichteten Kullback-Leibler Abstand mit Gewichten (c 1 , 1 − c 1 ) zu θ (0) = (0, 0)<br />
minimiert. Hier<strong>für</strong> bezeichne f(x, µ, σ 2 ) die Dichte der Normalverteilung mit Erwartungswert<br />
µ und Standardabweichung σ. Es gilt <strong>für</strong> i = 1, 2 und X i ∼ N (θ i , σ 2 )<br />
K(0, θ i ) = E [ log f(X i , 0, σ 2 ) − log f(X i , θ i , σ 2 ) ]<br />
= 1<br />
2σ 2 E [ (X i − θ i ) 2 − X 2 i<br />
= 1<br />
2σ 2 (<br />
σ 2 + θ 2 i − σ 2) = θ2 i<br />
2σ 2 .<br />
]