17.08.2013 Views

THÈSE Estimation, validation et identification des modèles ARMA ...

THÈSE Estimation, validation et identification des modèles ARMA ...

THÈSE Estimation, validation et identification des modèles ARMA ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Chapitre 1. Introduction 26<br />

Remarque 1.8. Toujours pour le cas univarié (d = 1), Francq, Roy and Zakoïan<br />

(2005) ont utilisé l’estimateur <strong>des</strong> moindres carrés <strong>et</strong> ont obtenu<br />

E ∂2<br />

∂θ∂θ ′e2t (θ0) = 2 <br />

σ 2 λiλ ′ <br />

i <strong>et</strong> Var 2<strong>et</strong>(θ0) ∂<strong>et</strong>(θ0)<br />

<br />

= 4<br />

∂θ<br />

<br />

γ(i,j)λiλ ′ j<br />

i≥1<br />

où σ2 est la variance du processus univarié <strong>et</strong> <strong>et</strong> les vecteurs λi =<br />

<br />

∗ −φi−1,...,−φ ∗ i−p0 ,ϕ∗i−1,...,ϕ ∗ ′ p0+q0 ∗<br />

i−q0 ∈ R , avec la convention φi = ϕ∗ i = 0 quand<br />

i < 0. En utilisant l’opérateur vec <strong>et</strong> la relation élémentaire vec(aa ′ ) = a ⊗ a ′ , leur<br />

résultat donne<br />

vecJ = vecE ∂2<br />

∂θ∂θ ′ℓn(θ0) = 1 ∂2<br />

vecE<br />

σ2 ∂θ∂θ ′e2t(θ0) = 2 <br />

λi ⊗λi <strong>et</strong><br />

<br />

∂ℓn(θ0)<br />

vecI = vec Var<br />

∂θ<br />

i≥1<br />

= 1<br />

<br />

∂<strong>et</strong>(θ0)<br />

vec Var 2<strong>et</strong> =<br />

σ4 ∂θ<br />

4<br />

σ4 lesquelles sont les expressions données dans la remarque 1.7.<br />

i,j≥1<br />

<br />

γ(i,j)λi ⊗λj,<br />

1.2.4 <strong>Estimation</strong> de la matrice de variance asymptotique Ω :=<br />

J −1 IJ −1<br />

Étant donné que nous disposons <strong>des</strong> expressions explicites de I <strong>et</strong> J, nous nous<br />

intéressons à l’estimation de ces matrices. Soit êt = ˜<strong>et</strong>( ˆ θn) les résidus du QMLE quand<br />

p0 > 0 <strong>et</strong> q0 > 0, <strong>et</strong> soit êt = <strong>et</strong> = Xt quand p0 = q0 = 0. Quand p0+q0 = 0, nous avons<br />

êt = 0 pour t ≤ 0 <strong>et</strong> t > n, <strong>et</strong> posons<br />

p0 <br />

êt = Xt −<br />

i=1<br />

A −1<br />

0 (ˆ θn)Ai( ˆ θn) ˆ Xt−i +<br />

q0<br />

i=1<br />

i,j≥1<br />

A −1<br />

0 (ˆ θn)Bi( ˆ θn)B −1<br />

0 (ˆ θn)A0( ˆ θn)êt−i,<br />

pour t = 1,...,n, avec ˆ Xt = 0 pour t ≤ 0 <strong>et</strong> ˆ Xt = Xt pour t ≥ 1. Soit ˆ Σe0 =<br />

n−1n t=1êtê ′ t un estimateur de Σe0. La matrice M impliquée dans l’expression de J<br />

peut facilement être estimée empiriquement par<br />

ˆMn := 1<br />

n Id 2 (p+q) ⊗ê<br />

n<br />

′ <br />

⊗2<br />

t .<br />

En vue de la proposition 1.2, nous définissons un estimateur ˆ Jn de J par<br />

vec ˆ Jn = <br />

ˆMn<br />

ˆλ ′<br />

i ⊗ ˆ λ ′ <br />

i vec ˆ Σ −1<br />

e0 .<br />

i≥1<br />

t=1<br />

Nous énonçons maintenant le théorème suivant qui montre la consistance forte de ˆ Jn.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!