17.08.2013 Views

THÈSE Estimation, validation et identification des modèles ARMA ...

THÈSE Estimation, validation et identification des modèles ARMA ...

THÈSE Estimation, validation et identification des modèles ARMA ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Chapitre 1. Introduction 41<br />

Lemme 1.4. Pour tout θ ∈ <br />

p,q∈N Θp,q, nous avons<br />

∆(θ) ≥ ∆(θ0).<br />

Nous montrons ce lemme en utilisant le théorème 1.12 ergodique <strong>et</strong> l’inégalité élémentaire<br />

Tr(A −1 B) − logd<strong>et</strong>(A −1 B) ≥ Tr(A −1 A) − logd<strong>et</strong>(A −1 A) = d pour toute<br />

matrice symétrique semi-définie positive de taille d×d.<br />

En vue de ce lemme, l’application θ ↦→ ∆(θ) est minimale en θ = θ0.<br />

<strong>Estimation</strong> de la divergence moyenne<br />

Soit X = (X1,...,Xn) les observations satisfaisant la représentation V<strong>ARMA</strong> (1.1).<br />

Posons ˆ θn le QMLE du paramètre θ du modèle V<strong>ARMA</strong> candidat. Soit êt = ˜<strong>et</strong>( ˆ θn) les<br />

résidus du QMLE/LSE quand p0 > 0 <strong>et</strong> q0 > 0, <strong>et</strong> soit êt = <strong>et</strong> = Xt quand p0 = q0 = 0.<br />

Quand p+q = 0, nous avons êt = 0 pour t ≤ 0 <strong>et</strong> t > n, <strong>et</strong> posons<br />

p0 <br />

êt = Xt −<br />

i=1<br />

A −1<br />

0 ( ˆ θn)Ai( ˆ θn) ˆ Xt−i +<br />

q0<br />

i=1<br />

A −1<br />

0 ( ˆ θn)Bi( ˆ θn)B −1<br />

0 ( ˆ θn)A0( ˆ θn)êt−i,<br />

pour t = 1,...,n, avec ˆ Xt = 0 pour t ≤ 0 <strong>et</strong> ˆ Xt = Xt pour t ≥ 1. En vue du Lemme<br />

1.4, il est naturel de minimiser le contraste moyen E∆( ˆ θn). L’écart {∆( ˆ θn) − ∆(θ0)}<br />

s’interprète comme une perte de précision globale moyenne quand on utilise le modèle<br />

estimé à la place du vrai modèle. Nous allons par la suite adapter le critère d’information<br />

de Akaike corrigé (noté AICc) introduit par Hurvich <strong>et</strong> Tsai (1989) pour obtenir un<br />

estimateur approximativement sans biais de E∆( ˆ θn). En utilisant un développement<br />

limité de Taylor de ∂logLn( ˆ θn)/∂θ (1) au voisinage de θ (1)<br />

0 , il s’en suit que<br />

<br />

ˆθ (1)<br />

n −θ(1)<br />

<br />

1<br />

op √n<br />

0 = − 2<br />

où J11 = J11(θ0) avec<br />

Nous avons<br />

n J−1 11<br />

∂logLn(θ0)<br />

∂θ (1)<br />

= − 2<br />

n<br />

n<br />

t=1<br />

J −1<br />

11<br />

2 ∂<br />

J11(θ) = lim<br />

n→∞ n<br />

2logLn(θ) ∂θ (1) ∂θ (1)′ p.s.<br />

∂e ′ t(θ0)<br />

Σ−1<br />

∂θ (1) e0 <strong>et</strong>(θ0), (1.16)<br />

E∆( ˆ θn) = Enlogd<strong>et</strong> ˆ <br />

Σe +nETr ˆΣ −1<br />

e S(ˆ <br />

θn) , (1.17)<br />

où ˆ Σe = Σe( ˆ θn) est un estimateur de la matrice de variance <strong>des</strong> erreurs, avec Σe(θ) =<br />

n−1n t=1<strong>et</strong>(θ)e ′ t (θ). Ensuite, le premier<br />

<br />

terme du second membre de l’équation (1.17)<br />

peut être estimée sans biais par nlogd<strong>et</strong> n−1n t=1<strong>et</strong>( ˆ θn)e ′ t (ˆ <br />

θn) . Par conséquent, nous

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!