17.08.2013 Views

THÈSE Estimation, validation et identification des modèles ARMA ...

THÈSE Estimation, validation et identification des modèles ARMA ...

THÈSE Estimation, validation et identification des modèles ARMA ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Chapitre 1. Introduction 34<br />

convergent en loi, quand n → ∞, vers<br />

d<br />

Zm(ξm) =<br />

2 m<br />

ξi,d2mZ 2 i<br />

où ξm = (ξ1,d 2 m,...,ξd 2 m,d 2 m) ′ est le vecteur <strong>des</strong> valeurs propres de la matrice<br />

i=1<br />

Ωm = Im ⊗Σ −1/2<br />

e ⊗Σ −1/2<br />

<br />

e ΣˆΓm<br />

Im ⊗Σ −1/2<br />

e ⊗Σ −1/2<br />

e ,<br />

<strong>et</strong> les Z1,...,Zm sont <strong>des</strong> variables indépendantes, centrées <strong>et</strong> réduites normalement<br />

distribuées.<br />

Ainsi quand le processus d’erreurs est un bruit blanc faible, la distribution asymptotique<br />

<strong>des</strong> statistiques Pm <strong>et</strong> ˜ Pm est une somme pondérée de chi-deux.<br />

En vue du théorème 1.9, la distribution asymptotique <strong>des</strong> statistiques du test portmanteau<br />

de BP <strong>et</strong> de LB dépend du paramètre de nuisance Σe, de la matrice Φm <strong>et</strong><br />

<strong>des</strong> éléments de la matrice Ξ. Nous avons donc besoin d’estimateurs consistants de ces<br />

matrices inconnues. La matrice Σe peut être estimée à partir <strong>des</strong> résidus d’estimation<br />

par ˆ Σe = ˆ Γe(0). La matrice Φm peut être estimée empiriquement par<br />

ˆΦm = 1<br />

n<br />

n<br />

<br />

ê ′<br />

t−1 ,...,ê ′ ′ ∂<strong>et</strong>(θ0)<br />

t−m ⊗<br />

∂θ ′<br />

<br />

θ0= ˆ .<br />

θn<br />

t=1<br />

Afin d’estimer la matrice Ξ, nous utilisons la méthode d’estimation de la densité spec-<br />

trale (déjà définie les chapitres précédents) du processus stationnaire Υt = (Υ ′ 1 t ,Υ′ 2 t )′ ,<br />

où Υ1 t = e ′ t−1,...,e ′ ′⊗<strong>et</strong><br />

t−m <strong>et</strong> Υ2 t = −2J−1 (∂e ′ t(θ0)/∂θ)Σ −1<br />

e0 <strong>et</strong>(θ0). En interprétant<br />

(2π) −1Ξ comme étant la densité spectrale évaluée en zéro du processus stationnaire<br />

(Υt), nous avons<br />

Ξ = Φ −1 (1)ΣuΦ −1 (1)<br />

quand (Υt) satisfait une représentation VAR(∞) de la forme<br />

Φ(L)Υt := Υt +<br />

∞<br />

ΦiΥt−i = ut, (1.14)<br />

où ut est un bruit blanc faible de matrice de variance Σu. Puisque Υt est inconnu,<br />

nous posons ˆ Υt le vecteur obtenu en remplaçant θ0 par ˆ θn dans l’expression de Υt.<br />

Nous définissons le polynôme ˆ Φr(z) = I k0+d 2 m + r<br />

i=1 ˆ Φr,iz i , où ˆ Φr,1,··· , ˆ Φr,r sont les<br />

coefficients de la régression <strong>des</strong> moindres carrés de ˆ Υt sur ˆ Υt−1,··· , ˆ Υt−r. Notons ûr,t<br />

les résidus de c<strong>et</strong>te régression <strong>et</strong> ˆ Σûr la variance empirique <strong>des</strong> résidus ûr,1,...,ûr,n.<br />

Nous établissons le théorème suivant qui est une extension du résultat de Francq, Roy<br />

<strong>et</strong> Zakoïan (2004).<br />

i=1

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!