17.08.2013 Views

THÈSE Estimation, validation et identification des modèles ARMA ...

THÈSE Estimation, validation et identification des modèles ARMA ...

THÈSE Estimation, validation et identification des modèles ARMA ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Chapitre 1. Introduction 39<br />

indispensable car la mesure de l’erreur d’ajustement est systématiquement minimale<br />

pour le modèle qui possède le plus grand nombre de paramètres, lorsque ˆ θm minimise<br />

c<strong>et</strong>te erreur d’ajustement <strong>et</strong> quand les <strong>modèles</strong> sont emboîtés. Le critère le plus connu<br />

est sans doute le AIC introduit par Akaike (1973) <strong>et</strong> défini de manière suivante<br />

AIC(modèle m estimé) = −2log ˜ Ln( ˆ θm)+dim( ˆ θm).<br />

Le critère AIC est fondé sur un estimateur de la divergence de Kullback-Leibler dont<br />

nous en parlerons ultérieurement. Tsai <strong>et</strong> Hurvich (1989, 1993) ont proposé une correction<br />

de biais du critère AIC pour <strong>des</strong> <strong>modèles</strong> de séries temporelles autorégressifs dans<br />

les cas univarié <strong>et</strong> multivarié sous les hypothèses que les innovations ǫt sont indépendantes<br />

<strong>et</strong> identiquement distribuées.<br />

1.4.3 Contraste de Kullback-Leibler<br />

Soit les observations X = (X1,...,Xn) de loi à densité f0 inconnue par rapport à<br />

une mesure σ-finie µ. Considérons un modèle candidat m avec lequel les observations<br />

seraient à densité fm(·,θm), avec un paramètre θm de dimension km. L’écart entre le<br />

modèle candidat <strong>et</strong> le vrai modèle peut être mesuré par la divergence (ou information,<br />

ou entropie) de Kullback-Leibler<br />

où<br />

∆{fm(·,θm)|f0} = Ef0 log<br />

<br />

d{fm(·,θm)|f0} = −2Ef0logfm(X,θm) = −2<br />

f0(X)<br />

fm(X,θm) = Ef0 logf0(X)+ 1<br />

2 d{fm(·,θm)|f0},<br />

{logfm(x,θm)}f0(x)µ(dx)<br />

est souvent appelé le contraste de Kullback-Leibler (ou l’écart entre le modèle ajusté<br />

<strong>et</strong> le vrai modèle). Notons que ∆(f|f0) n’est pas symétrique en f <strong>et</strong> f0, <strong>et</strong> s’interprète<br />

comme la capacité moyenne d’une observation de loif0 à se distinguer d’une observation<br />

de loi f. On peut aussi interpréter ∆(f|f0) comme étant une perte d’information liée à<br />

l’utilisation du modèle f quand le vrai modèle est f0. En utilisant l’inégalité de Jensen,<br />

nous montrons que ∆{fm(·,θm)|f0} existe toujours dans [0,∞] :<br />

<br />

∆{fm(·,θm)|f0} = − log fm(x,θm)<br />

f0(x)µ(dx)<br />

f0(x)<br />

<br />

fm(x,θm)<br />

≥ −log f0(x)µ(dx) = 0,<br />

f0(x)<br />

avec égalité si <strong>et</strong> seulement si les lois de fm(·,θm) <strong>et</strong> f0 sont les mêmes i.e. fm(·,θm) =<br />

f0. Telle est la propriété principale de la divergence de Kullback-Leibler. Minimiser

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!