12.07.2015 Views

Télécharger le texte intégral - ISPED-Enseignement à distance

Télécharger le texte intégral - ISPED-Enseignement à distance

Télécharger le texte intégral - ISPED-Enseignement à distance

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Modè<strong>le</strong> nonlinéaire <strong>à</strong> classes latentes 2 1235.3.3 Choix du critère de lissageL’estimation du paramètre de lissage κ représente la difficulté majeure de cetteapproche par rapport au modè<strong>le</strong>. On peut choisir de fixer <strong>le</strong> paramètre de lissageκ, auquel cas la log-vraisemblance pénalisée peut être maximisée de manière classiquepar l’algorithme de Marquardt. Cependant, choisir κ de manière subjectivepeut se révé<strong>le</strong>r délicat car son ordre de grandeur dépend beaucoup des données. Ilpeut donc être plus intéressant d’estimer <strong>le</strong> paramètre de lissage afin d’obtenir uneméthode automatique d’estimation du modè<strong>le</strong> par vraisemblance pénalisée. La validationcroisée permet d’estimer <strong>le</strong> paramètre κ. El<strong>le</strong> consiste <strong>à</strong> optimiser suivant κ,la somme des contributions individuel<strong>le</strong>s <strong>à</strong> la log-vraisemblance L i de chaque sujeti <strong>à</strong> partir des estimateurs, ˆθ −i , obtenus en excluant <strong>le</strong> sujet i :V (κ) = − 1 NN∑L i (ˆθ −i , κ) (5.19)i=1Pour chaque va<strong>le</strong>ur de κ, cette méthode nécessite l’estimation d’autant de modè<strong>le</strong>sque de sujets dans l’échantillon. El<strong>le</strong> est donc extrêmement coûteuse en temps decalcul. Une approximation de V (κ) a été proposée par O’Sullivan (1988) et étendueaux données tronquées et censurées par Joly (1996). Il s’agit d’approcher <strong>le</strong>s paramètresˆθ −i <strong>à</strong> partir de l’estimateur obtenu sur l’échantillon entier ˆθ afin d’éviterl’estimation des N modè<strong>le</strong>s par va<strong>le</strong>ur de κ. Cette technique consiste <strong>à</strong> approcherla quantité V (κ) par un développement du premier ordre de L i (ˆθ −i , κ) autour deL(ˆθ, κ), la log-vraisemblance <strong>à</strong> l’optimum pour l’ensemb<strong>le</strong> de l’échantillon :¯V (κ) = − 1 (( [Ĥ ] ))−1L(ˆθ, κ) + trace − 2κΩ ĤN(5.20)où Ĥ est la matrice Hessienne <strong>à</strong> l’optimum pour l’ensemb<strong>le</strong> de l’échantillon et Ω est lamatrice des dérivées secondes par rapport aux paramètres du terme de pénalisation.Cette méthode basée sur l’optimisation de ¯V (κ) nécessite uniquement l’estimationdu modè<strong>le</strong> sur l’échantillon entier pour chaque va<strong>le</strong>ur de κ. L’estimateur ˆκ est

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!