12.07.2015 Views

Télécharger le texte intégral - ISPED-Enseignement à distance

Télécharger le texte intégral - ISPED-Enseignement à distance

Télécharger le texte intégral - ISPED-Enseignement à distance

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Etat des connaissances 47L’estimation d’un modè<strong>le</strong> de mélange par un algorithme de Newton-Raphson a étécritiquée (Redner et Walker, 1984 ; Verbeke et Mo<strong>le</strong>nberghs, 2000). Malgré sa vitessede convergence quadratique (donc plus rapide que l’algorithme EM), cet algorithme atendance <strong>à</strong> avoir plus de problèmes de convergence que l’algorithme EM. Dans notretravail préparatoire, nous avons donc comparé <strong>le</strong>s performances de notre algorithmede Marquardt amélioré avec cel<strong>le</strong>s de l’algorithme EM sur deux échantillons. Lesdeux algorithmes ont convergé vers <strong>le</strong> maximum global un nombre équiva<strong>le</strong>nt de foismais l’algorithme de Marquardt convergeait beaucoup plus rapidement (10 minutesvs. 2 heures pour un modè<strong>le</strong> avec une fonction quadratique du temps et 2 classes demélange estimé sur un échantillon de 1392 sujets).Nous avons vu précédemment que <strong>le</strong>s modè<strong>le</strong>s de mélange patissaient d’une multimodalitéet devaient donc être estimés avec plusieurs jeux de va<strong>le</strong>urs initia<strong>le</strong>s pours’assurer de la convergence vers <strong>le</strong> maximum global. D’autre part, un modè<strong>le</strong> demélange doit être estimé pour toute une série de nombres de composantes différentsafin de sé<strong>le</strong>ctionner <strong>le</strong> nombre optimal de classes. Par conséquent, étant donné lanécessité de multiplier <strong>le</strong>s estimations du modè<strong>le</strong> de mélange dans une analyse, i<strong>le</strong>st primordial d’utiliser un algorithme rapide.Classification a posterioriUne des particularités des modè<strong>le</strong>s de mélange est qu’ils permettent de réaliserune classification a posteriori des sujets suivant <strong>le</strong>s classes latentes estimées dans <strong>le</strong>modè<strong>le</strong>. Après l’estimation des paramètres du modè<strong>le</strong> et la détermination du nombreoptimal de classes, il est possib<strong>le</strong> de calcu<strong>le</strong>r a posteriori la probabilité que chaquesujet appartienne <strong>à</strong> chaque classe latente ˆπ ig , g = 1, G, par <strong>le</strong> théorème de Bayes :ˆπ ig = P (c i = g|Y i , ˆθ) =ˆπ gφ ig (y i ; ˆθ)∑ Gl=1 ˆπ lφ il (y i ; ˆθ)(2.18)où φ il (y i ; ˆθ) est la densité multivariée Gaussienne définie au paragraphe précédentprise aux va<strong>le</strong>urs estimées des paramètres ˆθ. Pour chaque sujet, on dispose alors de

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!