Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Présentation <strong>de</strong> la thèse<br />
{ }<br />
avec Ψ G ⊂ Π G × (R d ) 2G yθi − b(θ i )<br />
, <strong>et</strong> f glm (y; θ i , φ i ) = exp<br />
+ c(y; φ i ) .<br />
a(φ i )<br />
Par l’étu<strong>de</strong> <strong>de</strong>s propriétés <strong>de</strong> la vraisemblance classifiante conditionnelle ainsi que celles <strong>de</strong>s<br />
lois <strong>de</strong> la famille exponentielle qui interviennent dans les modèles GLM, nous prouvons la<br />
convergence forte <strong>de</strong> l’estimateur ML cc E vers l’oracle, meilleur paramètre théorique pour<br />
l’optimisation <strong>de</strong> la vraisemblance classifiante conditionnelle avec <strong>de</strong>s mélanges. Les conditions<br />
nécessaires à ces résultats sont <strong>de</strong>s conditions <strong>de</strong> régularité sur la log-vraisemblance<br />
classifiante conditionnelle, couplées à <strong>de</strong>s conditions <strong>de</strong> compacité <strong>et</strong>/ou convexité sur l’espace<br />
<strong>de</strong>s paramètres Ψ G . Il s’ensuit le théorème <strong>de</strong> convergence suivant (les notations sont<br />
introduites dans les chapitres) :<br />
Théorème 1. Plaçons nous dans l’ensemble <strong>de</strong> modèles M G .<br />
Soit l’espace <strong>de</strong>s paramètres Ψ G <strong>de</strong> dimension K G , tel que Ψ G ⊂ R K G.<br />
Soit log L cc : Ψ G × R d → R. Soit Ψ O G un ouvert <strong>de</strong> RK G<br />
sur lequel log L cc est bien définie, <strong>et</strong><br />
tel que Ψ G ⊂ Ψ O G .<br />
Si nous avons les trois hypothèses suivantes :<br />
Alors,<br />
(H1-B) : Supposons Ψ G compact. Alors Ψ b G = ψG b : ψG b = arg max E f 0 [log L cc (ψ G ; Y )]<br />
ψ G ∈Ψ G ( (H2-B) : Supposons que L ′ ∂ log Lcc<br />
(y) = sup<br />
< ∞.<br />
ψ G ∈Ψ O ∣∣<br />
∂ψ G<br />
G<br />
)(ψ G ;y)<br />
∣∣ ∞<br />
(H3-B) : Supposons également que ‖L ′ ‖ 1 < ∞.<br />
∃n 0 ∈ N, ∀n ≥ n 0 , ∀ψG b ∈ Ψb G , en définissant ˆψML ccE<br />
G<br />
=<br />
G<br />
(Y 1 , ..., Y n ) ∈ Ψ G un<br />
estimateur qui maximise presque la vraisemblance classifiante conditionnelle tel que<br />
1<br />
n log L cc(<br />
{<br />
ˆψ<br />
MLccE<br />
MLccE ˆψ<br />
G<br />
; Y ) ≥ 1 n log L cc(ψG; b Y ) − ξ n<br />
}<br />
.<br />
avec<br />
{<br />
ξn ≥ 0 p.s.<br />
ξ n −→<br />
n→∞<br />
0 p.s.<br />
, nous avons d(<br />
MLccE ˆψ<br />
G<br />
, Ψ b G ) −→ 0 p.s.<br />
n→∞<br />
En ce qui concerne la problématique <strong>de</strong> sélection <strong>de</strong> modèle, nous nous intéressons au<br />
critère <strong>de</strong> sélection ICL, taillé sur mesure pour la question <strong>de</strong> classification <strong>et</strong> défini initialement<br />
comme<br />
M ICL =<br />
arg min<br />
M g∈{M 1 ,...,M m}<br />
⎛<br />
⎝− log L(<br />
MLE ˆψ g ; y) −<br />
n∑<br />
g∑<br />
j=1 i=1<br />
Ẑ MAP<br />
ij<br />
log τ i (y j ;<br />
⎞<br />
MLE ˆψ g ) + K g<br />
2 log n ⎠ ,<br />
où les M g sont <strong>de</strong>s modèles mélanges emboîtés (un mélange à <strong>de</strong>ux <strong>composantes</strong> est emboîté<br />
dans un mélange à trois <strong>composantes</strong>, <strong>et</strong> ainsi <strong>de</strong> suite).<br />
Ce critère, qui n’était pas consistant pour l’estimation du <strong>nombre</strong> <strong>de</strong> <strong>composantes</strong> d’un mélange<br />
lorsqu’il était basé sur l’estimateur du maximum <strong>de</strong> vraisemblance, le <strong>de</strong>vient sous certaines<br />
conditions en utilisant l’estimateur ML cc E. Nous démontrons ainsi que le critère ICL appliqué<br />
16