Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Mélanges de GLMs et nombre de composantes : application ... - Scor
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
4.2. Sélection <strong>de</strong> modèle mélange<br />
La nouvelle hypothèse sur L peut poser problème : dans la plupart <strong>de</strong>s cas, elle n’est<br />
d’ailleurs pas vérifiée. En général, une condition suffisante qui perm<strong>et</strong> <strong>de</strong> la garantir est que<br />
le support <strong>de</strong> la <strong>de</strong>nsité f 0 soit borné. Pour les lois classiques auxquelles nous pensons, ce<br />
n’est évi<strong>de</strong>mment pas le cas en théorie. Néanmoins, il ne semble pas que c<strong>et</strong>te contrainte soit<br />
rédhibitoire dans la pratique : en eff<strong>et</strong> les observations <strong>de</strong>s phénomènes modélisés sont bel <strong>et</strong><br />
bien bornées dans les <strong>application</strong>s, comme le soulignent Bickel and Doksum (2001) (chapitre<br />
1). Les développements <strong>et</strong> précisions apportés nous amènent donc à reformuler différemment<br />
le théorème 4 dans le cas où l’espace <strong>de</strong>s paramètres est compact.<br />
Théorème 6. (Convergence forte <strong>de</strong> l’estimateur ML cc E, espace <strong>de</strong> paramètre Ψ G compact).<br />
Soit l’espace <strong>de</strong>s paramètres Ψ G <strong>de</strong> dimension K G , tel que Ψ G ⊂ R K G. Soit ln L cc : Ψ G ×R d →<br />
R. Soit Ψ O G un ouvert <strong>de</strong> RK G<br />
sur lequel ln L cc est bien définie, <strong>et</strong> tel que Ψ G ⊂ Ψ O G .<br />
Si nous avons les trois hypothèses suivantes :<br />
Alors,<br />
(H1-B) : Supposons Ψ G compact. Alors Ψ b G = ψG b : ψG b = arg max E f 0 [ln L cc (ψ G ; Y )]<br />
ψ G ∈Ψ G ( (H2-B) : Supposons que L ′ ∂ ln Lcc<br />
(y) = sup<br />
< ∞.<br />
ψ G ∈Ψ O ∣∣<br />
∂ψ G<br />
G<br />
)(ψ G ;y)<br />
∣∣ ∞<br />
(H3-B) : Supposons également que ‖L ′ ‖ 1 < ∞.<br />
∃n 0 ∈ N, ∀n ≥ n 0 , ∀ψG b ∈ Ψb G , en définissant ˆψML ccE<br />
G<br />
=<br />
G<br />
(Y 1 , ..., Y n ) ∈ Ψ G un<br />
estimateur qui maximise presque la vraisemblance classifiante conditionnelle tel que<br />
1<br />
n ln L cc(<br />
{<br />
ˆψ<br />
MLccE<br />
MLccE ˆψ<br />
G<br />
; Y ) ≥ 1 n ln L cc(ψG; b Y ) − ξ n<br />
}<br />
.<br />
avec<br />
{<br />
ξn ≥ 0 p.s.<br />
ξ n −→<br />
n→∞<br />
0 p.s.<br />
, nous avons d(<br />
MLccE ˆψ<br />
G<br />
, Ψ b G ) −→ 0 p.s.<br />
n→∞<br />
Démonstration. Similaire à celle du théorème 4, à ceci près que nous utilisons les Lemmes<br />
2 <strong>et</strong> 3 pour r<strong>et</strong>omber sur les hypothèses <strong>de</strong> base puis suivre le même raisonnement. Nous<br />
considérons un ouvert Ψ O G<br />
pour éviter les problèmes <strong>de</strong> dérivabilité aux bornes <strong>de</strong> l’espace <strong>de</strong>s<br />
paramètres.<br />
En eff<strong>et</strong>, l’hypothèse (H1-B) perm<strong>et</strong> <strong>de</strong> r<strong>et</strong>rouver les hypothèses (H1-A) <strong>et</strong> (H2-A) du<br />
théorème 4. Les hypothèses (H2-B) <strong>et</strong> (H3-B) sont <strong>de</strong>s conditions suffisantes pour r<strong>et</strong>rouver<br />
l’hypothèse (H3-A), <strong>et</strong> la définition <strong>de</strong> l’estimateur est conforme dans les <strong>de</strong>ux théorèmes. En<br />
fait les hypothèses (H2-B) <strong>et</strong> (H3-B) sont utilisées pour prouver que la “brack<strong>et</strong>ing entropy”<br />
est finie, par l’intermédiaire du théorème <strong>de</strong>s accroissements finis.<br />
Sous les hypothèses <strong>de</strong> compacité <strong>de</strong> l’ensemble <strong>de</strong> paramètres Ψ G <strong>et</strong> <strong>de</strong> régularité <strong>de</strong> la<br />
fonction ln L cc , nous savons donc que l’estimateur ML cc E converge fortement vers l’ensemble<br />
<strong>de</strong> paramètres Ψ b G qui maximise E f 0 [ln L cc(ψ G ; Y )]. Dans le cas <strong>de</strong> mélange gaussien,<br />
Baudry (2009) montre que l’estimateur ML cc E est convergent en probabilité vers le paramètre<br />
maximisant E [ln L cc (ψ G , Y )]. D’ailleurs (H3-A) est également vérifiée s’il s’agit <strong>de</strong><br />
131