23.12.2013 Views

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

4.2. Sélection <strong>de</strong> modèle mélange<br />

La nouvelle hypothèse sur L peut poser problème : dans la plupart <strong>de</strong>s cas, elle n’est<br />

d’ailleurs pas vérifiée. En général, une condition suffisante qui perm<strong>et</strong> <strong>de</strong> la garantir est que<br />

le support <strong>de</strong> la <strong>de</strong>nsité f 0 soit borné. Pour les lois classiques auxquelles nous pensons, ce<br />

n’est évi<strong>de</strong>mment pas le cas en théorie. Néanmoins, il ne semble pas que c<strong>et</strong>te contrainte soit<br />

rédhibitoire dans la pratique : en eff<strong>et</strong> les observations <strong>de</strong>s phénomènes modélisés sont bel <strong>et</strong><br />

bien bornées dans les <strong>application</strong>s, comme le soulignent Bickel and Doksum (2001) (chapitre<br />

1). Les développements <strong>et</strong> précisions apportés nous amènent donc à reformuler différemment<br />

le théorème 4 dans le cas où l’espace <strong>de</strong>s paramètres est compact.<br />

Théorème 6. (Convergence forte <strong>de</strong> l’estimateur ML cc E, espace <strong>de</strong> paramètre Ψ G compact).<br />

Soit l’espace <strong>de</strong>s paramètres Ψ G <strong>de</strong> dimension K G , tel que Ψ G ⊂ R K G. Soit ln L cc : Ψ G ×R d →<br />

R. Soit Ψ O G un ouvert <strong>de</strong> RK G<br />

sur lequel ln L cc est bien définie, <strong>et</strong> tel que Ψ G ⊂ Ψ O G .<br />

Si nous avons les trois hypothèses suivantes :<br />

Alors,<br />

(H1-B) : Supposons Ψ G compact. Alors Ψ b G = ψG b : ψG b = arg max E f 0 [ln L cc (ψ G ; Y )]<br />

ψ G ∈Ψ G ( (H2-B) : Supposons que L ′ ∂ ln Lcc<br />

(y) = sup<br />

< ∞.<br />

ψ G ∈Ψ O ∣∣<br />

∂ψ G<br />

G<br />

)(ψ G ;y)<br />

∣∣ ∞<br />

(H3-B) : Supposons également que ‖L ′ ‖ 1 < ∞.<br />

∃n 0 ∈ N, ∀n ≥ n 0 , ∀ψG b ∈ Ψb G , en définissant ˆψML ccE<br />

G<br />

=<br />

G<br />

(Y 1 , ..., Y n ) ∈ Ψ G un<br />

estimateur qui maximise presque la vraisemblance classifiante conditionnelle tel que<br />

1<br />

n ln L cc(<br />

{<br />

ˆψ<br />

MLccE<br />

MLccE ˆψ<br />

G<br />

; Y ) ≥ 1 n ln L cc(ψG; b Y ) − ξ n<br />

}<br />

.<br />

avec<br />

{<br />

ξn ≥ 0 p.s.<br />

ξ n −→<br />

n→∞<br />

0 p.s.<br />

, nous avons d(<br />

MLccE ˆψ<br />

G<br />

, Ψ b G ) −→ 0 p.s.<br />

n→∞<br />

Démonstration. Similaire à celle du théorème 4, à ceci près que nous utilisons les Lemmes<br />

2 <strong>et</strong> 3 pour r<strong>et</strong>omber sur les hypothèses <strong>de</strong> base puis suivre le même raisonnement. Nous<br />

considérons un ouvert Ψ O G<br />

pour éviter les problèmes <strong>de</strong> dérivabilité aux bornes <strong>de</strong> l’espace <strong>de</strong>s<br />

paramètres.<br />

En eff<strong>et</strong>, l’hypothèse (H1-B) perm<strong>et</strong> <strong>de</strong> r<strong>et</strong>rouver les hypothèses (H1-A) <strong>et</strong> (H2-A) du<br />

théorème 4. Les hypothèses (H2-B) <strong>et</strong> (H3-B) sont <strong>de</strong>s conditions suffisantes pour r<strong>et</strong>rouver<br />

l’hypothèse (H3-A), <strong>et</strong> la définition <strong>de</strong> l’estimateur est conforme dans les <strong>de</strong>ux théorèmes. En<br />

fait les hypothèses (H2-B) <strong>et</strong> (H3-B) sont utilisées pour prouver que la “brack<strong>et</strong>ing entropy”<br />

est finie, par l’intermédiaire du théorème <strong>de</strong>s accroissements finis.<br />

Sous les hypothèses <strong>de</strong> compacité <strong>de</strong> l’ensemble <strong>de</strong> paramètres Ψ G <strong>et</strong> <strong>de</strong> régularité <strong>de</strong> la<br />

fonction ln L cc , nous savons donc que l’estimateur ML cc E converge fortement vers l’ensemble<br />

<strong>de</strong> paramètres Ψ b G qui maximise E f 0 [ln L cc(ψ G ; Y )]. Dans le cas <strong>de</strong> mélange gaussien,<br />

Baudry (2009) montre que l’estimateur ML cc E est convergent en probabilité vers le paramètre<br />

maximisant E [ln L cc (ψ G , Y )]. D’ailleurs (H3-A) est également vérifiée s’il s’agit <strong>de</strong><br />

131

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!