23.12.2013 Views

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Présentation <strong>de</strong> la thèse<br />

{ }<br />

avec Ψ G ⊂ Π G × (R d ) 2G yθi − b(θ i )<br />

, <strong>et</strong> f glm (y; θ i , φ i ) = exp<br />

+ c(y; φ i ) .<br />

a(φ i )<br />

Par l’étu<strong>de</strong> <strong>de</strong>s propriétés <strong>de</strong> la vraisemblance classifiante conditionnelle ainsi que celles <strong>de</strong>s<br />

lois <strong>de</strong> la famille exponentielle qui interviennent dans les modèles GLM, nous prouvons la<br />

convergence forte <strong>de</strong> l’estimateur ML cc E vers l’oracle, meilleur paramètre théorique pour<br />

l’optimisation <strong>de</strong> la vraisemblance classifiante conditionnelle avec <strong>de</strong>s mélanges. Les conditions<br />

nécessaires à ces résultats sont <strong>de</strong>s conditions <strong>de</strong> régularité sur la log-vraisemblance<br />

classifiante conditionnelle, couplées à <strong>de</strong>s conditions <strong>de</strong> compacité <strong>et</strong>/ou convexité sur l’espace<br />

<strong>de</strong>s paramètres Ψ G . Il s’ensuit le théorème <strong>de</strong> convergence suivant (les notations sont<br />

introduites dans les chapitres) :<br />

Théorème 1. Plaçons nous dans l’ensemble <strong>de</strong> modèles M G .<br />

Soit l’espace <strong>de</strong>s paramètres Ψ G <strong>de</strong> dimension K G , tel que Ψ G ⊂ R K G.<br />

Soit log L cc : Ψ G × R d → R. Soit Ψ O G un ouvert <strong>de</strong> RK G<br />

sur lequel log L cc est bien définie, <strong>et</strong><br />

tel que Ψ G ⊂ Ψ O G .<br />

Si nous avons les trois hypothèses suivantes :<br />

Alors,<br />

(H1-B) : Supposons Ψ G compact. Alors Ψ b G = ψG b : ψG b = arg max E f 0 [log L cc (ψ G ; Y )]<br />

ψ G ∈Ψ G ( (H2-B) : Supposons que L ′ ∂ log Lcc<br />

(y) = sup<br />

< ∞.<br />

ψ G ∈Ψ O ∣∣<br />

∂ψ G<br />

G<br />

)(ψ G ;y)<br />

∣∣ ∞<br />

(H3-B) : Supposons également que ‖L ′ ‖ 1 < ∞.<br />

∃n 0 ∈ N, ∀n ≥ n 0 , ∀ψG b ∈ Ψb G , en définissant ˆψML ccE<br />

G<br />

=<br />

G<br />

(Y 1 , ..., Y n ) ∈ Ψ G un<br />

estimateur qui maximise presque la vraisemblance classifiante conditionnelle tel que<br />

1<br />

n log L cc(<br />

{<br />

ˆψ<br />

MLccE<br />

MLccE ˆψ<br />

G<br />

; Y ) ≥ 1 n log L cc(ψG; b Y ) − ξ n<br />

}<br />

.<br />

avec<br />

{<br />

ξn ≥ 0 p.s.<br />

ξ n −→<br />

n→∞<br />

0 p.s.<br />

, nous avons d(<br />

MLccE ˆψ<br />

G<br />

, Ψ b G ) −→ 0 p.s.<br />

n→∞<br />

En ce qui concerne la problématique <strong>de</strong> sélection <strong>de</strong> modèle, nous nous intéressons au<br />

critère <strong>de</strong> sélection ICL, taillé sur mesure pour la question <strong>de</strong> classification <strong>et</strong> défini initialement<br />

comme<br />

M ICL =<br />

arg min<br />

M g∈{M 1 ,...,M m}<br />

⎛<br />

⎝− log L(<br />

MLE ˆψ g ; y) −<br />

n∑<br />

g∑<br />

j=1 i=1<br />

Ẑ MAP<br />

ij<br />

log τ i (y j ;<br />

⎞<br />

MLE ˆψ g ) + K g<br />

2 log n ⎠ ,<br />

où les M g sont <strong>de</strong>s modèles mélanges emboîtés (un mélange à <strong>de</strong>ux <strong>composantes</strong> est emboîté<br />

dans un mélange à trois <strong>composantes</strong>, <strong>et</strong> ainsi <strong>de</strong> suite).<br />

Ce critère, qui n’était pas consistant pour l’estimation du <strong>nombre</strong> <strong>de</strong> <strong>composantes</strong> d’un mélange<br />

lorsqu’il était basé sur l’estimateur du maximum <strong>de</strong> vraisemblance, le <strong>de</strong>vient sous certaines<br />

conditions en utilisant l’estimateur ML cc E. Nous démontrons ainsi que le critère ICL appliqué<br />

16

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!