23.12.2013 Views

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

4.4. Applications<br />

Proposition 7. (Convergence forte <strong>de</strong> l’estimateur ML cc E pour mélange <strong>de</strong> <strong>GLMs</strong>).<br />

Soit M G un mélange <strong>de</strong> <strong>GLMs</strong> à G <strong>composantes</strong>, tel que défini en section 4.3.2. L’espace <strong>de</strong>s<br />

paramètres Ψ G , <strong>de</strong> dimension K G , satisfait Ψ G ⊂ R K G.<br />

Si l’ensemble <strong>de</strong>s paramètres Ψ G est compact <strong>et</strong> que nous imposons les restrictions sur les<br />

MLccE<br />

paramètres donnés par le tableau 4.2, alors l’estimateur ˆψ<br />

G<br />

est fortement convergent vers<br />

le meilleur ensemble <strong>de</strong> paramètre Ψ b G<br />

sous-jacent à la distribution <strong>de</strong>s données.<br />

Démonstration. La preuve est immédiate quand on sait que les contraintes imposées sur la<br />

famille GLM perm<strong>et</strong>tent <strong>de</strong> satisfaire les hypothèses (H2-B) <strong>et</strong> (H3-B). L’ensemble <strong>de</strong>s paramètres<br />

étant compact, le tour est joué.<br />

Proposition 8. (Consistance faible <strong>de</strong> ICL c pour mélanges <strong>de</strong> <strong>GLMs</strong>, cas compact).<br />

Soit {M g } 1≤g≤m une collection <strong>de</strong> mélanges <strong>de</strong> <strong>GLMs</strong> <strong>de</strong> paramètres {ψ g } 1≤g≤m ∈ {Ψ g } 1≤g≤m<br />

<strong>et</strong> <strong>de</strong> dimension {K g } 1≤g≤m , avec Ψ g ⊂ R Kg . Ces modèles sont classés dans un ordre croissant<br />

<strong>de</strong> complexité, avec K 1 ≤ K 2 ≤ ... ≤ K m .<br />

Le critère <strong>de</strong> sélection ICL c est faiblement consistant : le <strong>nombre</strong> <strong>de</strong> <strong>composantes</strong> du mélange<br />

<strong>de</strong> <strong>GLMs</strong> sélectionné via ce critère converge en probabilité vers le <strong>nombre</strong> théorique <strong>de</strong><br />

<strong>composantes</strong> <strong>de</strong> la <strong>de</strong>nsité mélange sous-jacente.<br />

Démonstration. La preuve est immédiate quand on sait que les contraintes imposées sur la<br />

famille GLM (tableau 4.2) perm<strong>et</strong>tent <strong>de</strong> satisfaire les différentes hypothèses du théorème 9.<br />

L’expression <strong>de</strong> la pénalité du critère ICL c ainsi que le fait que l’estimateur ML cc E soit<br />

fortement convergent vers le paramètre théorique complètent l’argumentation <strong>de</strong> c<strong>et</strong>te preuve.<br />

4.4 Applications<br />

Nous proposons dans c<strong>et</strong>te partie <strong>de</strong> revenir sur les <strong>application</strong>s développées tout au long<br />

<strong>de</strong> la thèse, <strong>et</strong> <strong>de</strong> voir en quoi ce <strong>de</strong>rnier chapitre peut être utile à la fois d’un point <strong>de</strong> vue<br />

théorique mais aussi d’un point <strong>de</strong> vue opérationnel.<br />

4.4.1 Quelques remarques importantes<br />

Il est intéressant <strong>de</strong> comparer les résultats obtenus infra avec ceux fournis dans le chapitre<br />

3 <strong>et</strong> les annexes. En eff<strong>et</strong>, l’objectif était <strong>de</strong> diminuer la dimension <strong>de</strong>s modèles en<br />

supprimant certaines <strong>de</strong>s <strong>composantes</strong> qui se ressemblaient fortement. Notre objectif initial<br />

étant d’être capable <strong>de</strong> distinguer clairement différents types <strong>de</strong> comportement <strong>de</strong> rachat, le<br />

critère ICL <strong>de</strong> sélection <strong>de</strong> modèle est ici employé. Nous allons voir dans ces nouvelles <strong>application</strong>s<br />

que celui-ci répond bel <strong>et</strong> bien à nos attentes : dans la gran<strong>de</strong> majorité <strong>de</strong>s cas, il<br />

perm<strong>et</strong> <strong>de</strong> s’affranchir <strong>de</strong> certaines <strong>composantes</strong> présentes dans un modèle sélectionné par le<br />

BIC, tout en améliorant la qualité d’estimation <strong>de</strong>s coefficients <strong>de</strong> régression. Les <strong>composantes</strong><br />

restantes ont <strong>de</strong>s caractéristiques n<strong>et</strong>tement mieux différentiables, ce qui vient renforcer l’idée<br />

<strong>de</strong> “clusters comportementaux” facilement i<strong>de</strong>ntifiables. Il aurait été intéressant <strong>de</strong> tracer la<br />

<strong>de</strong>nsité du mélange <strong>de</strong> <strong>GLMs</strong> afin <strong>de</strong> clairement la visualiser (<strong>et</strong> donc <strong>de</strong> détecter d’éventuels<br />

“overlap” entre <strong>de</strong>nsités <strong>de</strong>s <strong>composantes</strong>), mais ceci est rendu relativement complexe du fait<br />

<strong>de</strong> la multidimensionnalité <strong>de</strong>s données. Les <strong>de</strong>nsités <strong>de</strong> chaque composante du mélange sont<br />

159

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!