23.12.2013 Views

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

Mélanges de GLMs et nombre de composantes : application ... - Scor

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Chapitre 2. Crises <strong>de</strong> corrélation <strong>de</strong>s comportements<br />

Démonstration. C<strong>et</strong>te proposition découle <strong>de</strong> résultats élémentaires sur les ordres stochastiques<br />

impliquant <strong>de</strong>s distributions Binomiales <strong>et</strong> <strong>de</strong> Bernoulli.<br />

Proposition 4. Lorsque la probabilité individuelle <strong>de</strong> rachat p est fixée, le paramètre <strong>de</strong> corrélation<br />

induit un ordre 2-convex du <strong>nombre</strong> <strong>de</strong> rachats : pour p ∈ (0, 1) fixé, si p 0 < p ′ 0<br />

alors<br />

M (p,p0 ) ≤ 2 M (p,p ′<br />

0<br />

).<br />

Démonstration. Sachant que le <strong>nombre</strong> <strong>de</strong> comportements moutonniers N vaut k, le <strong>nombre</strong><br />

total <strong>de</strong> rachats est<br />

M (p,k) = k.I 0 + 0.I ⊥ 1 + 0.I ⊥ 2 + ... + 0.I ⊥ k + 1.I⊥ k+1 + ... + 1.I⊥ n .<br />

Sachant que N = k ′<br />

avec k ≤ k ′ , nous avons<br />

M (p,k ′ ) = k ′ .I 0 + 0.I ⊥ 1 + ... + 0.I ⊥ k + ... + 0.I⊥ k ′ + 1.I⊥ k ′ +1 + ... + 1.I⊥ n .<br />

Nous pouvons comparer les <strong>de</strong>ux variables aléatoires M (p,k) <strong>et</strong> M (p,k ′ ) par un ordre <strong>de</strong> majorisation<br />

(voir par exemple Marshall and Olkin (1979)). Notons Z ↓ = (z ↓ 1 , . . . , z↓ K<br />

) le vecteur<br />

<strong>de</strong>s mêmes <strong>composantes</strong> que Z (quelconque) classées en ordre décroissant. Connaissant <strong>de</strong>ux<br />

vecteurs Y = (y 1 , . . . , y K ) <strong>et</strong> Z = (z 1 , . . . , z K ) <strong>de</strong> taille K ≥ 1 tels que<br />

K∑<br />

y i =<br />

i=1<br />

K∑<br />

z i ,<br />

i=1<br />

rappelons que Z est dit majorant Y si pour tout j ≤ K,<br />

j∑<br />

y ↓ i ≤<br />

i=1<br />

j∑<br />

z ↓ i .<br />

i=1<br />

D’après Marshall and Olkin (1979), si le vecteur α = (α 0 , ..., α n ) est plus p<strong>et</strong>it que le<br />

vecteur β = (β 0 , ..., β n ) dans l’ordre <strong>de</strong> majorisation partielle, <strong>et</strong> si les X i sont i.i.d., alors nous<br />

obtenons l’ordre convexe suivant :<br />

∑ ∑<br />

α i X i ≤ 2 β i X i .<br />

i<br />

i<br />

Nous posons X i = I ⊥ i<br />

<strong>et</strong><br />

(α 0 , ..., α n ) = (k, 0, ..., 0, 1, ..., 1) <strong>et</strong> (β<br />

} {{ }<br />

0 , ..., β n ) = (k ′ , 0, ..., 0, 1, ..., 1).<br />

} {{ }<br />

k fois<br />

k ′ fois<br />

Pour k ≤ k ′ , le vecteur (β 0 , ..., β n ) majore clairement le vecteur (α 0 , ..., α n ). De plus, la variable<br />

aléatoire (N ∼ Bin(n, p 0 )) est stochastiquement croissante en p 0 . Nous pouvons donc conclure<br />

que pour p 0 ≤ p ′ 0 , M (p,p0 ) ≤ 2 M (p,p ′<br />

0<br />

),<br />

où M (p,p0 ) est le <strong>nombre</strong> d’assurés qui rachètent quand la probabilité <strong>de</strong> se comporter en<br />

mouton vaut p 0 <strong>et</strong> quand la probabilité individuelle <strong>de</strong> rachat est p.<br />

56

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!