09.07.2015 Views

ϕ-Divergence empirique et vraisemblance empirique généralisée

ϕ-Divergence empirique et vraisemblance empirique généralisée

ϕ-Divergence empirique et vraisemblance empirique généralisée

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

3 Extension de la méthode de <strong>vraisemblance</strong><strong>empirique</strong> aux ϕ-divergences.L’objectif de ce chapitre est d’étendre la méthode de <strong>vraisemblance</strong> <strong>empirique</strong>à des ϕ-divergences autres que celle de Kullback ou les Cressie-Read,<strong>et</strong> de montrer en quoi les résultats obtenus par Owen (1990) <strong>et</strong> tous ceuxrécemment obtenus dans la littérature économétrique sont essentiellementliés aux propriétés de convexité de la fonctionnelle I ϕ ∗. Nous nous restreignonsici au cas de la moyenne multivariée pour simplifier l’exposition <strong>et</strong> lespreuves, mais les résultats sont également valides pour des contraintes demoments plus générales en nombres finis, de la forme :E P [m(X, θ)] = 0où m est une fonction régulière de X × R p dans R r avec r ≥ p.3.1 Vraisemblance <strong>empirique</strong>On considère une suite de vecteurs aléatoires X, X 1 , · · · , X n de R p , n ≥ 1,indépendants <strong>et</strong> uniformément distribués de loi de probabilité P dans unespace de probabilité P. On note Pr la probabilité sous la loi jointe P ⊗nde (X 1 , ..., X n ). On cherche alors à obtenir une région de confiance pourµ 0 = E P X = ∫ XdP sous l’hypothèse que V P (X) est une matrice définie positive.Pour cela dans l’optique traditionnelle de Von Mises, on construit la probabilité<strong>empirique</strong> P n = 1 n∑ ni=1 δ X iavec δ x (y) = 1l {y=x} , qui est l’estimateurdu maximum de <strong>vraisemblance</strong> non-paramétrique de P , dans le sens où ellemaximise, parmi les lois de probabilités, la fonctionnelle L(Q) = ∏ ni=1 Q({x i})où ∀i ∈ {1, ..., n}, {x i } représente le singl<strong>et</strong>on x i = X i (ω), pour ω ∈ Ω fixé.On ne s’intéresse donc ici qu’à l’ensemble P n des probabilités Q dominéespar P n , c’est-à-dire de la forme, Q = ∑ ni=1 q iδ Xi , q i ≥ 0, ∑ ni=1 q i = 1.On définit une région de confiance pour la moyenne µ 0 , selon le principede la <strong>vraisemblance</strong> <strong>empirique</strong>, comme suit{C η,n = µ∣ E Q[X − µ] = 0, Q ∈ P n , R n (Q) = L(Q) }L(P n ) ≤ η {n∑n∑∏ }ni=1= µq∣ i (X i − µ) = 0, q i ≥ 0, q i = 1, R n (Q) =q i≤ η ,i=1i=1∏ ni=1où η est déterminé par la précision 1 − α que l’on veut atteindre pour larégion de confiance : Pr(µ 0 ∈ C η,n ) = 1 − α. L’intérêt de la définition de C η,nvient de l’observation suivante de Owen (1988) :∀µ ∈ R p , Pr(µ ∈ C η,n ) = Pr(η n (µ) ≥ η)61n

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!