09.07.2015 Views

ϕ-Divergence empirique et vraisemblance empirique généralisée

ϕ-Divergence empirique et vraisemblance empirique généralisée

ϕ-Divergence empirique et vraisemblance empirique généralisée

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

s’explique en partie par le théorème 2.1, qui donne des conditions d’existencede solutions seulement pour des mesures signées. Le fait de ne pas imposer quela mesure soit de masse 1 facilite l’optimisation, mais demande de reformulerla contrainte sur le paramètre recherché. En eff<strong>et</strong>, on a E Q [µ] = Q(1) · µ. Onécrit alors le paramètre d’intérêt T Q [X] = E Q[X]. mais demande de prendreQ(1)des précautions avec la contrainte sur le paramètre recherché. En eff<strong>et</strong>, enimposant E Q [X − µ] = 0, on définit µ comme une moyenne renormalisée :µ = E Q[X]Q(1) .Intuitivement, pour généraliser de la méthode de <strong>vraisemblance</strong> <strong>empirique</strong>,on considère la valeur <strong>empirique</strong> de la fonctionnelle définie parM(R, µ) =inf {I ϕ ∗(Q, R)}{Q≪R, T Q [X]=µ E Q [X−µ]=0}pour R ∈ P, i.e. la minimisation d’un contraste sous les contraintes imposéespar le modèle. Si le modèle est vrai, i.e. E P [X] = µ E P [X − µ] = 0 pour laprobabilité P sous-jacente, alors on a clairement M(P, µ) = 0. Un estimateurde M(P, µ) à µ fixé est simplement donné par l’estimateur plugin M(P n , µ),qui n’est rien d’autre que β ϕ n (µ)/n. C<strong>et</strong> estimateur peut donc perm<strong>et</strong>tre d<strong>et</strong>ester M(P, µ) = 0 ou dans une approche duale de construire une région deconfiance pour µ.On suppose que ϕ satisfait les hypothèses suivantes :Hypothèses 3.1 (i) ϕ vérifie les hypothèses 2.1,(ii) La dérivée seconde de ϕ est minorée par m > 0 sur d(ϕ) ∩ R + (≠ ∅).Il est simple de vérifier que les fonctions <strong>et</strong> divergences données dans lapartie précédente vérifient c<strong>et</strong>te hypothèse supplémentaire. L’hypothèse (ii)est vérifiée en particulier lorsque ϕ (1) est elle-même convexe (entraînantϕ (2) (x) croissante donc ≥ ϕ (2) (0) > 0 sur R + ), ce qui est le cas pour toutesles divergences étudiées ici. Pour le cas de la moyenne <strong>et</strong> pour Q dans M n(<strong>et</strong> donc de masse 1), on peut réécrire les contraintes de minimisation sousla formeT (Q−Pn)[X − µ] = µ − ¯µ, où ¯µ = E Pn [X].Il vientE (Q−Pn)[X − µ] = µ − ¯µ, où ¯µ = E Pn [X].βn ϕ (µ) = n inf {I ϕ ∗(Q, P n)}Q∈M n, E Q [X−µ]=0{= n inf Iϕ ∗(Q, P n ) ∣ E(Q−Pn)TQ∈M (Q−Pn)[X − µ] = µ − ¯µ }n{∫}= n sup λ ′ (µ − ¯µ) − ϕ(λ ′ (X − µ))dP n .λ∈R pΩ8

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!