12.07.2015 Views

Chapitre 5 Classification des statistiques - ENS de Cachan ...

Chapitre 5 Classification des statistiques - ENS de Cachan ...

Chapitre 5 Classification des statistiques - ENS de Cachan ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Chapitre</strong> 5<strong>Classification</strong> <strong><strong>de</strong>s</strong> <strong>statistiques</strong>Ce chapitre présente quelques uns <strong><strong>de</strong>s</strong> concepts phares <strong>de</strong> la statistique qui,notamment, ouvrent <strong><strong>de</strong>s</strong> portes dans la quête <strong>de</strong> l’estimateur VUMSB.Le modèle statistique étudié dans ce chapitre est (H n ,{P θ } θ∈Θ ), avecΘ ⊂ R d et H ⊂ R k . Le paramètre d’intérêt est g(θ) avec g : Θ → R p unefonction connue.5.1 EfficacitéDans cette section, on suppose en outre que le modèle (H n ,{P θ } θ∈Θ ) est régulier,dominé par µ, <strong>de</strong> vraisemblance L n et d’information <strong>de</strong> Fisher I n . Parailleurs, la fonction g est à valeurs réelles, i.e. le paramètre d’intérêt g(θ) estréel.Définition. L’estimateur ĝ est dit régulier si il est d’ordre 2 etH n ĝ∇L n(.;θ)dµ = ∇ H n ĝL n(.;θ)dµ .Remarque. En pratique, l’intérêt <strong>de</strong> cette définition rési<strong>de</strong> dans la remarquesuivante : si l’estimateur régulier ĝ est sans biais, E θ ĝ = θ pour chaque θ ∈ Θ,et doncH n ĝ∇L n(.;θ)dµ = ∇E θ ĝ = 1.55


56 CHAPITRE 5. CLASSIFICATION DES STATISTIQUESComme le montre le résultat qui suit, le risque quadratique est uniformémentminoré dans la famille <strong><strong>de</strong>s</strong> estimateurs réguliers et sans biais, nous donnantainsi une vitesse plancher.Théorème 5.1.1. [CRAMER-RAO] Si ĝ est un estimateur régulier et sansbiais, alors pour tout θ ∈ Θ :R(θ;ĝ) ≥ ∇g(θ) I n (θ) −1 ∇g(θ).Le minorant ∇g(θ) I n (θ) −1 ∇g(θ) s’appelle borne <strong>de</strong> Cramer-Rao.Exemple. Dans le modèle statistique ({0,1} n ,{B(θ) ⊗n } θ∈]0,1[ ) du jeu <strong>de</strong> pileou face <strong>de</strong> la section 1.1, l’estimateur ¯X n construit à partir d’un échantillon(X 1 ,···,X n ) <strong>de</strong> la loi B(θ) ⊗n vérifie (cf section 2.3) :R(θ; ¯X n )=θ(1 − θ).nPar ailleurs, l’information <strong>de</strong> Fisher I n <strong>de</strong> ce modèle a été calculée dans lasection 4.5 :nI n (θ)=θ(1 − θ) .Ainsi, le risque quadratique <strong>de</strong> l’estimateur ¯X n atteint la borne <strong>de</strong> Cramer-Rao du modèle. Par ailleurs, on vérifie sans peine que tout estimateur ˆθ duparamètre <strong>de</strong> ce modèle est régulier. En conséquence,R(θ; ˆθ) ≥R(θ; ¯X n ) ∀θ ∈ Θ,i.e. ¯X n est VUMSB, une propriété déjà obtenue dans la section 2.3.Preuve du théorème 5.1.1. Soit θ ∈ Θ. L’estimateur ĝ étant régulier et sansbiais,∇g(θ)=∇E θ ĝ = ĝ∇L n(.;θ)dµ.H nComme ∇lnL n (.;θ)=∇L n (.;θ)/L n (.;θ) et E θ ∇lnL n (.;θ)=0 par régularitédu modèle, il vient :∇g(θ) = E θ ĝ∇lnL n (.;θ)= E θĝ− g(θ)∇lnLn (.;θ).


5.1. EFFICACITÉ 57Pour u ∈ R d , on déduit <strong>de</strong> l’inégalité <strong>de</strong> Cauchy-Schwarz queu,∇g(θ) 2 = E θĝ− g(θ)u,∇lnLn (.;θ) 2≤ R(θ;ĝ)E θ u,∇lnL n (.;θ) 2 ,car V θ (ĝ) =R(θ;ĝ) d’après la décomposition biais-variance (Proposition2.3.1). Or, par définition <strong>de</strong> l’information <strong>de</strong> Fisher,E θ u,∇lnL n (.;θ) 2 = u E θ ∇lnL n (.;θ)∇lnL n (.;θ) uet donc, si u = I n (θ) −1 ∇g(θ) := u I n (θ)u,E θ u,∇lnL n (.;θ) 2 = ∇g(θ) I n (θ) −1 ∇g(θ).De plus, ce même choix pour u donne u,∇g(θ) = ∇g(θ) I n (θ) −1 ∇g(θ).En conclusion,R(θ;ĝ) ≥ ∇g(θ) I n (θ) −1 ∇g(θ),d’où le théorème. Définition. L’estimateur ĝ sans biais d’ordre 2 est dit efficace si son risquequadratique atteint la borne <strong>de</strong> Cramer-Rao du modèle, i.e. pour tout θ ∈ Θ :R(θ;ĝ)=∇g(θ) I n (θ) −1 ∇g(θ).Lorsqu’un estimateur efficace existe, la borne <strong>de</strong> Cramer-Rao nous fournitun majorant pour la plus petite erreur quadratique dans la famille <strong><strong>de</strong>s</strong> estimateurssans biais d’ordre 2. En particulier, si ĝ est un estimateur VUMSB,R(θ;ĝ) ≤ ∇g(θ) I n (θ) −1 ∇g(θ) ∀θ ∈ Θ.Les estimateurs efficaces sont souvent simples à caractériser, comme lemontre le résultat qui suit.Proposition 5.1.2. L’estimateur ĝ régulier et sans biais est efficace si, etseulement si, il existe une fonction ψ : Θ → R d telle que pour tout θ ∈ Θ :ĝ = g(θ)+ψ(θ) ∇lnL n (.;θ) P θ -p.s.


58 CHAPITRE 5. CLASSIFICATION DES STATISTIQUESDans le cas du modèle statistique ({0,1} n ,{B(θ) ⊗n } θ∈]0,1[ ) notamment,l’expression <strong>de</strong> sa vraisemblance (cf section 4) montre que la moyenne empiriqueest efficace.Exemple. Considérons le modèle statistique régulier (R n ,{N (0,θ) ⊗n } θ>0 ).Si, pour θ > 0, (X 1 ,···,X n ) ∼N(0,θ) ⊗n , l’estimateur <strong><strong>de</strong>s</strong> momentsˆθ = 1 nn∑ Xi2i=1<strong>de</strong> θ est sans biais et régulier. Par ailleurs, la vraisemblance L n du modèlepour la mesure <strong>de</strong> Lebesgue s’écrit :L n (X 1 ,···,X n ;θ)=Sa log-vraisemblance vérifie doncPar suite,et ˆθ est donc efficace.∇lnL n (X 1 ,···,X n ;θ)=ˆθ = θ + 2θ 21(2πθ) n/2 exp − 12θn2θ 2 1nn∑i=1n ∇lnL n(X 1 ,···,X n ;θ),n∑i=1Xi2 .Xi 2 − θ .Preuve <strong>de</strong> la proposition 5.1.2. Soient θ ∈ Θ et u = I n (θ) −1 ∇g(θ). La borne<strong>de</strong> Cramer-Rao s’écrit (cf preuve du théorème 5.1.1) :u,∇g(θ) 2E θ u,∇lnL n (.;θ) 2 .Comme R(θ;ĝ)=E θ (ĝ − g(θ)) 2 ,ĝ est donc efficace si, et seulement si,E θĝ− g(θ) 2 Eθ u,∇lnL n (.;θ) 2 = u,∇g(θ) 2 .Or (cf preuve du théorème 5.1.1),E θĝ− g(θ)u,∇lnLn (.;θ) = u,∇g(θ).


5.2. EXHAUSTIVITÉ 59Par suite, ĝ est efficace si, et seulement si,Eθĝ− g(θ)u,∇lnLn (.;θ) 2 = Eθĝ− g(θ) 2 Eθ u,∇lnL n (.;θ) 2 .La relation obtenue est un cas d’égalité dans l’inégalité <strong>de</strong> Cauchy-Schwarz,ce qui signifie qu’il existe ω(θ) tel queĝ − g(θ)=ω(θ)u,∇lnL n (.;θ) P θ -p.s.La proposition en découle, en notant ψ(θ)=ω(θ)u. 5.2 ExhaustivitéLe principe d’exhaustivité d’une statistique est un principe <strong>de</strong> réduction <strong><strong>de</strong>s</strong>données basé sur la notion <strong>de</strong> loi conditionnelle.Définition. La statistique S à valeurs dans R q est dite exhaustive lorsque,pour chaque θ ∈ Θ, la loi conditionnelle sous P θ <strong>de</strong> l’échantillon sachant Sne dépend pas <strong>de</strong> θ.En clair, l’échantillon n’apporte pas plus d’information sur le paramètre dumodèle qu’une statistique exhaustive ; <strong>de</strong> manière équivalente, une statistiqueexhaustive élimine toute l’information superflue dans l’échantillon, en ne retenantque la partie informative sur le paramètre du modèle.Du point <strong>de</strong> vue technique, la statistique S à valeurs dans R q est exhaustives’il existe un noyau <strong>de</strong> transition K sur R q ×B(H n ) tel que pour tous θ ∈ Θ,A ∈ B(R q ) et B ∈ B(H n ),P θ{S ∈ A}∩B=AK(.,B)dP θ ◦ S −1 .En d’autres termes, S est exhaustive si, pour tout θ ∈ Θ et tout ϕ ∈ L 1 (P θ ),E θ [ϕ|S] est indépendante <strong>de</strong> θ. Noter que E θ [ϕ|S] est alors une statistique.Exemple. Soit ({0,1} n ,{B(θ) ⊗n } θ∈]0,1[ ) le modèle statistique du jeu <strong>de</strong> pileou face <strong>de</strong> la section 1.1. Il est clair que l’observation (x 1 ,···,x n ) ∈{0,1} npeut se résumer à sa somme x 1 + ···+ x n , ce qui indique que l’estimateur ¯X n


60 CHAPITRE 5. CLASSIFICATION DES STATISTIQUESissu <strong>de</strong> l’échantillon (X 1 ,···,X n ) ∼ P θ = B(θ) ⊗n est exhaustif. Plus précisémment,pour chaque (x 1 ,···,x n ) ∈{0,1} n :P θX1 = x 1 ,···,X n = x n ¯X n = ¯x n=P θX1 = x 1 ,···,X n = x nP θ ( ¯X n = ¯x n )θ n ¯x n(1 − θ) n−n ¯x n=C n ¯x nn θ n ¯x n(1 − θ) n−n ¯x n= 1 ,C n ¯x nncar n ¯X n suit la loi B(n,θ). La loi conditionnelle <strong>de</strong> (X 1 ,···,X n ) sachant ¯X n estdonc indépendante du paramètre θ, c’est-à-dire que ¯X n est une statistique exhaustive: toute l’information sur θ contenue dans l’échantillon (X 1 ,···,X n )est en fait contenue dans ¯X n .Le théorème ci-<strong><strong>de</strong>s</strong>sous fournit une caractérisation simple <strong>de</strong> ce concept.Théorème 5.2.1. [NEYMAN-FISHER] Supposons que le modèle statistique(H n ,{P θ } θ∈Θ ) est dominé par µ, <strong>de</strong> vraisemblance L n . Une statistique Sà valeurs dans R q est exhaustive si, et seulement si, il existe <strong>de</strong>ux fonctionsboréliennes ψ : R q ×Θ → R + et γ : H n → R + telles que pour tout θ ∈ Θ :L n (.;θ)=γψ S(.),θ µ-p.p.Exemple. Avec ce théorème, il <strong>de</strong>vient souvent facile <strong>de</strong> montrer qu’une statistiqueest exhaustive : par exemple, la moyenne empirique est une statistiqueexhaustive dans le modèle (R n ,{N (θ,1) ⊗n } θ∈R ), car la vraisemblanceL n pour la mesure <strong>de</strong> Lebesgue vautL n (x 1 ,···,x n ;θ) ==1(2π) n/2 exp − 1 2n∑i=1(x i − θ) 21(2π) n/2 exp − n 2 ( ¯x n − θ) 2 exp− 1 2n∑i=1(x i − ¯x n ) 2 ,pour tous (x 1 ,···,x n ) ∈ R n et θ ∈ R.


5.2. EXHAUSTIVITÉ 61Preuve du théorème 5.2.1. D’après le théorème 1.4.1, il existe une probabilitédu convexifié <strong>de</strong> {P θ } θ∈Θ qui domine le modèle statistique. Pour simplifierla preuve, supposons que la mesure dominante µ est cette mesure, i.e.µ = ∑ a i P θi ,i≥1avec θ i ∈ Θ, a i ∈ [0,1] pour chaque i ≥ 1 et ∑ i≥1 a i = 1. Dans ce cadre, nousallons montrer que S est exhaustive si, et seulement si il existe une fonctionmesurable ψ : R q ×Θ → R + telle que pour tout θ ∈ Θ :L n (.;θ)=ψ S(.),θ µ-p.p.Fixons θ ∈ Θ et supposons que L n (.;θ)=ψ(S(.),θ) µ-p.s. Comme dP θ =ψ(S(.),θ)dµ, par définition <strong>de</strong> l’espérance conditionnelle pour la probabilitéµ notée E µ : P θ {S ∈ A}∩B =H 1 AS(.) 1B ψ S(.),θ dµn = 1A S(.) 1B ψ S(.),θ |S dµ,H n E µpour tous A ∈ B(R q ) et B ∈ B(H n ). Puis, 1 A (S(.))ψ(S(.),θ) étant σ(S)-mesurable en tant que fonction borélienne <strong>de</strong> S, on a en notant µ(B|S) =E µ [1 B |S] : P θ {S ∈ A}∩B =H µ(B|S)1 AS(.) ψ S(.),θ dµn= µ(B|S = y)1 A(y)ψ(y,θ) µ ◦ S −1 (dy),R qla <strong>de</strong>rnière égalité provenant du théorème <strong>de</strong> transfert. Or, la mesure P θ ◦ S −1est absolument continue par rapport à µ ◦ S −1 , <strong>de</strong> <strong>de</strong>nsité E µ [L n (.;θ)|S = .] ∗ .∗. En effet, pour tout A ∈ B(R q ), par définition <strong>de</strong> l’espérance conditionnelle :P θ ◦ S −1 (A)= L n (.;θ)dµ = E µ [L n (.;θ)|S]dµ.{S∈A}{S∈A}D’après le théorème <strong>de</strong> transfert, P θ ◦ S −1 (A) = A E µ[L n (.;θ)|S = y] µ ◦ S −1 (dy), d’où lerésultat anoncé.


62 CHAPITRE 5. CLASSIFICATION DES STATISTIQUESDe ce fait, dP θ ◦ S −1 = ψ(.,θ)dµ ◦ S −1 car L n (.,θ) =ψ(S(.),θ) est σ(S)-mesurable, d’où P θ {S ∈ A}∩B = µ(B|S = y)P θ ◦ S −1 (dy).AL’application (y,B) → µ(B|S = y) définie sur R q ×B(H n ) est donc le noyau<strong>de</strong> transition <strong>de</strong> la loi conditionnelle <strong>de</strong> l’échantillon sachant S. Comme il estindépendant <strong>de</strong> θ, S est une statistique exhaustive.Réciproquement, supposons que S est exhaustive. Pour tout θ ∈ Θ, la loiconditionnelle P θ (.|S = .) <strong>de</strong> l’échantillon sachant S est indépendante <strong>de</strong> θ ;notons-là P(.|S = .). Si A ∈ B(R q ) et B ∈ B(H n ), on a d’une partµ {S ∈ A}∩B = ∑ a i P θi {S ∈ A}∩Bi≥1= ∑ a i P θi (B|S = y)µ(dy)=i≥1AAP(B|S = y)µ(dy),car ∑ i≥1 a i = 1. D’autre part, en désignant par µ(.|S = .) la loi conditionnellesachant S :µ {S ∈ A}∩B = µ(B|S = y)µ(dy).Puisque ces relations sont vraies pour tous A ∈ B(R q ) et B ∈ B(H n ), on endéduit par unicité que les lois conditionnelles P(.|S = .) et µ(.|S = .) sontles mêmes, d’où P θ {S ∈ A}∩B = µ(B|S = y)P θ ◦ S −1 (dy).AOn a déjà remarqué que ϕ(.,θ)=E µ [L n (.;θ)|S = .] est la <strong>de</strong>nsité <strong>de</strong> P θ ◦S −1par rapport à µ ◦ S −1 . De ce fait, P θ {S ∈ A}∩B = µ(B|S = y)ϕ(y,θ)µ ◦ S −1 (dy).APar ailleurs, la définition <strong>de</strong> l’espérance conditionnelle et le théorème <strong>de</strong> transfertdonnent : P θ {S ∈ A}∩B = 1 B L n (.;θ)dµ{S∈A}= E µ [1 B L n (.;θ)|S = y] µ ◦ S −1 (dy).AA


5.2. EXHAUSTIVITÉ 63Ces égalités étant vraies pour tout A ∈ B(R q ), il vientµ(B|S = .)ϕ(.,θ)=E µ [1 B L n (.;θ)|S = .] µ ◦ S −1 -p.s.,et doncE µ1Bϕ(S(.),θ) − Ln (.;θ) S= 0 µ-p.s.En particulier :E µ1Bϕ(S(.),θ) − Ln (.;θ) = E µ E µ1Bϕ(S(.),θ) − Ln (.;θ) S= 0.Ceci étant vrai pour tout B ∈ B(H n ), L n (.;θ) =ϕ(S(.),θ) µ-p.s., d’où lethéorème. Le concept d’exhaustivité permet d’améliorer le risque d’un estimateur :Théorème 5.2.2. [RAO-BLACKWELL] Soit S une statistique exhaustive et ĝun estimateur d’ordre 2. Alors, E θ [ĝ|S] est un estimateur <strong>de</strong> même biais queĝ qui lui est préférable, i.e. pour tout θ ∈ Θ :R θ;E θ [ĝ|S] ≤R(θ;ĝ).Exemple. Considérons le modèle statistique ({0,1} n ,{B(θ) ⊗n } θ∈]0,1[ ) du jeu<strong>de</strong> pile ou face <strong>de</strong> la section 1.1. Lorsque (X 1 ,···,X n ) est un échantillon <strong>de</strong>la loi P θ = B(θ) ⊗n , X 1 est un estimateur sans biais et ¯X n est une statistiqueexhaustive. A l’ai<strong>de</strong> du théorème <strong>de</strong> Rao-Blackwell, nous allons améliorerl’erreur quadratique <strong>de</strong> l’estimateur X 1 en calculant E θ [X 1 | ¯X n ]. Comme lesvariables aléatoires X 1 ,···,X n sont indépendantes et <strong>de</strong> même loi, pour toutj ∈{1,···,n} et A ⊂{k/n, k = 0,···,n} :{ ¯X n ∈A}X 1 dP θ ={ ¯X n ∈A}X j dP θ .Ceci étant vrai pour chaque A ⊂{k/n, k = 0,···,n}, on en déduit <strong>de</strong> l’unicité<strong>de</strong> l’espérance conditionnelle que E θ [X 1 | ¯X n ]=E θ [X j | ¯X n ] P θ -p.s. Par suite :E θ [X 1 | ¯X n ]= 1 nn∑ E θ [X j | ¯X n ]=E θ [ ¯X n | ¯X n ]= ¯X n P θ -p.s.j=1


64 CHAPITRE 5. CLASSIFICATION DES STATISTIQUESAinsi, l’estimateur préférable construit avec le théorème <strong>de</strong> Rao-Blackwelln’est autre que la moyenne empirique.Preuve du théorème 5.2.2. Soit θ ∈ Θ. Comme S est exhaustive, E θ [ĝ|S], quine dépend pas <strong>de</strong> θ, est donc un estimateur. De plus, puisqueE θ E θ [ĝ|S]=E θ ĝ,les estimateurs E θ [ĝ|S] et ĝ ont même biais. Désignons maintenant, pour unestimateur ˆψ d’ordre 2 :Si ˆη = E θ [ĝ|S],V θ ( ˆψ)=E θ ˆψ − E θ ˆψ 2 .V θ (ĝ) = E θ ĝ− ˆη+ ˆη − Eθ ĝ 2= E θ ĝ − ˆη 2 +V θ ( ˆη)+2E θ ĝ − ˆη, ˆη − E θ ˆη,car ĝ et ˆη ont même biais. Or, comme ˆη est une fonction borélienne <strong>de</strong> S :De ce fait,E θĝ − ˆη, ˆη − Eθ ˆη S = E θĝ− ˆη|S, ˆη − Eθ ˆη= ˆη − ˆη, ˆη − E θ ˆη= 0.E θ ĝ − ˆη, ˆη − E θ ˆη = E θ E θĝ − ˆη, ˆη − Eθ ˆη S= 0,et donc V θ (ĝ) ≥ V θ ( ˆη). D’après la décomposition biais-variance (Proposition2.3.1),R(θ; ˆη)=E θ ˆη − θ 2 +V θ ( ˆη) ≤E θ ĝ − θ 2 +V θ (ĝ)=R(θ;ĝ),d’où le théorème. 5.3 Complétu<strong>de</strong>Définition. Une statistique S à valeurs dans R q est dite complète si, pourchaque fonction ξ : R q → R telle que ξ ◦ S est une statistique d’ordre 1 ,∀θ ∈ Θ : E θ ξ ◦ S = 0 =⇒ ∀θ ∈ Θ : ξ ◦ S = 0 P θ -p.s.


5.3. COMPLÉTUDE 65Exemple. Dans le modèle statistique ({0,1} n ,{B(θ) ⊗n } θ∈]0,1[ ) du jeu <strong>de</strong> pileou face <strong>de</strong> la section 1.1, la moyenne empirique est une statistique complète.En effet, si (X 1 ,···,X n ) ∼B(θ) ⊗n , pour toute fonction ξ à valeurs réelles :E θ ξ ( ¯X n )=n k∑ ξ Ck=0nnθ k k (1 − θ) n−k ,car n ¯X n suit la loi B(n,θ). Supposons que E θ ξ ( ¯X n )=0 pour chaque θ ∈]0,1[.Comme E θ ξ ( ¯X n ) est un polynôme <strong>de</strong> la variable θ, ses coefficients sont alorsnuls, i.e. ξ (k/n)=0 ∀k ∈{0,···,n}. Par suite ξ ( ¯X n )=0 P θ -p.s. et ¯X n est unestatistique complète.Dès que l’on dispose d’une statistique exhaustive complète, tout estimateursans biais, même déraisonnable, suffit pour déterminer l’estimateur VUMSB,comme en témoigne le résultat suivant.Théorème 5.3.1. [LEHMANN-SCHEFFÉ] Soit S une statistique exhaustivecomplète et ĝ un estimateur sans biais d’ordre 2. Alors, la statistique E θ [ĝ|S]est l’unique estimateur VUMSB. En particulier, l’estimateur ĝ est VUMSB siil est exhaustif et complet.Exemple. Dans le modèle statistique ({0,1} n ,{B(θ) ⊗n } θ∈]0,1[ ) du jeu <strong>de</strong> pileou face <strong>de</strong> la section 1.1, la moyenne empirique est exhaustive (voir section5.2) et complète. Cet estimateur est donc VUMSB d’après le théorème <strong>de</strong>Lehmann-Scheffé, un résultat que nous avions obtenu avec <strong><strong>de</strong>s</strong> argumentsdifférents dans les sections 2.3 et 5.1.Preuve du théorème 5.3.1. Soient θ ∈ Θ et ĝ un autre estimateur sans biaisd’ordre 2. Notonsˆη = E θ [ĝ|S] et ˆη = E θ [ĝ |S].Par exhaustivité <strong>de</strong> S, ˆη et ˆη sont <strong><strong>de</strong>s</strong> estimateurs, qui sont <strong>de</strong> surcroît sansbiais et d’ordre 2. De plus, comme ˆη et ˆη sont mesurables par rapport à latribu engendrée par S, il existe une fonction borélienne ξ telle que ˆη − ˆη =ξ ◦ S. Donc ξ ◦ S ∈ L 1 (P θ ) etE θ ξ ◦ S = E θ ˆη − ˆη = 0.


66 CHAPITRE 5. CLASSIFICATION DES STATISTIQUESPuisque S est complète, ˆη − ˆη = ξ ◦ S = 0 P θ -p.s. et, en particulier,R(θ; ˆη)=R(θ; ˆη ).Or, R(θ; ˆη ) ≤R(θ;ĝ ) d’après le théorème <strong>de</strong> Rao-Blackwell (Théorème5.2.2), d’oùR(θ; ˆη) ≤R(θ;ĝ ),ce qui entraîne que ˆη est VUMSB. Pour clore la preuve <strong>de</strong> ce théorème, ilsuffit d’observer que dans le cas particulier où ĝ est exhaustif et complet, ilest VUMSB car ĝ = E θ [ĝ|ĝ].

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!