30.01.2015 Views

Examen de statistiques : corrigé 1. (i) Vrai, par le lemme de Slutsky ...

Examen de statistiques : corrigé 1. (i) Vrai, par le lemme de Slutsky ...

Examen de statistiques : corrigé 1. (i) Vrai, par le lemme de Slutsky ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Examen</strong> <strong>de</strong> <strong>statistiques</strong> : corrigé<br />

<strong>1.</strong> (i) <strong>Vrai</strong>, <strong>par</strong> <strong>le</strong> <strong>le</strong>mme <strong>de</strong> <strong>Slutsky</strong>.<br />

(ii) Faux, <strong>par</strong> exemp<strong>le</strong> pour un échantillon uniforme.<br />

(iii) Faux, c’est la médiane qui est moins sensib<strong>le</strong>.<br />

(iv) Faux, une variab<strong>le</strong> aléatoire exponentiel<strong>le</strong> ne prend pas <strong>de</strong> va<strong>le</strong>urs<br />

négatives.<br />

(v) <strong>Vrai</strong>, on a<br />

(vi) Faux, c’est<br />

X (r) ∼<br />

E[(n − 1)S 2 ] = E<br />

(vii) <strong>Vrai</strong>, si X ∼ B(p), alors<br />

[ n∑<br />

j=1<br />

Y 2<br />

j − nȲ 2 ]<br />

= n(σ 2 + µ 2 ) − σ 2 − nµ 2<br />

= (n − 1)σ 2 .<br />

n!<br />

(r − 1)!(n − r)! F (x)r−1 f(x){1 − F (x)} n−r , x ∈ R.<br />

f X (x) = p x (1 − p) 1−x = exp[x{log(p) − log(1 − p)} + log(1 − p)].<br />

(viii) <strong>Vrai</strong>, F θ (Y ) ∼ U(0, 1) est un pivot.<br />

(ix) Faux, E[W V ] = 4µ 2 + σ 2 ≠ E[W ]E[V ] = 4µ 2 .<br />

(x) <strong>Vrai</strong>, on a P(θ ∈ I) = P(I = R) = 1 − 2α, I est donc bien un<br />

interval<strong>le</strong> <strong>de</strong> confiance <strong>de</strong> niveau 1 − 2α pour θ.<br />

1


2. (a) On a la vraisemblance<br />

L(ψ) =<br />

n∏<br />

i=1<br />

donc la log-vraisemblance<br />

n∑<br />

l(ψ) = − log(x i !) + ψ<br />

et on obtient<br />

De plus, on a<br />

i=1<br />

exp(ψx i − exp(ψ))<br />

,<br />

x i !<br />

n∑<br />

x i − n exp(ψ)<br />

i=1<br />

∂l<br />

n∑<br />

∂ψ = −n exp(ψ) + x i ⇒ ˆψ = log(¯x).<br />

i=1<br />

∂ 2 l<br />

= −n exp(ψ) ⇒ i(ψ) = n exp(ψ).<br />

∂ψ2 (b) El<strong>le</strong> est utilisée pour <strong>le</strong> calcul <strong>de</strong> l’efficacité relative asymptotique<br />

<strong>de</strong> <strong>de</strong>ux schémas d’échantillonnage et c’est la variance asymptotique<br />

<strong>de</strong> la statistique du score.<br />

(c) Par la loi faib<strong>le</strong> <strong>de</strong>s grands nombres, on a ¯X −→ λ. Or, la fonction<br />

g(x) = log(x) est continue en x ≠ 0, donc log( ¯X)<br />

P<br />

−→ ψ et ˆψ est<br />

consistant.<br />

De plus, <strong>par</strong> <strong>le</strong> Thèorème Central Limite, on a<br />

¯X − λ<br />

√<br />

λ/n<br />

D<br />

−→ N (0, 1).<br />

On applique la métho<strong>de</strong> <strong>de</strong>lta avec g(x) = log(x) pour obtenir<br />

ˆψ − ψ<br />

√<br />

λ/n/n<br />

−→ D<br />

N (0, 1) càd ˆψ −→ D<br />

N (ψ, (nλ) −1 ).<br />

(d) On a ∑ n<br />

i=1 X i ∼ Poiss(nλ), et donc<br />

[ ( )]<br />

E[ ˆψ] 1<br />

n∑<br />

= E log X i<br />

n<br />

i=1<br />

( n∑<br />

)<br />

= P X i = 0 log(0) +<br />

i=1<br />

∞∑<br />

k=1<br />

P<br />

( k −nλ (nλ)k<br />

log e .<br />

n)<br />

k!<br />

2


3. (a) Voir cours.<br />

(b) On a<br />

π(θ|s) =<br />

=<br />

=<br />

f(s, θ)<br />

f(s)<br />

= ∫ f(s|θ)π(θ)<br />

f(s|θ)π(θ)dθ<br />

θ s (1 − θ) n−s<br />

∫ 1<br />

0 θs (1 − s) n−s dθ<br />

(n + 1)!<br />

(n − s)!s! θs (1 − θ) n−s .<br />

Pour la <strong>de</strong>nsité prédictive, on a<br />

π(m|s) =<br />

=<br />

=<br />

∫<br />

f(m, s) f(m|s, θ)f(s|θ)π(θ)dθ<br />

= ∫<br />

f(s) f(s|θ)π(θ)dθ<br />

∫ 1<br />

0 θs+1 (1 − θ) m+n−s−1 dθ<br />

(n − s)!s!/(n + 1)!<br />

(s + 1)(m + n − s − 1)!(n + 1)!<br />

.<br />

(m + n + 1)!(n − s)!<br />

Indication : ∫ 1<br />

0 θs (1 − θ) n−s dθ = s!(n − s)!/(n + 1)! (intégration<br />

<strong>par</strong> <strong>par</strong>ties).<br />

3


4. (a) On a<br />

[ ]<br />

M Y (t) = E e tT Y<br />

[<br />

= E<br />

}<br />

= exp<br />

{ 1<br />

2 σ2 t T t<br />

e (AT t) T X<br />

.<br />

]<br />

= M X<br />

(<br />

A T t )<br />

Ainsi, (Y 1 , . . . , Y n ) T ∼ N n (0, σ 2 I n ).<br />

(b) La matrice définie <strong>par</strong> la définition <strong>de</strong>s Y i est orthogona<strong>le</strong>, et donc<br />

Y ∼ N n (0, σ 2 I n ). Ainsi, <strong>le</strong>s Y i sont indépendants. De plus, on a,<br />

d’une <strong>par</strong>t<br />

Y 1 = √ 1 n∑<br />

X i = √ n ¯X<br />

n<br />

et, d’autre <strong>par</strong>t,<br />

i=1<br />

n∑<br />

Xj 2 = X T X = X T A T AX = Y T Y =<br />

j=1<br />

n∑<br />

j=1<br />

Y 2<br />

j = n ¯X 2 +<br />

n∑<br />

j=2<br />

Y 2<br />

j ,<br />

ce qui implique<br />

(n − 1)S 2 =<br />

n∑<br />

(X j − ¯X) 2 =<br />

j=1<br />

n∑<br />

Xj 2 − n ¯X =<br />

j=1<br />

n∑<br />

j=2<br />

Y 2<br />

j ,<br />

ce qui nous permet <strong>de</strong> conclure que ¯X et S 2 sont indépendants.<br />

Enfin, on obtient éga<strong>le</strong>ment<br />

¯X ∼ N (0, σ 2 /n)<br />

(n − 1)S 2 ∼ σ 2 χ 2 n−<strong>1.</strong><br />

(c) Au point (b), on a vu que<br />

¯X ∼ N (0, σ 2 /n) et (n − 1)S 2 ∼ σ 2 χ 2 n−1<br />

sont indépendants. Ainsi,<br />

¯X/ √ σ 2 /n<br />

√<br />

{(n − 1)S2 /σ 2 }/(n − 1) =<br />

¯X<br />

√<br />

S2 /n ∼ t n−<strong>1.</strong><br />

Dans notre cas, ¯x = 10, 27, s 2 = 63, 62 et ¯x/ √ s 2 /n = 4, 27. La<br />

tab<strong>le</strong> donne une p-va<strong>le</strong>ur entre 0, 001 et 0, 002, ce qui indique que<br />

l’hypothèse H 0 : ”fumer n’a pas d’impact sur <strong>le</strong> taux auquel <strong>le</strong>s<br />

plaquettes se rassemb<strong>le</strong>nt” est fausse.<br />

4

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!