EstimationCorrige PDF
EstimationCorrige PDF
EstimationCorrige PDF
Corrige
STAT-S-202
Chapitre I : Estimation
Exercice 1***
On sint
eresse `
a la r
eussite des entreprises au cours de lann
ee 2010. Notons p la probabilit
e de faillite dune entreprise en cette ann
ee 2010. Pour
etudier ce param`
etre p,
on a pr
elev
e un
echantillon al
eatoire simple avec remise de n entreprises en activit
e
au d
ebut de lann
ee 2010, et on a relev
e pour chaque entreprise si oui (X = 1) ou non
(X = 0) une faillite avait eu lieu au cours de lann
ee.
On a X Bin(1, p) o`
u p est un param`etre inconnu dans ]0, 1[. Donc :
P [X = xi ] = pxi (1 p)1xi , xi {0, 1}
i.e. P [X = 1] = p et P [X = 0] = 1 p = q.
Soient X1 , . . . , Xn i.i.d. Bin(1, p).
p ]0, 1[.
1. D
eterminez p lestimateur de p obtenu
(a) par la m
ethode des moments :
Le principe de la methode des moments est degaler les moments theoriques aux moments
empiriques.
Donc p est solution de :
n
1X
E[X] =
Xi .
n
i=1
Comme E[X] = p,
alors p est solution de :
1X
p=
Xi .
n
i=1
Ainsi : p =
1
n
Pn
i=1 Xi
= X.
(b) par la m
ethode du maximum de vraisemblance
La vraisemblance de p associee `a X1 , . . . , Xn est :
L(X1 , ..., Xn ; p) =
n
Y
pXi (1 p)1Xi = p
Pn
i=1
Xi
Pn
(1 p)n
i=1
Xi
i=1
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
Donc,
n
n
n
o X
X
`(p) = ln L(X1 , ..., Xn ; p) =
Xi ln p + n
Xi ln(1 p).
i=1
i=1
a 0.
Pour trouver p qui maximise `(p), il faut dabord egaler `(p)
p `
Comme
Pn
P
n ni=1 Xi
`(p)
i=1 Xi
=
,
p
p
1p
alors :
n
i=1
i=1
X
`(p)
1X
=0
Xi = X.
Xi = np p =
p
n
2
est negative.
Ensuite, il faut verifier que p`(p)
evaluee en p = X
2
Comme
P
Pn
n ni=1 Xi
2 `(p)
i=1 Xi
=
,
p2
p2
(1 p)2
alors :
P
Pn
n ni=1 Xi
n nX
n
2 `(p)
nX
n
i=1 Xi
=
2
2
2
2
p2 p=X
X
X
X
(1 X)
(1 X)
(1 X)
n
>0
< 0,
evident car Xi ne prend que les valeurs 0 et 1 et donc X
=
X(1 X)
est bien la valeur qui maximise `(p).
Donc, p = X
Et par suite,
p = X.
2. L
echantillon observ
e sera d
esign
e par (x1 , . . . , xn ) (les minuscules sont souvent
r
eserv
ees aux valeurs num
eriques observ
ees, tandis que les majuscules d
esignent
les v.a. dont ces valeurs observ
ees sont des r
ealisations). Calculez les estimations
par la m
ethode des moments et par la m
ethode du maximum de vraisemblance
pour l
echantillon suivant de taille n = 10 (1, 0, 1, 1, 1, 0, 1, 1, 0, 1) o`
u la valeur 1
repr
esente une faillite.
(a) Par la m
ethode des moments
alors pour lechantillon observe p = x
Comme p = X,
=
1 + 0 + 1 + 1 + 0 + 1) = 0.7.
1
10
P10
1
10 (1 + 0 + 1 + 1 +
1
10
P10
1
10 (1 + 0 + 1 + 1 +
i=1 xi
(b) Par la m
ethode du maximum de vraisemblance
alors pour lechantillon observe p = x
Comme p = X,
=
1 + 0 + 1 + 1 + 0 + 1) = 0.7.
i=1 xi
Remarque : Les estimateurs obtenus par la methode des moments ne concident pas toujours
avec ceux obtenus par la methode du maximum de vraisemblance.
3. Recherchez les propri
et
es de ces estimateurs (biais, convergence, exhaustivit
e,
efficacit
e).
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
(a) Biais ?
Par definition on a : Biais (
p) = E[
p] p.
Or
n
1X
1
E[
p] =
E[Xi ] = np = p,
n
n
i=1
Donc :
Biais (
p) = E[
p] p = p p = 0.
Par suite, p est un estimateur sans biais de p.
(b) Convergence faible de p vers p ?
Il suffit de verifier les deux conditions suffisantes suivantes
(i) lim E[
p] = p ou lim Biais (
p) = 0 ou Biais (
p) = 0
n+
n+
et
n+
Dune part notons que (i) est verifiee dapr`es la question (a), car Biais (
p) = 0.
Dautre part, on a :
Var[
p] =
n
1
p(1 p)
1 X
Var[Xi ] = 2 np(1p) =
,
2
n
n
n
i=1
n+
p(1p)
n
= 0.
n
X
Xi = t]
o`
u t = kn
i=1
ne depend pas de p.
On a
n
X
P
P [X1 = x1 , X2 = x2 , ..., Xn = xn , ni=1 Xi = t]
P
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
Xi = t] =
P [ ni=1 Xi = t]
i=1
i
h
P
X
=x
,X
=x
,...,X
=x
n
n
1
1
2
2
Pn
h
i
, si
i=1 xi = t .
P
=
n
P
i=1 Xi =t
Pn
0,
si
i=1 xi 6= t
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
Si
Pn
i=1 xi
= t, alors :
P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]
Pn
i=1 Xi
P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]
=
=
Pn
Pn
xi (1
p)n i=1 xi
n t
nt
t p (1 p)
i=1
pt (1 p)nt
pt (1 p)nt
1
n ,
n
t
donc,
(
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
p = k] =
1
n
t
( )
0
si
Pn
=t
si
Pn
6= t
i=1 xi
i=1 xi
Exercice 2**
Linstitut national de statistique sest int
eress
e au nombre moyen daccidents `
a un
certain endroit, pendant les heures de pointes. Pour
etudier ce param`
etre , une
etude
a
et
e men
ee pendant n jours sur une route entre 8h et 9h ; le nombre daccident X
a
et
e relev
e chaque jour entre ces heures, ce qui donne lieu `
a l
echantillon al
eatoire
simple (X1 , ..., Xn ).
On a X P(), o`
u est un param`etre inconnu dans ]0, +[. Donc
P [X = xi ] =
Soient X1 , . . . , Xn i.i.d. P().
Titulaire: C. Dehon
e xi
, xi {0, 1, 2, . . .}
xi !
]0, +[.
Assistant: E.M. ALLAOUI
Chapitre I : Estimation
Corrige
STAT-S-202
lestimateur de obtenu
1. D
eterminez
(a) par la m
ethode des moments
Le principe de la methode des moments est degaler les moments theoriques aux moments
empiriques.
est solution de :
Donc
n
1X
E[X] =
Xi .
n
i=1
Comme E[X] = ,
est solution de :
alors
1X
=
Xi .
n
i=1
=
Ainsi :
1
n
Pn
i=1 Xi
= X.
(b) par la m
ethode du maximum de vraisemblance
La vraisemblance de associee `a X1 , . . . , Xn est :
L(X1 , ..., Xn ; ) =
n
Y
e Xi
i=1
Xi !
en
= Qn
Pn
i=1
Xi
i=1 Xi !
Donc,
n
n
n
o
X
X
`() = ln L(X1 , ..., Xn ; ) = n +
Xi ln ()
ln (Xi !)
i=1
i=1
alors :
`()
i=1
i=1
`a 0.
X
`()
1X
=0
Xi = n =
Xi = X.
n
Ensuite, il faut verifier que
Comme
2 `()
2
est negative.
evaluee en = X
2 `()
=
2
Pn
i=1 Xi
,
2
alors :
Pn
2 `()
nX
n
i=1 Xi
=
= < 0,
2
2
2
=X
X
X
X
est bien la valeur qui maximise `().
Donc, = X
Do`
u,
= X.
Chapitre I : Estimation
Corrige
STAT-S-202
(a) Biais ?
= E[]
.
Par definition on a : Biais
Or
=
E[]
i=1
i=1
1X
1
1X
E[Xi ] =
E[X] = n = ,
n
n
n
Donc :
= E[]
= = 0.
Biais
(i)
=
lim E[]
n+
ou
=0
lim Biais
n+
=0
ou Biais
et
(ii)
= 0,
lim Var()
n+
= 0.
Dune part notons que (i) est verifiee dapr`es la question (a), car Biais
Dautre part, on a :
=
Var[]
n
1
1 X
Var[Xi ] = 2 n = ,
n2
n
n
i=1
= lim
Donc (ii) est aussi verifiee car lim Var()
n+
n+ n
= 0.
n.
(c) Exhaustivite ?
Nous devons verifier si pour X1 , X2 , ..., Xn i.i.d. P(), la probabilite conditionnelle
= k]
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
ne depend pas de .
Ou, de facon equivalente,
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
n
X
Xi = t]
o`
u t = kn
i=1
ne depend pas de .
On a
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
n
X
P
P [X1 = x1 , X2 = x2 , ..., Xn = xn , ni=1 Xi = t]
P
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
Xi = t] =
P [ ni=1 Xi = t]
i=1
i
h
Pn
i
h
,
si
i=1 xi = t .
Pn
=
P
i=1 Xi =t
Pn
0,
si
i=1 xi 6= t
P
Si ni=1 xi = t, alors :
P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]
e x1
x1 !
Pn
i=1 Xi
P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]
e x2
...
x2 !
hP
n
P
i=1 Xi =
=
=
=
xn
xn !
en
Q
Pn
i=1 xi
n
i=1 xi !
n
e
(n)t
e
i
t
t!
n
e
t
Qn
i=1 xi !
en
= Qn
Pn
i=1 xi
i=1 xi !
t!
,
en nt t
car
t!
en (n)t
n
X
xi = t
i=1
en t
t!
t Qn
n
t
n i=1 xi !
e
t!
Q
,
nt ni=1 xi !
donc,
(
= k] =
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
nt
t!
Qn
i=1 xi !
Pn
xi = t
si
Pni=1
si
i=1 xi 6= t
h `() i
h 2 `() i
=E
.
2
On a :
2 `() i
I() = E
=
2
h
Pn
i=1 E[Xi ]
2
n
n
= .
2
Chapitre I : Estimation
Corrige
STAT-S-202
Exercice 3**
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), distribu
e suivant une loi
Bin(m, p), avec m connu. D
eterminez, `
a partir de cet
echantillon, les estimateurs de
p obtenus par la m
ethode des moments et par la m
ethode du maximum de vraisemblance. Recherchez les propri
et
es de ces estimateurs (biais, convergence, exhaustivit
e,
efficacit
e).
On a X B(m, p), o`
u p est un param`etre inconnu dans ]0, 1[. Donc,
m xi
P [X = xi ] =
p (1 p)mxi , xi {0, 1, 2, . . . , m}
xi
Soient X1 , . . . , Xn i.i.d. Bin(m, p).
p ]0, 1[.
1. D
eterminez p lestimateur de p obtenu
(a) par la m
ethode des moments
Le principe de la methode des moments est degaler les moments theoriques aux moments
empiriques.
Donc p est solution de :
n
1X
E[X] =
Xi .
n
i=1
mp =
1X
Xi .
n
i=1
Ainsi : p =
1
nm
Pn
i=1 Xi
X
m.
(b) par la m
ethode du maximum de vraisemblance
La vraisemblance de p associee `a X1 , . . . , Xn est :
n
Y
m
Xi
i=1
n
Y
m
=
Xi
i=1
n
Y
m
=
Xi
i=1
n
Y
m
=
Xi
L(X1 , ..., Xn ; p) =
pXi (1 p)mXi
! Y
n
!
pXi
i=1
!
p
!
p
n
Y
!
(1 p)mXi
i=1
Pn
i=1 Xi
Pn
i=1 Xi
Pn
i=1 (mXi )
(1 p)
P
nm n
i=1 Xi
(1 p)
i=1
Donc,
! X
n
n
n
n
o
X
Y
m
`(p) = ln L(X1 , ..., Xn ; p) = ln
+
Xi ln (p)+ nm
Xi ln (1 p)
Xi
i=1
i=1
i=1
`(p)
p
`a 0.
Chapitre I : Estimation
Corrige
STAT-S-202
Comme
`(p)
=
p
Pn
i=1 Xi
nm
Pn
i=1 Xi
1p
alors :
nm
n
X
`(p)
nX
i=1 Xi
=0
=
=
p
p
1p
p
1p
p) = p(nm nX)
nX
npX
= nmp npX
nX(1
= nmp p = X/m.
nX
Pn
2 `(p)
p2
2 `(p)
p2
nm
Pn
i=1 Xi
evaluee en p = p = X/m
est negative.
Pn
=
i=1 Xi
p2
nm
Pn
i=1 Xi
(1 p)2
,
alors :
p2
X
i
i=1
Xi
i=1 2
2
X/m
1 X/m
X/m
nm
nm
nm X/m
2
2
X/m
1 X/m
nm 1 X/m
nm
nm
nm
2 =
X/m
X/m
1 X/m
1 X/m
1
1
nm
=
< 0.
nm +
X/m
1 X/m
X/m 1 X/m
Pn
2 `(p)
p=X/m
=
=
=
nm
Pn
Donc, p = X/m
est bien la valeur qui maximise `(p).
Et par suite,
p = X/m.
2. Recherchez les propri
et
es de ces estimateurs (biais, convergence, exhaustivit
e,
efficacit
e).
(a) Biais ?
Par definition on a : Biais (
p) = E[
p] p.
Or
n
E[
p] =
1 X
1
E[Xi ] =
nmp = p,
nm
nm
i=1
Donc :
Biais (
p) = E[
p] p = p p = 0.
Par suite, p est un estimateur sans biais de p.
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
(i) lim E[
p] = p ou lim Biais (
p) = 0 ou Biais (
p) = 0
n+
n+
et
n+
Dune part notons que (i) est verifiee dapr`es la question (a), car Biais (
p) = 0.
Dautre part, on a :
Var[
p] = Var[X/m]
=
n
1
1 X
nmp(1 p)
Var[Xi ] =
2
(nm)
(nm)2
i=1
p(1 p)
,
nm
n+
p(1p)
nm
= 0.
n
X
Xi = t]
o`
u t = kn
i=1
ne depend pas de p.
On a
n
X
P
P [X1 = x1 , X2 = x2 , ..., Xn = xn , ni=1 Xi = t]
P
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
Xi = t] =
P [ ni=1 Xi = t]
i=1
i
h
Pn
h
i
, si
i=1 xi = t .
Pn
=
P
i=1 Xi =t
Pn
0,
si
i=1 xi 6= t
P
Si ni=1 xi = t, alors :
P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
Pn
i=1 Xi
Q
P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]
Pn
Pn
xi
mn i=1 xi
n
m
p i=1 (1 p)
i=1 xi
nm t
nmt
t p (1 p)
Q
t
nmt
n
m
n
p (1 p)
X
i=1 xi
,
car
xi
nm t
nmt
t p (1 p)
i=1
Q
=
n
m
i=1 xi
nm
t
=t
,
donc,
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
p = k] =
Q
m
n
i=1 xi
nm
t
( )
( )
0
si
Pn
=t
si
Pn
6= t
i=1 xi
i=1 xi
h `(p) i
p
h 2 `(p) i
=E
.
p2
On a :
I(p) = E
2 `(p) i
p2
Pn
=
=
Pn
=
i=1 E[Xi ]
p2
+
P
nm ni=1 mp
nm
E[X
]
i
i=1
Pn
(1 p)2
Exercice 4***
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), issu dune population
uniforme sur {1, 2, ..., N }. D
eterminez, `
a partir de cet
echantillon, les estimateurs de
N obtenus par la m
ethode des moments et par la m
ethode du maximum de vraisemblance.
On a X U{1, ..., N } o`
u N est un param`etre inconnu dans N0 = {1, 2, . . .}. Donc,
1
N , xi {1, 2, . . . , N }
P [X = xi ] =
.
0,
sinon
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
1. par la m
ethode des moments
Le principe de la methode des moments est degaler les moments theoriques aux moments
empiriques.
est solution de :
Donc N
n
1X
E[X] =
Xi .
n
i=1
N +1
1X
=
Xi .
2
n
i=1
=2
Ainsi : N
1
n
Pn
i=1 Xi
1.
1 = 2X
2. Par la m
ethode du maximum de vraisemblance
La vraisemblance de N associee
1
Nn ,
L(X1 , ..., Xn ; N ) =
0,
1
Nn ,
=
0,
1
Nn ,
=
0,
`a X1 , . . . , Xn est :
X1 , . . . , Xn {1, 2, . . . , N }
sinon
1 min {X1 , . . . , Xn } max {X1 , . . . , Xn } N
sinon
max {X1 , . . . , Xn } N
,
sinon
Rappelons que la vraisemblance est une fonction du param`etre. Dans ce cas, de N . Cest
pourquoi nous preferons la reecrire de la facon suivante :
1
N n , N max {X1 , . . . , Xn }
L(X1 , . . . , Xn ; N ) = L(N ) =
,
(1)
0,
sinon
L(N ) nest definie que pour N N0 , on ne saurait donc pas utiliser la derivee pour trouver
.
N
Neanmoins, dapr`es (1), quand N max {X1 , . . . , Xn }, L(N ) = N1n , qui est positive et fonction decroissante de N . Par contre, quand N < max {X1 , . . . , Xn }, L(N ) = 0.
Donc, L(N ) est maximum quand N max {X1 , . . . , Xn } et elle atteint son maximum en
N = max {X1 , . . . , Xn }.
Par suite,
= max{X1 , . . . , Xn }.
N
Exercice 5*
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), distribu
e suivant une loi
g
eom
etrique(p). D
eterminez, `
a partir de cet
echantillon, les estimateurs de p obtenus
par la m
ethode des moments et par la m
ethode du maximum de vraisemblance.
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
On a X G(p) o`
u p est un param`etre inconnu dans ]0, 1[. Donc,
P [X = xi ] = p(1 p)xi 1 , xi {1, 2, . . .}
Soient X1 , . . . , Xn i.i.d. G(p).
p ]0, 1[.
1. Par la m
ethode des moments
Le principe de la methode des moments est degaler les moments theoriques aux moments
empiriques.
Donc p est solution de :
n
1X
E[X] =
Xi .
n
i=1
1
p,
Comme E[X] =
alors p est solution de :
1X
1
=
Xi .
p
n
i=1
Ainsi : p =
1
n
Pn1
i=1
Xi
= 1/X.
2. Par la m
ethode du maximum de vraisemblance
La vraisemblance de p associee `a X1 , . . . , Xn est :
n
Y
L(X1 , ..., Xn ; p) =
P
( n
i=1 Xi n)
p (1 p)Xi 1 = pn (1 p)
i=1
Donc,
n
n
o
X
`(p) = ln L(X1 , ..., Xn ; p) = n ln p +
Xi n ln(1 p)
i=1
a 0.
Pour trouver p qui maximise `(p), il faut dabord egaler `(p)
p `
Comme
Pn
Xi n
`(p)
n
= i=1
,
p
p
1p
alors :
`(p)
n
=0
=
p
p
Pn
i=1 Xi
1p
n np = p
n
X
n(1 p) = p
n
X
Xi n
i=1
Xi np n = p
i=1
n
X
Xi
i=1
1
1X
=
Xi
p
n
i=1
p = 1/X.
Ensuite, il faut verifier que
Comme
2 `(p)
p2
est negative.
evaluee en p = 1/X
2 `(p)
n
= 2
2
p
p
Pn
n
,
(1 p)2
i=1 Xi
alors :
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
(1(1/X ))
n
Pn
n
n 1/X
1/
X
X
n
n
2 `(p)
n
n
(
)
( )
i=1 i
=
2
2
2
2
2
2
2
p p=1/X
1/X
1 1/X
1/X
1 1/X
1/X
1 1/X
n
n
n
=
=
2
2
< 0.
1/X 1 1/X
1/X
1/X
1 1/X
est bien la valeur qui maximise `(p).
Donc, p = 1/X
Et par suite,
p = 1/X.
Exercice 6***
En 1897, l
economiste suisse Vilfredo Pareto (1848-1923), professeur d
economie politique `
a luniversit
e de Lausanne, eut lid
ee de mod
eliser la loi des revenus en postulant
que le nombre relatif de personnes dont le revenu d
epasse une valeur x est invers
ement
proportionnel `
a une puissance de x. La d
efinition suivante fut adopt
ee : une variable
al
eatoire X, absolument continue, suit une loi de Pareto de param`
etres et si sa
densit
e est
f (x; , ) = ( 1)1 x I[,+[ (x) o`
u > 0, > 1
On suppose ici que est connu. Estimez par la m
ethode du maximum de vraisemblance.
Rappelons que pour tout A R,
IA (x) =
1 ,
si x A
0 ,
si x
/A
Donc,
f (x; , ) = ( 1)
I[,+[ (x) =
( 1) 1 x ,
0
x
,
sinon
Soient X1 , X2 , . . . , Xn i.i.d. X.
La vraisemblance de associee a` X1 , . . . , Xn est :
L(X1 , . . . , Xn ; ) =
n
Y
f (Xi ; , ) =
i=1
n n(1)
= ( 1)
n
Y
i=1
n
Y
i=1
Titulaire: C. Dehon
( 1) 1 Xi I[,+[ (Xi )
!
Xi
n
Y
!
I[,+[ (Xi ) .
i=1
Chapitre I : Estimation
Corrige
STAT-S-202
Or,
n
Y
I[,+[ (Xi ) =
1 ,
i=1
1 ,
0 ,
0 ,
1 ,
0 ,
X1 , . . . , Xn [, +[
=
sinon
1 ,
0 ,
X1 , . . . , Xn
sinon
min {X1 , . . . , Xn }
sinon
min {X1 , . . . , Xn } [, +[
sinon
= I[,+[ min {X1 , . . . , Xn } .
Donc,
L(X1 , . . . , Xn ; ) = ( 1)n n(1)
n
Y
!
Xi
I[,+[ min {X1 , . . . , Xn }
i=1
n Qn
,
( 1)n 1
i=1 Xi
min {X1 , . . . , Xn }
.
sinon;
Rappelons que la vraisemblance est une fonction du param`etre. Dans ce cas, de . Cest pourquoi
nous preferons la reecrire de la facon suivante :
!
n
Y
L(X1 , . . . , Xn ; ) = L() = ( 1)n n(1)
Xi I[,+[ min {X1 , . . . , Xn }
(2)
i=1
n Qn
,
( 1)n 1
i=1 Xi
min {X1 , . . . , Xn }
.(3)
sinon;
Il est clair quelle nest pas derivable par rapport `a (voir lallure du graphique ci-dessous).
Par suite,
= min{X1 , . . . , Xn }.
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
B := min{X1 , . . . , Xn }
Exercice 7**
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), distribu
e suivant une loi
N (, 2 ). D
eterminez, `
a partir de cet
echantillon, les estimateurs de et 2 obtenus
par la m
ethode des moments et par la m
ethode du maximum de vraisemblance. Recherchez les propri
et
es de ces estimateurs (biais, convergence, efficacit
e).
On a X N (, 2 ), o`
u (, 2 ) R R+
0 . Donc,
f (x) =
1
2
1
e 22 (x) , x R.
2
1. D
eterminez, `
a partir de cet
echantillon, les estimateurs de et 2 obtenus
(a) par la m
ethode des moments :
Par definition, lestimateur
du vecteur
est la solution du syst`eme :
2
2
Pn
E[X] = n1 i=1 Xi
,
1 Pn
2
2
E[X ] = n i=1 Xi
Comme,
E[X] = ,
h
i2
E[X 2 ] = Var[X] + E[X] = 2 + 2
et
n
1X 2
2,
Xi = s2 + X
n
i=1
alors,
Titulaire: C. Dehon
o`
u
s2 :=
1X
2,
(Xi X)
n
i=1
est solution de :
Assistant: E.M. ALLAOUI
Chapitre I : Estimation
Corrige
STAT-S-202
1
n
Pn
=X
i=1 Xi
1
n
Pn
2
i=1 Xi
=X
s2
2
+X
s2
Donc,
=X
2 = s2 .
et
L(X1 , ..., Xn ; , 2 ) =
n
Y
f (Xi ) =
i=1
i=1
=
n
Y
n Y
n
1
2 2
1
2
1
e 22 (Xi )
2
1
2
e 22 (Xi )
i=1
!n
e 22
(2 2 ) 2
Pn
= (2) 2 ( 2 ) 2 e 22
2
i=1 (Xi )
Pn
2
i=1 (Xi )
Pn
2
1
12
i=1 (Xi )
n e 2
2
(2) ( ) 2
n
2
Donc,
n
n
o
n
n
1 X
`(, 2 ) = ln L(X1 , ..., Xn ; , 2 ) = ln (2) ln ( 2 ) 2
(Xi )2 .
2
2
2
i=1
Pour trouver et 2 qui maximisent `(, 2 ), il faut dabord resoudre le syst`eme suivant
`(, 2 )
=0
`(, 2 )
2
=0
Remarque : Les deux param`etres et 2 etant inconnus, les derivees partielles sont
calculees simultanement et ensuite egaler `
a 0. Do`
u le syst`eme ci-dessus. Notez-bien
quon derive par rapport `
a 2 et non pas .
Comme
n
`(, 2 )
1 X
= 2
(Xi ),
i=1
n
`(, 2 )
n
1 X
et
= 2 + 4
(Xi )2 ,
2
2
2
i=1
alors :
`(, 2 )
`(, 2 )
2
Pn
2n2 +
=0
Pn
i=1 (Xi ) = 0
1
2 4
Titulaire: C. Dehon
1
2
=0
i=1 (Xi
P
n
= 21 4 ni=1 (Xi )2
2 2
=X
.
2
2
=s
Pn
) = 0
)2 = 0
=X
i=1 (Xi
2 =
1
n
Pn
i=1 (Xi
2
X)
Chapitre I : Estimation
Corrige
STAT-S-202
Pour sassurer que la solution obtenue ci-dessus est bien un maximum, il faut verifier
que la matrice hessienne de ce syst`eme definie par
2 `(,2 )
2 `(, 2 )
2 2
2
2
2 =s2
=X, =s
=X,
A := H (, 2 )
=
2
2 =s2
=X,
2
2
2
`(, )
`(, )
2
( 2 )2
2 2
2 2
=X, =s
=X, =s
u1
R2 \00, u0Au < 0.
u :=
u2
Comme
2 `(, 2 )
2
2 `(, 2 )
=
( 2 )2
2 `(, 2 )
`(, 2 )
=
=
2
2
2 `(, 2 )
`(, 2 )
=
=
2
n
,
2
n
n
1 X
(Xi )2 ,
2 4 6
i=1
)
(
n
n
X
1
1 X
(Xi ) = 4
(Xi ),
2 2
i=1
i=1
(
)
n
n
n
1 X
1 X
2+ 4
(Xi )2 = 4
(Xi ),
2
2
i=1
i=1
alors :
2 `(, 2 )
2 2
2
=X, =s
2
2
`(, )
2 2
2 =X,
=s
2 `(, 2 )
2 2
2 =X,
=s
2 `(, 2 )
2 2
( 2 )2 =X,
=s
n
,
s2
n
1 X
= 0,
= 4
(Xi X)
s
=
i=1
n
1 X
= 0,
= 4
(Xi X)
s
i=1
n
n
1 X
2
(Xi X)
2s4 s6
i=1
ns2
n
n
n
n
6 = 4 4 = 4,
2s4
s
2s
s
2s
sn2
2sn4
et par suite,
A=
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
s2
0
u1
u1
n
= u1 n u2
u 0Au = (u1 u2 )
s2
2s4
n
u2
0
2s4
u2
n 2
n 2
= 2 u1 4 u2
s
2s
n 2
1
= 2 u1 + 2 u22 < 0.
s
2s
Remarque : On aurait pu deduire directement que cette matrice est definie negative. Car
elle est diagonale et les elements diagonaux sont negatives.
et 2 = s2 sont bien les valeurs qui maximisent
Finalement, on deduit que = X
2
`(, ).
Do`
u:
et
=X
2 = s2 .
2. Recherchez les propri
et
es de ces estimateurs (biais, convergence, efficacit
e).
Notons tout dabord que comme X1 , . . . , Xn sont i.i.d. X N (, 2 ), alors on a dapr`es le
lemme de Fisher
2
N (, ),
(i) X
n
(ii)
ns2
2n1
2
et
s2 .
(iii) X
(a) Biais ?
est un estimateur sans biais de et
=X
2 = s2 est un estimateur biaise de 2 car
et
2
2
es le point (ii) du lemme de Fisher.
] = n 1 E[
2 ] = E[s2 ] = n1
2 R+
E[ ns
0 , dapr`
n ,
2
De plus, comme lim E[
2 ] = 2 , alors,
2 est un estimateur asymptotiquement sans biais de 2 .
n+
lim Var(
) = lim n = 0 ,
n+
n+
et
lim Biais[
2 ] = 0,
n+
lim Var(
2 ) = lim Var(s2 ) = lim Var( n
n+
n+
n+
ns2
)
2
2(n1) 4
2
n+ n
= lim
=0
(resp.
Donc, lestimateur
=X
2 = s2 ) converge faiblement vers (resp. 2 ).
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
(c) Efficacite ?
Rappelons que lestimateur
est efficace ssi
et
,
(ii) I (, 2 ) = 2 1 .
2
I
o`
u (, ) est la matrice dinformation de Fisher relative au vecteur
definie
2
par
h
i
I (, 2 ) = E H (, 2 ) ,
Var[
]
Cov[
,
2]
.
,2 =
2
2
Cov[
,
]
Var[
]
La condition
(i) ne
tant pas verifiee. Puisque,
2 = s2 est un estimateur biaise de 2 .
2
2
2
Neanmoins,
= s est asymptotiquement sans biais. Donc, on peut verifier si
2
est asymptotiquement efficace.
1
i. Calcul de ,2
.
Dapr`es le point (iii) du lemme de Fisher et la sous-question (b) du 2., on deduit
s2 ] = 0 et que
que Cov[X,
s2 ]
0
Var[X]
Cov[X,
n
=
,2 =
.
2(n1) 4
s2 ]
Cov[X,
Var[s2 ]
0
2
n
Par suite,
1
,2
=
n
2
n2
2(n1) 4
ii. Calcul de I (, 2 ).
On a
I (, 2 ) = E H (, 2 ) = E
Titulaire: C. Dehon
2 `(, 2 )
h
E
h
E
2 `(, 2 )
2
2 `(, 2 )
2
i
i
h
E
h
E
`(, )
2
`(, )
`(, )
(
2
2 )2
i
2
2
`(, )
2
2 `(, 2 )
( 2 )2
i .
Chapitre I : Estimation
Corrige
STAT-S-202
Comme,
h 2 `(, 2 ) i
hni
n
E
=
E
= 2,
2
2
n
n
h1 X
i
h 2 `(, 2 ) i
1 X
= E 4
(Xi ) = 4
(E[Xi ] ) = 0,
E
2
i=1
i=1
n
n
h 2 `(, 2 ) i
h1 X
i
1 X
E
= E 4
(Xi ) = 4
(E[Xi ] ) = 0,
2
i=1
i=1
n
n
h
h 2 `(, 2 ) i
i
h
i
n
1 X
1 X 2
n
2
2
=
E
+
+
E
(X
)
=
E
(X
2X
+
)
i
i
i
( 2 )2
2 4 6
2 4 6
i=1
i=1
n
1 X
n
E[Xi2 ] 2E[Xi ] + E[2 ]
= 4+ 6
2
i=1
n
n
1 X 2
= 4+ 6
+ 2 2 + 2 ,
2
1
n
+ 6
4
2
1
n
+ 6
4
2
n
=
,
2 4
i=1
n
X
i=1
n
X
2 + 2 22 + 2
2 =
i=1
car E[Xi2 ] = 2 + 2
n
n
+ 4
4
2
alors,
I (, 2 ) =
n
2
n
2 4
On conclut que,
I. Comme
I (, 2 ) =
alors, lestimateur
n
2
n
2 4
6=
n
2
n2
2(n1) 4
1
,
= ,2
nest pas efficace. ce qui etait prevu.
n
2 4
n2
,
2(n1) 4
alors
1
I (, 2 ) ,2
,
et donc, lestimateur
est asymptotiquement efficace.
Exercice 8*
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), distribu
e suivant une
loi exponentiel n
egative de moyenne . D
eterminez, `
a partir de cet
echantillon, les
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
0,
sinon
On peut verifier facilement que
E[X] =
Var[X] = 2 .
et
1. D
eterminez, `
a partir de cet
echantillon, les estimateurs de
(a) par la m
ethode des moments
Par definition, lestimateur de par la methode des moments est la solution de lequation
E[X] =
n
X
Xi .
i=1
Comme
E[X] = ,
alors
=
n
X
Xi = X.
i=1
(b) par la m
ethode du maximum de vraisemblance
La vraisemblance de associee `a X1 , . . . , Xn est :
L(X1 , ..., Xn ; ) =
n
Y
f (Xi ; ) =
i=1
n
Y
1
i=1
Xi
1 1 Pni=1 Xi
.
e
n
Donc,
n
n
o
1
1 Pn
1X
`() = ln L(X1 , ..., Xn ; ) = ln n e i=1 Xi = n ln ()
Xi .
i=1
alors :
`()
n
=0
=
Pn
i=1 Xi
2
`()
n =
`a 0.
n
X
Xi
i=1
= X.
Ensuite, il faut verifier que
Comme
Titulaire: C. Dehon
2 `()
2
est negative.
evaluee en = X
2
2 `()
n
= 2
2
Pn
i=1 Xi
,
3
Chapitre I : Estimation
Corrige
STAT-S-202
alors :
P
2 ni=1 Xi
n
n
2n X
n
2n
n
2 `()
= 2 3 = 2 2 = 2 < 0.
= 2
2
3
=X
X
X
X
X
X
X
X
est bien la valeur qui maximise `().
Donc, = X
Et par suite,
= X.
2. Recherchez les propri
et
es de ces estimateurs (biais, convergence, efficacit
e).
(a) Biais ?
On a
n
i=1
i=1
i=1
X
1X
1X
1
= 1
E[]
E[Xi ] =
E[X] =
= n = ,
n
n
n
n
]0, +[.
= 0.
Donc, Biais () = E[]
Par suite, est un estimateur sans biais de .
(b) Convergence faible de vers ?
Comme
= 0,
(i) Biais()
et
= lim
(ii) lim Var()
1
2
n+ n
n+
Pn
i=1 Var[Xi ]
2
n+ n
= lim
= 0,
h `() i
h 2 `() i
=E
.
2
On a :
P
2 ni=1 E[Xi ]
2 `() i
n
I() = E
= 2 +
2
P
3
n
2 i=1
n
n
2n
= 2+
= 2 + 2
3
n
=
.
2
h
=
Or, Var[]
2
n,
1 .
donc I() = (Var[])
Chapitre I : Estimation
Corrige
STAT-S-202
Exercice 9***
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), distribu
e suivant une loi
caract
eris
ee par la fonction de densit
e suivante
1 x
, x
e
x
1
,
f (x; , ) = e I[,+[ (x) =
0
, sinon
o`
u et sont deux param`
etres inconnus tels que R et R+
0.
D
eterminez, `
a partir de cet
echantillon, les estimateurs de et obtenus par la
m
ethode des moments et par la m
ethode du maximum de vraisemblance.
1. Par la m
ethode des moments :
Le principe de la methode des moments est degaler les moments theoriques aux
moments
2
empiriques. Donc, dabord nous calculons E[X] et E[X ]. Ensuite nous trouvons
.
x x
1 x
dx = e
e dx
E[X] =
x f (x; , ) dx =
x e
(
)
h x e x i+ Z + 1 e x
dx
= e
1
1
h
Z +
i
x +
x
= e
xe
e dx
+
(
)
h
i h e x i+
= e
lim
xe e +
x7+
1
h
x i
lim
e e
= e 0 + e
x7+
n
o
= e e + e = + .
(b) Calcul de E[X 2 ].
Par definition et en utilisant une integration par parties, on obtient
Z +
Z +
Z + 2
x x
2
2
2 1 x
dx = e
e dx
E(X ) =
x f (x; , ) dx =
x e
(
)
x
Z +
h x2 e x i+
x e
= e
2
dx
1
1
h
Z +
i
x x
2
= e
0+ e
+ 2
e dx
Z +
n
o
x x
2
= e e
+ 2 e
e dx
= 2 + 2 E[X] = 2 + 2 ( + )
= 2 + 2 + 2 2 = ( + )2 + 2 .
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
(c) Determination de et .
lestimateur
du vecteur
est la solution du syst`eme :
Pn
E[X] = n1 i=1 Xi
.
1 Pn
2
2
E[X ] = n i=1 Xi
Comme,
E[X 2 ] = ( + )2 + 2
E[X] = + ,
et
1X 2
2 , o`
Xi = s2 + X
u
n
s2 :=
i=1
1X
2,
(Xi X)
n
i=1
alors,
E[X] =
E[X 2 ]
1
n
Pn
i=1 Xi
=X
=
1
n
Pn
2
i=1 Xi
+ =X
+ =X
2
2
X + 2 = s2 + X
2
( + )2 + 2 = s2 + X
=X
s2
Donc,
= s
et
s.
= X
2. Par la m
ethode du maximum de vraisemblance :
La vraisemblance de et associee `a X1 , . . . , Xn est :
L(X1 , . . . , Xn ; , ) =
=
n
Y
i=1
n
Y
i=1
f (Xi ; , ) =
n
Y
1
i=1
1 Xi
e e I[,+[ (Xi )
Xi
I[,+[ (Xi )
n
1 n 1 Pni=1 Xi Y
e e
I[,+[ (Xi ).
n
i=1
Or,
n
Y
I[,+[ (Xi ) =
1 ,
i=1
1 ,
0 ,
0 ,
1 ,
0 ,
X1 , . . . , Xn [, +[
=
sinon
1 ,
0 ,
X1 , . . . , Xn
sinon
min {X1 , . . . , Xn }
sinon
min {X1 , . . . , Xn } [, +[
sinon
= I[,+[ min {X1 , . . . , Xn } .
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
Donc,
L(X1 , . . . , Xn ; , ) =
1 n 1 Pni=1 Xi
e
I
e
min
{X
,
.
.
.
,
X
}
1
n
[,+[
n
1
n
Pn
i=1
Xi
min {X1 , . . . , Xn }
sinon
Rappelons que la vraisemblance est une fonction des param`etres. Dans ce cas, de et . Cest
pourquoi nous preferons la reecrire de la facon suivante :
1 n 1 Pni=1 Xi
e
e
L(X1 , . . . , Xn ; , ) = L(, ) =
I
min
{X
,
.
.
.
,
X
}
(4)
1
n
[,+[
n
1
n
Pn
i=1
Xi
min {X1 , . . . , Xn }
sinon
. (5)
Il est clair quelle est derivable par rapport `a mais pas par rapport `a . Donc, on commencera
tout dabord par determiner et ensuite maximiser L(X1 , . . . , Xn ; , ) en utilisant la derivee
pour trouver .
(a) Calcul de .
n
Pn
Dapr`es (5), quand min {X1 , . . . , Xn }, L(, ) = 1n e e i=1 Xi , qui est positive
et fonction croissante de . Cependant, quand > min {X1 , . . . , Xn }, L(, ) = 0.
Donc, L(, ) est maximum quand min {X1 , . . . , Xn } et elle atteint son maximum
en = min {X1 , . . . , Xn }. (voir lallure du graphique ci-dessous)
A :=
1
n
Pn
i=1
Xi
>0
et
B := min{X1 , . . . , Xn }.
Par suite,
= min{X1 , . . . , Xn }.
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
(b) Calcul de .
On a,
L(
, ) =
1 n 1 Pni=1 Xi
e
e
I
min
{X
,
.
.
.
,
X
}
1
n
[
,+[
n
1 n 1 Pni=1 Xi
e e
1,
n
( car I[ ,+[ (
) = 1).
Donc,
n
n
o
1 n
1 Pn
n
1X
Xi ,
`() = ln L(X1 , . . . , Xn ; , ) = ln n e e i=1 Xi = n ln () +
i=1
`()
= 2 + i=12
,
alors :
Pn
n
X
Xi n
`()
n
=0
= i=1 2
n 2 =
Xi n
i=1
.
=X
Ensuite, il faut verifier que
Comme
2 `()
2
est negative.
evaluee en = X
2 `()
n
2 n
2
= 2+ 3
2
Pn
i=1 Xi
,
3
alors :
P
n
2
X
i
i=1
Xi
2
2 n
n
n
+
i=1 3 =
=
2
3
2
)3
(X )
(X )
(X )
(X )
(X
)
n
2n (X
n
2n
n
=
)3 = (X
)2 (X
)2 = (X
)2 < 0.
(X )2
(X
Pn
2 `()
)
=(X
et
.
= X
x>0
sinon
avec > 0.
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
1
.
2 3
x=y
dx = dy
x
y = =
x=0y=0
x = + y = +,
car > 0
on obtient,
Z
x
2
x e
dx =
2 y
( y) e
dy =
0
3
y 2 ey dy
(rappel)
= 2! = 2 3 .
On en deduit que
1
.
2 3
b. Montrez que si la variable al
eatoire X est distribu
ee suivant cette loi,
1 = k 2 3 k =
E[X] = 3
V ar(X) = 3 2
1. Calcul de la moyenne de X.
Par definition et en utilisant le changement de variable y = x , on a :
Z
E(X) =
=
=
1 2 x
1
x f (x; ) dx =
x
x e dx =
3
2
2
3
0
Z +
Z +
1
3 y 3 ey dy =
y 3 ey dy
2 3 0
2 0
3! = 3 .
2
x3 e
dx
2. Calcul de la variance de X.
Par definition et en utilisant le changement de variable y = x , on a :
2
Var[X] = E[X 2 ] E[X]
Z +
2 Z
=
x2 f (x; ) dx 3 =
x2
1 2 x
x e dx 9 2
2 3
Z +
Z +
x
1
1
4
2
=
x
e
dx
=
4 y 4 ey dy 9 2
2 3 0
2 3 0
Z
2 + 4 y
2
=
y e dy 9 2 =
4! 9 2
2 0
2
= 12 2 9 2 = 3 2 .
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
c. Montrez, `
a partir dun
echantillon al
eatoire simple de taille n issu de cette population, que lestimateur du maximum de vraisemblance du param`
etre est donn
e par
b = X3 .
Soient X1 , X2 , . . . , Xn i.i.d. X. Calculons lestimateur b de par la methode du maximum de
vraisemblance.
la vraisemblance de associee `
a X1 , X2 , . . . , Xn est :
n
n
Y
Y
X
1
2 i
L(X1 , . . . , Xn ; ) =
f (Xi ; ) =
X e
2 3 i
i=1
i=1
Y
n
n
n
Y
X
Y
1
i
2
=
Xi
e
2 3
i=1
=
1
2 3
i=1
n Y
n
Xi2
i=1
Pn
i=1
Xi
i=1
n
X
ln (Xi )
i=1
`()
n
1X
Xi .
i=1
`a 0.
i=1
alors,
n
n
`()
3n
1 X
1 X
3n
= 0 =
+ 2
Xi = 0 =
Xi =
2
i=1
n
X
i=1
i=1
2 `()
2
i=1
1 X
X
Xi = 3n = =
Xi = = .
3n
3
evaluee en =
X
3
est negative.
n
2 `()
3n
2 X
=
Xi ,
2
2
3
i=1
alors :
n
2 `()
3n
3n
2 X
3n
2
X
6n
3n
=
X
=
3n
(
)
=
< 0.
i
X
2
3
= 3
( X3 )2 ( X3 )3 i=1
( X3 )2 ( X3 )3
( X3 )2 ( X3 )2
( X3 )2
X
= .
3
d. Cet estimateur est-il biais
e, convergent, efficace ?
Titulaire: C. Dehon
Chapitre I : Estimation
Corrige
STAT-S-202
=0?
1. est-il sans biais ? Cest-`
a-dire a-t-on Biais = E[]
On a :
1
X
= 1 E[X] = 1 3 = .
= E[X]
E[] = E
3
3
3
3
= 0.
Donc, Biais = E[]
Ainsi est un estimateur non biaise de .
2. est-il faiblement convergent ?
Comme
Biais
= 0,
et
h i
P
,
X
lim
Var[
]
=
lim
Var
n+
n+
n+
n+
n+
Var()
o`
u
i
i
h 2
h
`()
est linformation de Fisher (relative `a ).
=
E
2
= 0 dapr`es le point 1 de cette question.
Dune part, on a Biais()
Dautre part, on a,
"
#
n
3n
2 `()
2 X
I() = E
=E 2 3
Xi
2
i=1
"
#
n
n
3n
2 X
3n
2 X
= E 2 +E 3
Xi = 2 + 3
E[Xi ]
i=1
i=1
n
n
3n
2 X
3n
2 X
3n 6n
= 2 + 3
E[X] = 2 + 3
3 = 2 + 2
i=1
i=1
3n
1 .
= (Var())
2
Titulaire: C. Dehon