Statistique 3 (5009)
Y. ASKOURA, MCF Universit Paris 2.
Statistique 3 (5009)
1 / 113
Bibliographie
Statistique 3 (5009)
2 / 113
Bibliographie
Statistique 3 (5009)
3 / 113
Statistique 3 (5009)
4 / 113
Dnombrement
Dnombrement
Statistique 3 (5009)
n!
possibilits
k !(n k )!
5 / 113
Statistique 3 (5009)
6 / 113
Probabilit, gnralits
Une exprience alatoire est une exprience dont on ne peut
prvoir par avance le rsultat.
vnement impossible=;,
Soient A et B deux vnements,
A \ B : cest lvnement (A et B) ou lintersection de A et B,
A [ B : cest lvnement (A ou B) ou lunion de A et B,
A\B = {x 2 A : x 2
/ B}
A B = (A\B) [ (B\A)
Statistique 3 (5009)
7 / 113
Statistique 3 (5009)
8 / 113
Proprits
Chacune des oprations \ et [ est associative et commutative.
A [ (B [ C) = (A [ B) [ C,
A[B =B[A
A \ (B \ C) = (A \ B) \ C,
A\B =B\A
Exemple
Dans lexemple 1, le contraire de {2, 3} [ {3, 4, 5} est
{1, 4, 5, 6} \ {1, 2, 6} = {1, 6}.
A [ (B \ C) = (A [ B) \ (A [ C)
plus gnralement :
A \ ( [ Bi ) = [ (A \ Bi ) et A [ ( \ Bi ) = \ (A [ Bi )
i2IN
i2IN
i2IN
Exemple
i2IN
i2IN
= {1, 2, 3, 4, 5, 6}
[ Ai = \ Ai et \ Ai = [ Ai
i2IN
8i
=
6
j,
A
i \ Aj = ;
S
Ai =
i2IN
9 / 113
Statistique 3 (5009)
10 / 113
Example
Dfinition
Une collection dvnements C de lunivers est dite
(tribu) ssi :
algbre
1) 8A 2 C , A 2 C ,
i2IN
3) 2 C .
Dfinition
Remarque
La premire et la dernire condition impliquent que ; 2 C ,
Example
Pour = IR, la tribu engendre par les intervalles ouverts de IR est
appele tribu borlienne de IR. Elle est aussi engendre par les
intervalles ferms, les intervalles de type (])[a, +1[, a 2 IR,...etc.
11 / 113
Statistique 3 (5009)
12 / 113
Modliser la chance
Dfinition
2) P(A) = 1
i2IN
Dfinition
Une (loi de) probabilit sur (, C ) est une application P de C images
dans [0; 1] tq :
1) P() = 1,
i2IN
i2IN
i2IN
P(A \ B),
P(A),
13 / 113
Statistique 3 (5009)
14 / 113
Justifications
Example
1)-4) sont videntes.
5) Posons B1 = A1 et Bi+1 = Ai+1 \
A
,
P(B
)
P(A
)
et
donc
i
i
i
i
P
P([Ai )
P(Ai ).
j=1
Statistique 3 (5009)
15 / 113
10 dans lunit A.
10 dans lunit B.
Quelle est la probabilit quun tudiant pris au hasard ait une note
10 dans lunit A et dans lunit B ?
Rponse : P(A \ B) = P(A) + P(B) P(A [ B) = 0.7 + 0.8 0.9 = 0.6
soit 60%.
Est-il possible davoir P(A) = 0.7, P(A [ B) = 0.6 ou P(A \ B) = 0.6 et
P(B) = 0.5 ?
Rponse : NON, pourquoi ?
Statistique 3 (5009)
16 / 113
Probabilits Conditionnelles
Supposons quon sait que B sest ralis. Nous rduisons
artificiellement donc lunivers B (lunivers restera toujours ) en
annulant les probabilit des vnements incompatibles avec B et en
augmentant les probabilits des vnement rencontrant B. On
cherche alors la probabilit quun vnement A se ralise.
Dfinition
Example
P(A/B) =
P(A \ B)
P(B)
prcdente :P(A/B) =
P({2;4})
P({1;2;3;4;5})
2
6
5
6
= 25 .
Remarque
Il convient de vrifier que lapplication A 7 ! P(/B) dfinie est
une loi de probabilits sur (, C )
Statistique 3 (5009)
P(A\B)
P(B)
j2IN
17 / 113
Statistique 3 (5009)
18 / 113
vnements indpendants
Dfinition
Example
Trois machines M1 , M2 et M3 fabriquent des boulons de mme type.
M1 sort en moyenne 0.3% de pices dfectueuses, M2 0.8% et M3 1%.
On mlange 1000 pices dans une caisse, dont 500 proviennent de
M1 , 350 de M2 et 150 de M3 . On tire au hasard un boulon de la caisse.
Calculer la probabilit quil soit dfectueux.
Rponse : Notons Mi : le boulon est fabriqu par Mi et D : le boulon
est dfectueux. M1 , M2 , M3 forme alors un systme complet
dvnements.
P(D) = P(D/M1 )P(M1 ) + P(D/M2 )P(M2 ) + P(D/M3 )P(M3 )
500
350
150
= 0.003 1000
+ 0.008 1000
+ 0.01 1000
= ......
Statistique 3 (5009)
19 / 113
Example
On tire avec remise 2 fois de suite une boule dune urne contenant 3
boules blanches et 7 noires indiscernables au toucher. Alors,
A :obtenir une boule blanche au 1er tirage est indpendant de
B :obtenir une boule blanche au 2ime tirage. Ceci est vident. On
peut vrifier ce fait par le calcul.
Statistique 3 (5009)
20 / 113
Furmule De Bayes
Example (suite)
Notons n les boules noires et b les blanches. Alors,
= {bb; bn; nb; nn} ; A = {bb; bn} ; B = {bb; nb}
3 3
3 3
3 7
P(A \ B) = P(bb) = 10
10 = 0.09 ; P(A) = 10 10 + 10 10 = 0.3 et
3 3
7 3
P(B) = 10
10 + 10 10 = 0.3. On a bien P(A \ B) = P(A)P(B).
Indpendance mutuelle
En effet,
Dfinition
P(B/A) =
Y
P \ Ai =
P(Ai )
i2I
i2I
Statistique 3 (5009)
P(A/B)P(B)
P(A)
P(A\B)
P(B)
P(B)
P(A)
P(A/B)P(B)
P(A)
=
P(A\B)
P(A)
= P(B/A)
P(A/Bi )P(Bi )
P(Bi /A) = P
P(A/Bj )P(Bj )
j2IN
Il suffit dcrire,
en utilisant la formule des probabilits totales :
P
P(A) =
P(A/Bj )P(Bj ) dans la premire formule de Bayes.
j2IN
21 / 113
Statistique 3 (5009)
22 / 113
Example
Trois machines M1 , M2 et M3 fabriquent des boulons de mme type.
M1 sort en moyenne 0.3% de pices dfectueuses, M2 0.8% et M3 1%.
On mlange 1000 pices dans une caisse, dont 500 proviennent de
M1 , 350 de M2 et 150 de M3 . On tire au hasard un boulon de la caisse,
il est dfectueux. Calculer la probabilit quil ait t fabriqu par M1 .
Rponse : Notons Mi : le boulon est fabriqu par Mi et D : le boulon
est dfectueux. Il sagit de calculer
P(D/M1 )P(M1 )
P(M1 /D) = P(D/M1 )P(M1 )+P(D/M
2 )P(M2 )+P(D/M3 )P(M3 )
=
500
0.003 1000
500
350
150
0.003 1000 +0.008 1000
+0.01 1000
0.26
Example
Une urne A contient 10 boules noires et 20 boules rouges. Une urne B
contient 10 boules noires et 40 boules rouges. On mlange les deux
urnes en versant leurs contenus dans une urne C. On tire au hasard
une boule de lurne C, elle est rouge. Quelle est la probabilit que
cette boule provient de lurne A ?
Rponse : Notons A : la boule provient de A, B : la boule provient de
B 00 etR : la boule est rouge. A et B forme un systme complet
dvnements.
Alors,
P(A/R) =
Remarque
P(R/A)P(A)
=
P(R/A)P(A) + P(R/B)P(B)
23 / 113
Statistique 3 (5009)
2
3
2
3
3 8
3
4
8 + 5
5
8
= 1/3
24 / 113
Dfinition
X est une variable alatoire, la loi de X est la loi probabilits sur les
valeurs de X , soit
PX ( 1); PX (1); ...; PX (6)
Statistique 3 (5009)
(B) 2 C , 8B 2 B
25 / 113
Statistique 3 (5009)
26 / 113
Fonction de rpartition
La loi de X est la probabilit image PX de P par X , autrement dit :
PX (B) = P({w 2 : X (w) 2 B}) = P(X
Dfinition
La fonction de rpartition F dune v.a. relle X est lapplication de IR
dans [0; 1] dfinie par
(B))
5
6
1
36
1
36
1
36
1
36
1
36
(]
1; x[))
1
36
Remarque
Les lois des v.a. discrtes peuvent tre donnes dans un tableau et
reprsentes par un diagramme en btons.
F IGURE: Fonction de rpartition de lexemple prcdent
Statistique 3 (5009)
27 / 113
Statistique 3 (5009)
28 / 113
Si X est une v.a. discrte qui prend les valeurs x1 , x2 , x3 , ..., xn , ..., on
note pi = PX (xi ) la probabilit que X prend la valeur xi . Alors, sa
fonction de rpartition est donne par
F (x) =
0ji
On a aussi
pi = PX (xi ) = F (xi+1 )
F (a)
F (xi )
Dfinition
Dfinition
Une v.a. X est dite
discrte si elle prend au plus un nombre dnombrable de valeurs
(ou si ses valeurs sont isoles et peuvent tre numrotes).
29 / 113
Statistique 3 (5009)
30 / 113
Variable continue
Certaines lois de probabilits continues (de v.a. continues) peuvent
tre dfinies partir de la notion de densit de probabilit.
Dfinition
Une densit
R de probabilit f est une fonction positive et intgrable
vrifiant IR f dx = 1.
Dfinition
Une loi de proba PX admet une densit f si, pour tout intervalle
I = [a, b] de IR, on a
PX (I) =
f (x) dx =
b
a
f (x) dx
Remarque
Statistique 3 (5009)
32 / 113
Corollary (suite)
8E, F 2 B(IR)
Corollary
33 / 113
34 / 113
Esprance mathmatique
E(X ) =
Statistique 3 (5009)
xi P(X = xi )
Example
La v.a. X de densit f (x) = e x si x
esprance :
R +1
E(X ) = 0 x e x dx = x 1 e
+1
= 0 + 1e x 0
= 1.
x +1
0
Statistique 3 (5009)
R +1
0
dx
35 / 113
Remarque
Lesprance nexiste pas toujours.
De la linarit de lintgrale, on dduit la linarit de lesprance.
Proprits de lesprance : si a 2 IR, on a :
E(a) = a,
E(aX ) = aE(X ),
E(X + a) = E(X ) + a,
E(X + Y ) = E(X ) + E(Y ).
X et Y sont indpendantes =) E(XY ) = E(X )E(Y )
Statistique 3 (5009)
36 / 113
Variance
Dfinition
Theorem
IR
Cas discret :
Statistique 3 (5009)
Remarque
V (X ) mesure la dispersion de X autour de son esprance E(X ).
p
V (X ) est appel cart-type. Il a lavantage par rapport
X =
la variance de sexprimer dans la mme unit de mesure que X , il
a donc plus de sens pour les interprtations.
37 / 113
Proprit de la variance :
Statistique 3 (5009)
38 / 113
Autres proprits
Formule de Knig-Huyghens :
E([X
IR
IR
2
X
V (X ) =
(x)f (x) dx
2
X
a]2 ) = V (X ) + (E(X )
a)2
En effet,
E([X a]2 ) = E([(X E(X )) + (E(X ) a)]2 )
= E[(X E(X ))2 ] + E[(E(X ) a)2 ]
+2E[(X E(X ))(E(X ) a)]
= V (X ) + (E(X ) a)2 + 2(E(X ) a)E[X E(X )]
= V (X ) + (E(X ) a)2 + 2(E(X ) a)(E(X ) E(X ))
= V (X ) + (E(X ) a)2
Cela signifie que V (X ) est la valeur minimale de E([X
varie dans IR.
Pour a = 0, on a :
la formule classique :
2
V (X ) = E(X )
Statistique 3 (5009)
E(X )
a]2 ) quand a
V (X + a) = V (X ), 8a 2 IR.
V (aX ) = a2 V (X ),
V (X ) = 0 () X = a,
Ingalit de Bienaym-Tchebychev relie lesprance et
lcart-type : pour tout k > 0, P(|X E(X )| > k ) k12
la covariance de X et Y est dfinie par
cov (X , Y ) = E[(X
E(X ))(Y
E(X )E(Y )
2
39 / 113
40 / 113
E(X )] )
Cas particulier : X
U (A) avec A = {1, 2, ..., n}
P(X = i) = n1
Esprance de X
E(X ) = n1 1 + n1 2 + n1 3 + ... + n1 n
= n1 (1 + 2 + ... + n)
= n1 n(n+1)
2
3
3
4
4
E(X ) =
Statistique 3 (5009)
Variance
V (X ) = E(X 2 )
E(X )2 = n1 12 + n1 22 + .... + n1 n2
= n1 (1 + 22 + 32 + ... + n2 )
Donc
=
=
1 n(n+1)(2n+1)
n
6
n+1
(4n
+2
12
n+1 2
2
n+1 2
2
41 / 113
Statistique 3 (5009)
42 / 113
n+1 2
2
Dfinition
X suit la loi de Bernoulli de paramtre p si elle prend deux valeurs
possibles 1 avec probabilit p et 0 avec probabilit 1 p. La valeur 0
symbolise lchec et 1 le succs.
3(n + 1))
V (X ) =
n+1
2
n2 1
12
Lesprance de X : E(X ) = (1
Remarque
p) 0 + p 1 = p
E(X ) = p
Sn2
La variance de X :
V (X ) = (1 p)(0 p)2 + p (1
= p(1 p)[p + (1 p)]
= p(1 p)
p)2
V (X ) = p(1
1
3n
2 ]
p)
= ...
43 / 113
Statistique 3 (5009)
44 / 113
Loi Binomiale
Esprance et variance
Dfinition
X suit la loi Binomiale de paramtres n et p ssi X reprsente le
nombre de succs dans n rptitions indpendantes de lpreuve de
n
P
Bernoulli de paramtre p. Autrement X =
Xi , o chaque Xi suis la
i=1
p)n
p)n
, 8k = 0, .., n
Statistique 3 (5009)
45 / 113
Loi hypergomtrique
Considrons une population de N individus, dont une proportion p,
donc N0 = pN individus, possdent un caractre donn, disant C. On
prlve n individus (sans remise ou dun coup). La v.a. X qui compte le
nombre dindividus ayant le caractre C suit une loi hypergomtrique
de paramtre N, n, p, on note X
H(N; n; p).
Pour k = 0, ..., n
Choisir k individus ayant le caractre C parmi les n revient
choisir
I
La variance de X : De lindpendance
n
P
V (X ) =
V (Xi ) = np(1 p)
n
P
i=1
E(Xi ) = np
i=1
p)
46 / 113
Esprance et variance
Dfinition
E(X ) = np
V (X ) = np(1
Donc,
P(X = k ) =
CNk 0 CNn
Statistique 3 (5009)
CNn
k
N0
1, si i 2 S,
(S)
=
i
0, sinon.
chantillons contenant i
E( i ) = P( i = 1)= nb nb
total dchantillons =probabilit dinclure lindividu i
dans S.
Nombre dchantillons total est CNn
Nombre dchantillons incluant un individu i donn est
CNn
Do
Et donc,
47 / 113
Cn
P( i = 1) = CN n 1 =
N
E( i ) = Nn
1
1
(N 1)!
n!(N n)!
N!
(n 1)!(N 1 (n 1))!
Statistique 3 (5009)
n
N
48 / 113
Variance
Numrotons les individus de la population de 1, ..., N et introduisant :
1, si i 2 N0 (possde C),
Yi =
0, sinon.
On a donc
X =
Yi
i2S
E(X ) = E(
i2S
Yi ) = E(
N
P
Yi i ) =
i=1
N
P
Yi E( i ) =
i=1
V (X ) = V (
Yi ) = V (
Yi2 V ( i ) +
i=1
Yi Yj cov ( i , j )
i,j:i6=j
2
cov ( i , j ) =
n(n
N(N
1)
1)
(N 2)!
n!(N n)!
N!
(n 2)!(N 2 (n 2))!
n2
n (n
=
N
N2
N
X
n
V ( i ) = E( i2 ) E( i )2 = E( i ) E( i )2 = Nn
N2
cov ( i , j ) = E( i j ) E( i )E( j )
E( i j ) =probabilit que lchantillon contienne i et j=P({i, j} S)=
Cn
E(X ) = np
Yi i ) =
i=1
i2S
Donc, E( i j ) = CN n 2 =
N
On en dduit que
N0 Nn
N
X
49 / 113
1)N n(N
N(N 1)
n(n 1)
N(N 1) .
1)
n N
N2 N
n
1
n
1
= np(1
Statistique 3 (5009)
n
N)
N0 (N0 1)n(N n)
N 2 (N 1)
50 / 113
np( NN n )
1)(N n)
np (N0N(N
1)
N
V (X ) =
N
n N 1
np N
N 1( N
n
np(1
1
N0 1
N )
n
np N
N 1 (1
p)
p)
Remarque
Si N est trs grand devant n, on peut approcher V (X ) np(1
est la variance de B(n, p). De faon gnrale
p) qui
Statistique 3 (5009)
Dfinition
51 / 113
Pour tout k 2 IN ,
P(X = k ) = p(1
p)k
52 / 113
Variance
Exemple
Le calcul suivant sappuie sur les sries entires :
V (X ) = E(X 2 ) E(X )2
E(X 2 ) = p 12 + pq 22 + pq 2 32 + ... + pq n (n + 1)2 + ...
R
E(X 2 ) dq = pq + pq 2 2 + pq 3 3 + pq 4 4 + ... + pq n+1 (n + 1) + ....
= qp(1 + q 2 + q 2 3 + ... + q n (n + 1) + ....)
= qp (1 1q)2
q)2 +2(1 q)q
(1 q)4
1+q
1
= qp
p2
p2
E(X 2 ) = p (1
V (X ) =
V (X ) =
p(1+q)
(1 q)3
q
p2
1+q
p2
avec q = 1
Statistique 3 (5009)
Donner E(X ) et V (X ).
53 / 113
Solution
10 C 0
C10
2
10
C12
11
12!
10!(12 10)!
1
1/66
1
66 (1
1 19
66 )
= 66 et V (X ) =
1
66
1
662
1
66 .
54 / 113
P(X = k ) = Ckn
1
n 1
(1
1 pp
p)k
1 (n 1)
= 65 66 = 4290
Statistique 3 (5009)
Statistique 3 (5009)
1
=
66
0.011
1
55 / 113
Statistique 3 (5009)
= Ckn
1 n
1 p (1
1 avec n
p)k
1 fois 1 et
56 / 113
Esprance et Variance
Loi de Poisson
Nous remarquons que la loi binomiale ngative est la loi dune somme
de n v.a. indpendantes suivant chacune la loi gomtriques,
correspondant aux n succs successifs :
Donc
n
X
X =
Xi
i=1
n
X
E(Xi ) =
n
p
V (Xi ) =
nq
p2
i=1
V (X ) =
n
X
i=1
Statistique 3 (5009)
Proprit
Si X1
Si Xn
57 / 113
P( ), X2
P(), alors, X1 + X2
P( + )
B(n; pn ) et lim npn = finie, alors, Xn converges (en
n !+1
Example
59 / 113
Statistique 3 (5009)
58 / 113
Loi uniforme
Dfinition
X suit la loi uniforme sur [a, b], on note X
probabilit est :
f (x) =
1
b
, 8x 2 [a, b] et 0 ailleurs
Statistique 3 (5009)
60 / 113
Esprance et variance
E(X ) =
IR
xf (x) dx =
b
a
Fonction de rpartition
x
b
V (X ) =
=
=
=
x2
b a dx
(b a)(b2 +ba+a2 )
3(b a)
1
3
a3 ) =
3(b a) (b
(a+b)2
b2 +ba+a2
3
4
2
2
4b +4ab+4a 3(a2 +2ab+b2 )
12
b2 2ab+a2
12
(b a)2
12
V (X ) =
1 2
x
a 2
a+b
E(X ) =
2
V (X ) = E(X 2 ) E(X )2
R
Rb
E(X 2 ) = IR x 2 f (x) dx = a
=
dx =
2(b
a)
(b2 a2 )
F (x) =
8
8
< 0
< 0 si x < a
R xsi x1 < a
x a
si x 2 [a; b]
dt
si
x
2
[a;
b]
f (t)dt =
=
: a b a
: b a
1
1 si x > b
1 si x > b
b2 +ba+a2
3
(b
Attention : Si X , Y
U ([a; b]) et X et Y sont indpendantes, alors,
X + Y ne suit pas une loi uniforme.
a)2
12
Statistique 3 (5009)
61 / 113
Statistique 3 (5009)
62 / 113
Loi exponentielle
La densit dune v.a. X qui suit la loi exponentielle est donne par :
f (x) = e
, si x
o > 0
EspranceRet Variance
+1
E(X ) = 0
xe x dx = [x(
1
= [ e x ]+1
= 1
0
0 et f (x) = 0 sinon
x )]+1
0
E(X ) =
V (X ) = E(X 2 ) E(X )2
R +1
E(X 2 ) = 0 x 2 e x dx = [x 2
= 2 E(X ) = 22
1
1
V (X ) = 22
2 =
2
V (X ) =
R +1
0
dx
R +1
0
2 x
x dx
1
2
Statistique 3 (5009)
63 / 113
Statistique 3 (5009)
64 / 113
Lois gamma
Esprance et
Variance
R
E(X ) =
Dfinition
(r )
x r 1
R +1
0
xxr 1
1)
V (X ) =
65 / 113
2,
n
Densit :
V(
2)
n
Si X
X +Y
n
2
1
2
n
2
1
22
1
n
22
e
( n2 )
1
x
2
x2
, 8x
dx
r (r +1)
r
2
66 / 113
Dfinition
0 et f (x) = 0, si x < 0
=n
2
m
N (, ) si sa densit est :
1
2
(x
IR
Statistique 3 (5009)
) , 8x 2 IR
R
On admet que f est une densit donc, IR p1 e
2
Z
p
2
1 x
e 2 ( ) dx =
2
= 2n
2 ,Y
n
2
n+m
x x r +1
Dfinition
Proprit : Si X
(r1 , ), Y
alors :X + Y
(r1 + r2 ; )
Loi du khi-deux
2)
n
dx
V (X ) =
Statistique 3 (5009)
E(
r
(r +2)
(r )
= 12 r (r +1)
r +2
(r )
(r )
r (r +1)
r2
r
1)!
f (x) =
xxr
V (X ) = E(X 2 ) E(X )2
r R +1
r R +1
E(X 2 ) = (r ) 0 x 2 e x x r 1 dx = (r ) 0 e
R +1 r +2
r
x x r +1 dx
= (r ) (rr+2)
+2
0
(r +2) e
dx
1) (r
r R +1
e
(r ) 0
x x r dx
E(X ) =
+1
xe x x r 1 dx
0
r
r +1
(r +1) R +1
r +1
0
(r )
(r +1) e
r
(r +1)
= 1 r (r(r)) = r
r +1
(r )
0 et f (x) = 0, si x < 0
, 8x
e
(r )
67 / 113
Statistique 3 (5009)
1
2
(x
) dx = 1 ou
(2)
68 / 113
Proprits
Si X
N(; ), La courbe de sa densit est symtrique par rapport
la droite verticale x = , do
) = 12 ,
P(X ) = P(X
P(X
h) = P(X
+ h) =
1 P(X 2[ h;+h])
, 8h
2
>0
Valeurs particulires
P( 1, 64 < X < + 1, 64 ) = 0, 90
P( 1, 96 < X < + 1, 96 ) = 0, 95
P( 3, 09 < X < + 3, 09 ) = 0, 99
69 / 113
Statistique 3 (5009)
70 / 113
Esprance et variance
E(
1
)= p
2
IR
1
2
(x
Avec la variable y ,
Z
Z
1 2
y
e 2 dy =
e
) dx
E(X )
IR
E(( X
2
) )
=
=
=
=
2
) )
1 2
y
2
1 2
y
2
dy
2
)
) dy
)]+1
1
) = E((
do
= E(( X
x 2
1
2
) e 2 ( ) dx
R x
p1
(
2 RIR
1
p
y (ye
2 IR
p
[y ( e
2
R
1 2
p1
e 2y
2 IR
E( X
Statistique 3 (5009)
IR
p
p
) 1 dx = 1
2 = 2
IR
V(
= 0 ou encore
) = E(( X
(x
Du calcul prcdent :
E(X ) =
V(X
1
2
V(
2
) )
)=
1 p
)2 ) = p
2 = 1
2
1
2
Ou encore,
V (X ) =
1 2
y
2
dy
V (X ) = 1
2
71 / 113
Statistique 3 (5009)
72 / 113
Proprit
1) La loi normale admet des moments de tout ordre.
2) Si X
N(1 ; 1 ), Y
N(
q 2 ; 2 ) et X et Y sont indpendantes
alors, X + Y
N(1 + 2 ,
2
1
N(0; 1) si sa
2
2)
N (0; 1) =) E(X ) = 0 et V (X ) = 1
X
N (; ) =)
N (0; 1)
73 / 113
Statistique 3 (5009)
2
n
74 / 113
chantillonnage
On veut estimer les paramtres dune population (ex. moyenne,
variance, proportion).
On constitue un chantillon de n observations partir desquelles
on tablit lestimation.
Exemple
X
N (0, 1).
Donner la loi de X 2 , son esprance et sa variance.
Statistique 3 (5009)
75 / 113
Statistique 3 (5009)
76 / 113
Dfinition
Fn (x) =
i=1
nFn (x) =
77 / 113
Esprance empirique
E(X ) = E(
i=1
i=1
En effet,
n
n
2
1X
1 X
Xi ) = 2
V (Xi ) =
n
n
n
1X 2
Xi
n
i=1
S 02 =
1X
1X
Xi ) =
E(Xi ) = m
n
n
Statistique 3 (5009)
S 02 =
78 / 113
X )2
i=1
i=1
i=1
1X
S =
(Xi
n
02
De lindpendance des Xi
V (X ) = V (
Statistique 3 (5009)
Proprit.
F (x))
Xi
E(X ) = m et V (X ) =
1
F (x)(1
n
Variance empirique
Proprit. On a
Statistique 3 (5009)
i=1
T = f (X1 , ..., Xn )
P
exemple f (X1 , ..., Xn ) = n1
Xi = X .
Autre terminologie, caractristique=statistique.
X =
n
P
n
1X
Nombre de v.a. Xi x
1X
=
1I{Xi x}
n
n
=
=
i=1
79 / 113
n
n
P
2
1P
2 = 1
(X
X
)
(Xi2 2Xi X + X )
i
n
n
i=1
i=1
n
n
n
P
2
1P 2
1P
( n Xi ) 2 n Xi X + n1 X
i=1
i=1
i=1
n
n
n
P
2
1P 2
1P
( n Xi ) 2X n Xi + X = ( n1 Xi2 )
i=1
i=1
i=1n
2
1P 2
Xi
X
n
i=1
Statistique 3 (5009)
2X X + X
80 / 113
Dcomposition de S 02
Biais de S 02
n
1X
(Xi
n
02
S =
m)
i=1
En effet, P
S 02 = n1 ni=1 (Xi m + m X )2
n
P
= n1 [(Xi m)2 2(Xi m)(X
=
=
=
=
i=1
n
1P
( n (Xi
i=1
n
1P
( n (Xi
i=1
n
1P
( n (Xi
i=1n
1P
(Xi
n
i=1
n
P
2 n1
m)2
(Xi
i=1
m)
m) + (X
m)(X
n
P
2(X
m) n1
m)2 )
2(X
m)(X
(X
E(S 02 ) =
Dmonstration.
m)2 )
m)2
Theorem
(Xi
i=1
m) +
m)2 ]
n
1P
(X
n
i=1
m) + (X
m) + (X
E(S 02 )
m)2
m)2
m)2
n
1P
(Xi
n
i=1
n
P
i=1
m)2
1
n
= E[
(X m)2 ]
1
2
= n E[(Xi m) ]
E[(X m)2 ]
i=1
n
P
= n1 V (Xi )
V (X )
=
n 1 2
n
m)2
(X
Statistique 3 (5009)
81 / 113
4]
et si n est trs
Statistique 3 (5009)
82 / 113
S =
S 02
E(S 2 )
n
X
(Xi
X )2
i=1
ainsi,
=n 1
et
= n 1 E(S 02 ) = n n 1 n n 1 2 = 2 et donc S 2
est sans biais.
Corrlation entre X et S 02
Sans perte de gnralits, on suppose que m = 0. En fait,
cov (X , S 02 ) = cov (X m, S 02 ) et S 02 (X ) = S 02 (X m).
02
02
cov (X , S 02 ) = E(X
)E(S 02 ) = E(X
"S ) E(X
!#S )
n
n
2
1P
1P 2
=E
Xi
Xj
X
n
n
"i=1 j=1 !#
n
n
P
P
3
= n12 E
Xi
Xj2
E(X )
i=1
j=1
!
n
n
P
P
3
= n12 E
Xi Xj2
E(X )
S2
3 #
n
P
P
1
cov (X , S 02 ) = n12 E
Xi3
E
Xi
n
i=1
n
i=1
n
P 3
P
1
1
3
= n2 E
Xi
E
Xi
( explication prcdente)
n3
On obtient
i=1
i=1
cov (X , S 02 ) =
3
n2
3
n 1
=
3
3
n
n3
i=1j=1
Statistique 3 (5009)
83 / 113
Statistique 3 (5009)
84 / 113
chantillon gaussien
Ici, X
N (m, ). Donc, X1 , ..., Xn est un chantillon de N (m; ).
Comme les Xi sont indpendantes,
X
N (m, p )
n
(n
1)S 2
2
Et aussi,
V (S 2 ) =
n2
E(S 2 ) =
Remarque
V (S 02 ) = 2
2
n 1
que
E(S 02 ) =
Theorem
nS 02
2,
2
n
85 / 113
Statistique 3 (5009)
86 / 113
Exemple
X
10
Dfinition
2 .
24
t1 , t2 , tels que P(
2
24
les fractiles
< t1 ) = 0.05 et P(
2
24
On a X =
n
1P
Xi
n
i=1
(n 1)S 2
Dautre part
< t2 ) = 0.95.
(n 1)S 2
2
2
n
E(Tn ) = 0 et V (Tn ) =
N (0; 1) et Y
87 / 113
N (m; pn ) donc,
2 .
n 1
U
alors, q
Y
n
X m
2
p
Tn
, 8n > 2
N (0, 1)
Tn
X m
n et
1
88 / 113
Application
Le rsultat prcdent est trs utile car il ne dpend pas de , on
utilisera donc cette formule chaque fois que est inconnu.
Exemple (suite)
On met deux hypothses
H0 : m0 = X = m ici m = 10,
Statistique 3 (5009)
89 / 113
Loi de Fisher-Snedecor
La loi de Fisher-Snedecor n et m degrs de libert, note F (n, m),
2, Y
2 et U et Y sont
est dfinie comme suit : Si U
n
m
U/n
indpendantes, alors, Y /m
F (n, m)
m
m 2 , 8m
Statistique 3 (5009)
2m2 (n+m 2)
, 8m
n(m 22 )(m 4)
>4
Exemple
X , Y , Z et W sont des v.a. IID, suivant N (0, 1). Posons R =
Donner t0.95 tq P(R t0.95 ) = 0.95
2 et Y 2 + Z 2 + W 2
2 . Do
On a X 2
1
3
2
3 Y 2 +ZX2 +W 2 = 3R
F (1, 3). On lit de la table de F (1, 3)
P(3R x) = 0.95,
X2
Y 2 +Z 2 +W 2
90 / 113
Dfinition
S 2 = 0, 275994
91 / 113
Statistique 3 (5009)
92 / 113
Exemple
X \Y 0
1
5
7
1
0.11 0.06 0.1
0.08
2
0.09 0.08 0.13 0
6
0.05 0.07 0.12 0.11
p22 = PXY (2; 1) = 0.08
p14 = PXY ( 1; 7) = 0.08. On peut vrifier
que
XX
PXY (xi , yj ) = 1
i
proba. totales).
Do
P(X = xi ) =
m
X
P(Y = yj ) =
i=1
pij = pj
y1
x1
..
.
xi
..
.
xn
pY
On a
yj ym PX
..
.
..
.
pij pi
..
.
..
.
pj 1
n
X
pij = pi
pi = 1 et
i=1
j=1
Statistique 3 (5009)
n
X
93 / 113
m
X
j=1
pj = 1
Statistique 3 (5009)
94 / 113
loi conditionnelle
Loi conditionnelle de X sachant Y = yj
Exemple
X \Y 0
1
5
1
0.11 0.06 0.1
2
0.09 0.08 0.13
6
0.05 0.07 0.12
PY
0.25 0.21 0.35
p3 = 0.35
p4 = 0.19.
On peut vrifier que
n
X
i=1
7
0.08
0
0.11
0.19
P(X = xi /Y = yj ) =
PX
0.35
0.3
0.35
1
P(Y = yj \ X = xi )
pij
=
P(X = xi )
pi
m
X
pi = 1 et pj = 1
X \Y
1
..
.
j=1
0
0.11
..
.
yj
P(Y /X =
Statistique 3 (5009)
P(X = xi \ Y = yj )
pij
=
P(Y = yj )
pj
95 / 113
1
0.06
..
.
5
0.1
..
.
7
PX
0.08 0.35
..
.
0
1
5
7
1) 0.11/0.35 0.06/0.35 0.1/0.35 0.08/0.35
Statistique 3 (5009)
96 / 113
Remarque
X et Y sont indpendantes ssi
pij = pi pj , 8i, 8j
E(Y /X = x) =
i,j
xi yj pi. p.j =
i,j
X
i
xi pi.
X
j
Statistique 3 (5009)
on a not '(X ) car cest une fonction dfinie sur les images de X ,
le rsultat est donc une compose de deux v.a.
Proprit
EsprancePdu produit
E(XY ) = xi yj pij , si de plus X et Y sont indpendantes, on a :
X
97 / 113
Dmonstration.
Statistique 3 (5009)
98 / 113
Exemple
En effet,
P
E[E(Y /X )] = P(X = x)E(Y /X = x)
x
P
P
= P(X = x) P(Y = y /X = x) y
x
y
P
P
=
P(Y = y /X = x) P(X = x) y
y x
P
= P(Y = y ) y = E(Y )
E(Y /X = R) =
Remarque
1
6
E(Y /X = B) =
Statistique 3 (5009)
yj P(Y = yj /X = x)
j=1
x 7! E(Y /X = x)
i,j
E(XY ) =
n
X
On en conclut E(Y ) =
99 / 113
2
6
21
4
3
4
5
6 + 6 + 6
22
23
4
4
E[E(Y /X )] = 23
6
21
6 = 6
24
20
4 =
4
1
21
+
6
3 (
Statistique 3 (5009)
5) =
2
3
100 / 113
Variance conditionnelle
E(Y /X = x)]2 /X = x)
1) calcul de E[V (Y /X )] :
1
21 2
1
21 2
35
2
V (Y /X = R) = 16 (1 21
6 ) + 6 (2
6 ) + ... + 6 (6
6 ) = 12
1
1
1
2
2
2
V (Y /X = B) = 4 ( 2 + 5) + 4 ( 4 + 5) + ... + 4 ( 8 + 5) = 5
Do
2 35 1
65
E[V (Y /X )] =
+ 5=
3 12 3
18
2) Dautre part, V [E(Y /X )] = 23 ( 21
6
2 2
3)
2 2
3)
172
18
Au final
V (Y ) = E[V (Y /X )] + V [E(Y /X )] =
V (Y ) = E[V (Y /X )] + V [E(Y /X )]
Statistique 3 (5009)
+ 13 ( 5
101 / 113
Statistique 3 (5009)
65 172
354
59
+
=
=
18
18
18
3
102 / 113
Exemple
P(X = xi \ Y = yj )
103 / 113
Statistique 3 (5009)
104 / 113
wk ) + P(X > wk \ Y = wk )
Statistique 3 (5009)
0
0.11
0.09
0.05
1
0.06
0.08
0.07
max{X , Y }
uk 0
pk 0.11
min{X , Y }
wk
1
pk 0.35
5
0.1
0.13
0.12
7
0.08
0
0.11
1
2
5
6
7
0.06 0.17 0.23 0.05 + 0.07 + 0.12 0.19
0
1
2
5
6
0.14 0.15 0.13 0.12 0.11
105 / 113
Statistique 3 (5009)
106 / 113
IR
IR
Exemple
10xy 2
si 0 x y 1,
h(x, y ) =
0
sinon.
Statistique 3 (5009)
107 / 113
Statistique 3 (5009)
108 / 113
h(x, y )
h(x, y )
et g(y /X = x) =
g(y )
f (x)
IR2
IR2
E(XY ) =
IR
IR
xyh(x, y )dxdy
IR
Statistique 3 (5009)
109 / 113
0 x 1,
x z x +1
y )g(y )dy
Statistique 3 (5009)
Exemple
X
U ([0, 1]), Y
U ([0, 1]) et X et Y sont indpendantes. Quelle est
la loi de RZ = X + Y
fZ (z) = IR f (x)g(z x)dx
Domaine dintgration :
IR
y , y )dy
fZ (z) =
110 / 113
8 Rz
< R0 1dx, si z 2 [0; 1],
1
1g(z x)dx =
1dx, si z 2 [1; 2],
: z 1
0, sinon.
8
< z, si z 2 [0; 1],
2 z, si z 2 [1; 2],
fZ (z) =
:
0, sinon.
1
0
i
F IGURE: Densit de fZ
111 / 113
Statistique 3 (5009)
112 / 113
E(X ))(Y
E(X )E(Y )
cov (X , Y )
X Y
113 / 113