Anda di halaman 1dari 335

Cours de DEUG

Probabilites et Statistiques
Avner Bar-Hen
Universite Aix-Marseille III
20022003

Table des mati`eres


Table des mati`eres

Analyse combinatoire
1
Arrangements . . . . . . . . . . . . . . . . .
1.1
Denombrement . . . . . . . . . . . .
2
Permutations . . . . . . . . . . . . . . . . .
2.1
Denombrement . . . . . . . . . . . .
3
Combinaisons . . . . . . . . . . . . . . . . .
3.1
Denombrement . . . . . . . . . . . .
3.2
Deux relations importantes . . . . . .
4
Applications . . . . . . . . . . . . . . . . . .
4.1
Developpement du binome de Newton
4.2
Le triangle de Pascal . . . . . . . . .
5
Exercices . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

1
1
1
3
3
3
3
4
5
5
5
8

Premiers e lements de theorie des probabilites


1
Notion dexperience aleatoire . . . . . . . . . .
2
Lensemble fondamental . . . . . . . . . . .
3
Les e venements . . . . . . . . . . . . . . . . .
4
Alg`ebre des e venements . . . . . . . . . . . .
5
La probabilite P . . . . . . . . . . . . . . . . .
5.1
Notion despace de probabilite . . . . .
6
Le cas e lementaire . . . . . . . . . . . . . . .
7
Rappel de combinatoire : applications . . . . .
7.1
Arrangements avec repetition . . . . .
7.2
Arrangements . . . . . . . . . . . . . .
7.3
Combinaisons . . . . . . . . . . . . . .
8
Probabilite conditionnelle . . . . . . . . . . . .
8.1
Probabilite conditionnelle . . . . . . .
8.2
Formule de Bayes . . . . . . . . . . .
9
Independance . . . . . . . . . . . . . . . . . .
9.1
Independance de deux e venements . . .
9.2
Independance de plusieurs e venements
10 Exercices . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

11
11
12
12
13
14
15
15
16
16
16
17
18
18
20
21
21
21
23

`
TABLE DES MATIERES

ii

11
2

Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Variables aleatoires discr`etes


1
Variable aleatoire a` valeurs dans R . . . . . . . . .
1.1
Loi de probabilite . . . . . . . . . . . . . .
1.2
Fonction de repartition . . . . . . . . . . .
1.3
Proprietes de la fonction de repartition . . .
1.4
Fonction de repartition et loi de probabilite
2
Variables aleatoires discr`etes . . . . . . . . . . . .
2.1
Fonction de repartition en escalier . . . . .
2.2
Representation graphique : lhistogramme .
3
Param`etres descriptifs dune distribution discr`ete .
4
Variable indicatrice . . . . . . . . . . . . . . . . .
4.1
Loi de probabilite . . . . . . . . . . . . . .
4.2
Param`etres descriptifs . . . . . . . . . . .
5
Loi discr`ete uniforme . . . . . . . . . . . . . . . .
5.1
Definition . . . . . . . . . . . . . . . . . .
5.2
Param`etres descriptifs . . . . . . . . . . .
6
La loi hypergeometrique . . . . . . . . . . . . . .
6.1
Schema du tirage exhaustif ou sans remise .
6.2
Param`etres descriptifs . . . . . . . . . . .
7
La loi binomiale . . . . . . . . . . . . . . . . . . .
7.1
Schema de Bernoulli . . . . . . . . . . . .
7.2
Param`etres descriptifs . . . . . . . . . . .
7.3
Formes de la distribution . . . . . . . . . .
7.4
Approximation dune loi hypergeometrique
8
La loi de Poisson . . . . . . . . . . . . . . . . . .
8.1
Calcul pratique des probabilites . . . . . .
8.2
Param`etres descriptifs . . . . . . . . . . .
8.3
Forme de la distribution . . . . . . . . . .
8.4
Processus de Poisson . . . . . . . . . . . .
8.5
Approximation dune loi binomiale . . . .
9
La loi geometrique . . . . . . . . . . . . . . . . .
9.1
Param`etres descriptifs . . . . . . . . . . .
10 Exercices . . . . . . . . . . . . . . . . . . . . . .
11 Solutions . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

33
33
33
34
34
35
35
35
37
38
41
41
41
41
41
42
42
42
43
43
43
44
45
46
47
47
48
48
48
48
50
50
51
57

Variables aleatoires a` densite


1
Densite de probabilite . . . . . . . . . . . . . . .
1.1
Variable aleatoire de distribution continue
1.2
Densite de probabilite . . . . . . . . . .
1.3
Densite de probabilite et loi de probabilite
1.4
Proprietes dune densite de probabilite . .
1.5
Representation graphique . . . . . . . . .
2
Param`etres descriptifs dune distribution a` densite

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

71
71
71
72
72
73
74
75

.
.
.
.
.
.
.

bar-hen.net

`
TABLE DES MATIERES

8
9
4

iii

2.1
Mode . . . . . . . . . . . . . . . .
2.2
Esperance . . . . . . . . . . . . . .
2.3
Moment dordre k . . . . . . . . .
2.4
Variance . . . . . . . . . . . . . . .
Loi uniforme . . . . . . . . . . . . . . . .
3.1
Fonction de repartition . . . . . . .
3.2
Param`etres descriptifs . . . . . . .
Loi exponentielle . . . . . . . . . . . . . .
4.1
Fonction de repartition . . . . . . .
4.2
Param`etres descriptifs . . . . . . .
Loi normale . . . . . . . . . . . . . . . . .
5.1
Param`etres descriptifs . . . . . . .
5.2
Notation . . . . . . . . . . . . . .
5.3
Forme de la distribution . . . . . .
5.4
Calcul des probabilites . . . . . . .
5.5
Utilisation de la table 11.6 . . . . .
5.6
Utilisation de la table 11.7 . . . . .
5.7
Utilisation de la table 11.8 . . . . .
5.8
Importance de la loi normale . . . .
5.9
Approximation dune loi binomiale
5.10 Approximation dune loi de Poisson
Autres lois . . . . . . . . . . . . . . . . . .
6.1
La loi gamma . . . . . . . . . . . .
6.2
La loi log-normale . . . . . . . . .
Melanges de distributions . . . . . . . . . .
7.1
Introduction . . . . . . . . . . . . .
7.2
Melanges de distribution discr`etes .
7.3
Melange de distributions a` densite .
7.4
Cas intermediaire . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . .
Solutions . . . . . . . . . . . . . . . . . .

Fonction dune variable aleatoire


1
Generalites . . . . . . . . . . . . . . . .
1.1
Fonction dune variable discr`ete .
1.2
Fonction dune variable a` densite
2
Un cas particulier : Y = aX + b . . . . .
2.1
X est une variable discr`ete . . . .
2.2
X est une variable a` densite . . .
2.3
Variable centreevariable reduite .
3
Esperance de Y = (X) . . . . . . . . .
4
Exercices . . . . . . . . . . . . . . . . .
5
Solutions . . . . . . . . . . . . . . . . .

bar-hen.net

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

75
75
76
77
79
79
79
80
80
80
81
81
82
82
82
83
84
85
86
86
89
89
90
91
91
91
92
92
93
94
99

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

113
113
113
114
116
116
117
119
120
122
124

`
TABLE DES MATIERES

iv

Tests dhypoth`eses
131
1
Problematique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
1.1
Hypoth`ese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
2
Niveau et puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
3
Strategie dun test dhypoth`ese . . . . . . . . . . . . . . . . . . . . . . . 133
4
Tests non parametriques . . . . . . . . . . . . . . . . . . . . . . . . . . 134
5
Quelques applications pratiques des methodes de statistique non parametrique135
5.1
Cas dun e chantillon isole . . . . . . . . . . . . . . . . . . . . . 135
5.2
Un test dajustement : le test binomial . . . . . . . . . . . . . . . 136
5.3
Test des signes . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
5.4
Test des rangs applique au cas dechantillons apparies (Wilcoxon) 140
5.5
Test des rangs applique au cas des e chantillons independants (MannWhitney) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
7
Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

Variables aleatoires a` valeurs dans R2


1
Introduction . . . . . . . . . . . . . . . . . . . . .
1.1
Loi de probabilite . . . . . . . . . . . . . .
1.2
Fonction de repartition . . . . . . . . . . .
1.3
Les couples de variables discr`etes . . . . .
1.4
Les couples a` densite . . . . . . . . . . . .
2
Lois marginales . . . . . . . . . . . . . . . . . . .
2.1
Couples de variables discr`etes . . . . . . .
2.2
Couples a` densite . . . . . . . . . . . . . .
3
Variables independantes . . . . . . . . . . . . . . .
3.1
Couples de variables discr`etes . . . . . . .
3.2
Couples a` densite . . . . . . . . . . . . . .
4
Lois conditionnelles . . . . . . . . . . . . . . . . .
4.1
Couples de variables discr`etes . . . . . . .
4.2
Couple a` densite . . . . . . . . . . . . . .
5
Esperances conditionnelles et courbes de regression
6
Covariance et coefficient de correlation . . . . . .
6.1
Definition . . . . . . . . . . . . . . . . . .
6.2
Covariance . . . . . . . . . . . . . . . . .
6.3
Coefficient de correlation . . . . . . . . . .
7
Variables aleatoires dans Rn . . . . . . . . . . . .
7.1
Independance . . . . . . . . . . . . . . . .
8
Exercices . . . . . . . . . . . . . . . . . . . . . .
9
Solutions . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

157
157
158
158
159
160
163
163
164
165
165
166
167
167
169
170
173
173
174
174
176
177
178
180

Fonctions de plusieurs variables aleatoires


1
Esperance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
Variable somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1
couple de variables discr`etes . . . . . . . . . . . . . . . . . . . .

191
191
192
192

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

bar-hen.net

`
TABLE DES MATIERES

3
4

5
6
7
8
9
10
8

2.2
Couples de variables a` densite . . . . . . . . . . .
2.3
Somme de n variables . . . . . . . . . . . . . . .
2.4
Application a` la loi binomiale . . . . . . . . . . .
2.5
Generalisation : combinaisons lineaire de variables
Variable difference . . . . . . . . . . . . . . . . . . . . .
Variable moyenne . . . . . . . . . . . . . . . . . . . . . .
4.1
Cas dun n-echantillon . . . . . . . . . . . . . . .
4.2
Application a la loi binomiale . . . . . . . . . . .
Variable produit . . . . . . . . . . . . . . . . . . . . . . .
Variable quotient . . . . . . . . . . . . . . . . . . . . . .
Variable variance . . . . . . . . . . . . . . . . . . . . . .
Inegalite de Schwarz . . . . . . . . . . . . . . . . . . . .
8.1
Applications . . . . . . . . . . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . .
Solutions . . . . . . . . . . . . . . . . . . . . . . . . . .

Lestimation
1
Preliminaires . . . . . . . . . . . . . . . .
1.1
Une inegalite importante . . . . . .
1.2
Inegalite de Bienayme-Tchebichev .
2
Estimation ponctuelle . . . . . . . . . . . .
2.1
Estimateur . . . . . . . . . . . . .

2.2
Ecart
quadratique moyen . . . . . .

2.3
Ecart
quadratique moyen et variance
2.4
Biais dun estimateur . . . . . . . .
2.5
Suite consistante destimateurs . . .
2.6
Exemples . . . . . . . . . . . . . .
3
Estimation par intervalle . . . . . . . . . .
3.1
Intervalle de confiance . . . . . . .
3.2
Principe . . . . . . . . . . . . . . .
3.3
Utilisation de la loi binomiale . . .
3.4
Utilisation de la loi de Poisson . . .
3.5
Utilisation de la loi normale . . . .
3.6
Absence de loi . . . . . . . . . . .
4
Exercices . . . . . . . . . . . . . . . . . .
5
Solutions . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

Les mod`eles gaussiens et leur utilisation a` letude


riances
1
Les lois du chi-deux . . . . . . . . . . . . . . .
1.1
Densite de probabilite . . . . . . . . .
1.2
Propriete dadditivite . . . . . . . . . .
1.3
Esperance et variance . . . . . . . . . .
1.4
Formes de la distribution . . . . . . . .
1.5
Convergence en loi . . . . . . . . . . .

bar-hen.net

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

193
195
199
200
200
201
201
201
202
203
204
205
205
206
208

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

217
217
217
217
217
217
218
218
218
218
219
220
220
221
221
222
223
224
225
227

des moyennes et des va.


.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

231
231
231
232
232
233
233

`
TABLE DES MATIERES

vi

3
4

7
8

1.6
Calcul de probabilites . . . . . . . . .
Les lois de Fisher-Snedecor . . . . . . . . . . .
2.1
Densite de probabilite . . . . . . . . .
2.2
Esperance et variance . . . . . . . . . .
2.3
Forme de la distribution . . . . . . . .
2.4
Calcul de probabilites . . . . . . . . .
Application a` letude des variances . . . . . . .
3.1
Probl`emes a` un e chantillon . . . . . . .
Test dhypoth`ese sur 2 . . . . . . . . . . . . .
4.1
Intervalle de confiance dune variance .
4.2
Probl`emes a` deux e chantillons . . . . .
4.3
Comparaison de deux variances. Test F
Les lois de Student . . . . . . . . . . . . . . .
5.1
Densite de probabilite . . . . . . . . .
5.2
Esperance et variance . . . . . . . . . .
5.3
Forme de la distribution . . . . . . . .
5.4
Convergence en loi . . . . . . . . . . .
5.5
Calcul des probabilites . . . . . . . . .
Application a` letude des moyennes . . . . . .
6.1
Probl`emes a` un e chantillon . . . . . . .
6.2
Test dhypoth`ese sur . . . . . . . . .
6.3
Intervalle de confiance dune esperance
6.4
Probl`emes a` deux e chantillons . . . . .
6.5
Comparaison de deux esperances . . .
Exercices . . . . . . . . . . . . . . . . . . . .
Solutions . . . . . . . . . . . . . . . . . . . .

10 Le test chi-deux
1
Introduction . . . . . . . . . . . . .
2
Test sur une loi multinomiale . . . .
2.1
Distribution a` deux classes .
2.2
Distribution a` r classes . . .
3
Test dajustement . . . . . . . . . .
3.1
Principe . . . . . . . . . . .
3.2
Estimation de param`etres . .
4
Tests dhomogeneite . . . . . . . .
4.1
Principe . . . . . . . . . . .
4.2
Generalisation . . . . . . .
` propos dun cas particulier
4.3
A
5
Exercices . . . . . . . . . . . . . .
6
Solutions . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

234
235
235
235
235
235
236
236
237
239
239
240
241
241
242
242
242
242
243
243
244
245
246
247
249
253

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

263
263
263
263
264
266
266
267
270
270
271
272
275
277

bar-hen.net

`
TABLE DES MATIERES

vii

11 Tables de valeurs numeriques


Factorielles . . . . . . . . . . . . . . . . . . . . . . . . .
Test du signe . . . . . . . . . . . . . . . . . . . . . . . .
Intervalle de confiance dune probabilite (loi binomiale) . .
Lois de Poisson . . . . . . . . . . . . . . . . . . . . . . .
Intervalle de confiance pour une esperance (loi de Poisson)
Loi normale centree reduite . . . . . . . . . . . . . . . . .
Loi normale centree reduite . . . . . . . . . . . . . . . . .
Loi normale centree reduite . . . . . . . . . . . . . . . . .
Lois de Student . . . . . . . . . . . . . . . . . . . . . . .
Lois du chi-deux . . . . . . . . . . . . . . . . . . . . . .
Lois de Fisher-Snedecor . . . . . . . . . . . . . . . . . .
Lois de Fisher-Snedecor . . . . . . . . . . . . . . . . . .
Valeurs critiques du test de Mann-Whitney . . . . . . . . .
Valeur critique du test du nombre de paires . . . . . . . . .
Test de Mann-Whitney . . . . . . . . . . . . . . . . . . .
Test de Wilcoxon . . . . . . . . . . . . . . . . . . . . . .
A Fonction de plusieurs variables
1
Introduction . . . . . . . . . . . . .
1.1
Representation graphique . .
1.2
Limite . . . . . . . . . . . .
1.3
Continuite . . . . . . . . . .
2
Fonctions composees . . . . . . . .
2.1
Fonction de fonction . . . .
2.2
Fonction composee . . . . .
2.3
Autre cas . . . . . . . . . .
3
Derivees partielles . . . . . . . . . .
3.1
Derivees partielles secondes
4
Exercices . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

281
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

297
297
297
298
299
299
299
300
301
301
302
306

B Integrales multiples
1
Integrale double . . . . . . . . . . . . .
1.1
Notion dintegrale double . . .
1.2
Calcul dune integrale double .
1.3
Proprietes . . . . . . . . . . . .
1.4
Cas particuliers . . . . . . . . .
1.5
Calcul de volumes et de surfaces
1.6
Changement de variables . . . .
2
Integrale triple . . . . . . . . . . . . . .
2.1
Notion dintegrale triple . . . .
2.2
Calcul dune integrale triple . .
2.3
Changement de variables . . . .
2.4
Generalisation . . . . . . . . .
3
Rappels de mecanique . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

309
309
309
309
311
311
312
313
315
315
315
317
317
317

bar-hen.net

.
.
.
.
.
.
.
.
.
.
.

`
TABLE DES MATIERES

viii

4
5

Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
Solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321

bar-hen.net

Chapitre 0
Analyse combinatoire
Lanalyse combinatoire fournit des methodes de denombrement particuli`erement utiles
en theorie des probabilites. Une application interessante est la demonstration du developpement
du binome de Newton ; ce developpement sera beaucoup utilise par la suite.

Arrangements

Definition 0.1 Etant


donne un ensemble de n objets, on appelle arrangements de p objets
toute suite de p de ces objets.
Cette definition implique que, pour obtenir un arrangement, il faut choisir p objets parmi
n et les ordonner, par exemple en leur attribuant une place parmi p ou un numero de 1 a`
p. Dans le langage de la theorie des ensemble, on dit :
Soit un ensemble E a` n e lements. On appelle arrangement de p e lements de E, une
injection de lensemble {1, 2, 3, . . . , p} dans E.
Deux arrangements formes de p objets peuvent donc e tre distincts soit par la nature des
objets, soit par leur ordre. On precise parfois arrangement sans repetition, parce qu`a
un objet ne peut e tre attribue quune place.
Exemple 0.1 Combien darrangements peut-on realiser en prenant deux objets parmi
4?
Soient les objets a, , b, c, d. En choisissant 2 objets et en les ordonnant, par exemple en
les alignant, on peut obtenir 12 arrangements :
a, b a, c a, d b, c b, d c, d
b, a c, a d, a c, b d, b d, c

1.1

Denombrement
On se propose de denombrer les arrangements possibles de p objets parmi n. On notera
Apn le nombre de ces arrangements.

Arrangements

Il est aise de calculer A1n = n, puis A2n = n(n 1) ; il existe en effet n facons de choisir
le premier objet et (n 1) facons de choisir le deuxi`eme lorsquon a dej`a le premier.
Pour determiner Apn , on raisonne par recurrence. On suppose Anp1 connu. On en deduit :
Apn = Ap1
n (n p + 1)
Il existe en effet Ap1
facons de choisir les (p 1) premiers objets de la suite et pour
n
chacune de ces possibilite, il reste n (p 1) = (n p + 1) facons de choisit le dernier.
On a donc successivement :
A1n
A2n
A3n
..
.
p
An

= n
= n(n 1)
= n(n 1)(n 2)
.
= ..
= n(n 1)(n 2) (n p + 1)

(np)(np1)(2)(1)
On peut e crire : Apn = n(n 1)(n 2) (n p + 1) (np)(np1)(2)(1)
Si pour k N et k 6= 0, on note k! = 1 2 3 . . . (k 1) k (k! se lit : factorielle
k), on a plus simplement :
n!
Apn =
(1)
(n p)!

Exemple 0.2 En prenant 3 objets parmi 4, on peut realiser A34 = 4!


= 24 arrangements.
1!
Pour verifier ce resultat, on peut utiliser lexemple 0.1. Soient les objets a, b, c, d. Les arrangements formes de trois objets parmi ces quatre sobtiennent en ajoutant un troisi`eme
objet aux arrangements formes de deux objets. On obtient :
a, b, c
a, b, d
b, a, c
b, a, d

a, c, b
a, c, d
c, a, c
c, a, d

a, d, b
a, d, c
d, a, b
d, a, c

b, c, a
b, c, d
c, b, a
c, b, d

b, d, a
b, d, c
d, b, a
d, b, c

c, d, a
c, d, b
d, c, a
d, c, b

On a bien A34 = A24 2 = 12 2


Un arrangement de p objets choisis parmi n peut e tre obtenu en tirant dabord un objet
parmi les n, puis un deuxi`eme parmi les (n 1) restants, etc. Le rang du tirage sert alors
a` ordonner les objets retenus.
On peut imaginer un type de tirage enti`erement different : on tire dabord un objet, on
le remet parmi les n apr`es avoir note sa nature, et on rep`ete p fois loperation. La suite
obtenue sappelle un arrangement avec repetition de p objets parmi n.
Il est clair que le nombre darrangements avec repetition de p objets parmi n est np .
On a en effet n possibilites pour chaque place, soit n n n = np possibilites
darrangement.

bar-hen.net

0. A NALYSE COMBINATOIRE

2 Permutations

Definition 0.2 Etant


donne un ensemble de n objets, on appelle permutation toute suite
de ces n objets.
Une permutation est donc obtenue en ordonnant lensemble de ces n objets. Cest un
arrangement particulier o`u tous les objets sont choisis ; deux permutations de n objets
donnes ne peuvent donc differer que par lordre de ces objets.
Exemple 0.3 Avec deux objets x et y, on peut obtenir 2 permutations : x, y et y, x si on
les ordonne en les alignant.

2.1

Denombrement
Soit Pn le nombre de permutations possibles avec n objets donnes. Le calcul de Pn est
simple.
On a en effet : Pn = Ann = n(n 1)(n 2) 1
Do`u
Pn = n!
(2)
Exemple 0.4 Avec trois objets a, b, c on obtient P3 = 3! = 6 permutations, a` savoir :
a, b, c b, c, a c, a, b c, b, a b, a, c a, c, b

Combinaisons

Definition 0.3 Etant


donne un ensemble de n objets distincts, on appelle combinaison
de p de ces objets tout ensemble de p de ces objets.
La notion dordre a maintenant compl`etement disparu. Deux combinaisons contenant p
objets peuvent donc seulement differer par la nature des objets.
Exemple 0.5 Soient les nombre 1, 2 , 3, 4. En choisissant 2 nombres, on peut obtenir 6
combinaisons : {1, 2}, {1, 3}, {1, 4}, {2, 3}, {2, 4}, {3, 4},

3.1

Denombrement
On se propose de denombrer les combinaisons possibles de pobjets
 pris parmi n. On
n
note Cnp le nombre de ces combinaisons. On note aussi parfois
.
p
On remarque quon peut ordonner une combinaison contenant p objets donnes de p!
mani`eres (autant que de permutations). En procedant de meme pour chacune des Cnp
combinaisons, on doit obtenir Apn arrangements.
On a donc :
p!Cnp = Apn
bar-hen.net

Combinaisons

Do`u :
Cnp =

n(n 1)(n 2) . . . (n p + 1)
p!

ce que lon peut e crire


Cnp =

n!
p!(n p)!

(3)

La definition 0.2 implique : Cn1 = n et Cnn = 1. Pour generaliser la relation 3 a` ce dernier


cas, on posera par convention : 0! = 1.
n!
Ceci permet decrire : 1 = n!0!
= Cn0 ; si on ne prend aucun objet parmi n, on obtient
lensemble vide.

3.2

Deux relations importantes


1.
Cnp = Cnnp

(4)

n!
n!
On a en effet, dapr`es la relation 3 : p!(np)!
= (np)!p!
On peut aussi remarquer qu`a tout sous-ensemble de p objets correspond son complementaire
forme des (n p) objets restants.

2.
p
p1
Cnp = Cn1
+ Cn1

(5)

En explicitant on a successivement :
p
p1
Cn1
+ Cn1
=

=
=
=
=

(n 1)!
(n 1)!
+
(n 1 p)!p! (n 1 p + 1)!(p 1)!
(n 1)(n 2) . . . (n p) (n 1)(n 2) . . . (n p + 1)
+
p!
(p 1)!
(n 1)(n 2) . . . (n p + 1)
(n p + p)
p!
n(n 1)(n 2) . . . (n p)
p!
p
Cn

On peut aussi demontrer la relation 5 en notant que, si on designe a` lavance un objet parmi n, les combinaisons possibles avec ces n objets pris p a` p se decomposent
en deux categories :
p1
celles qui contiennent cet objet. Il y en a Cn1
; pour completer chaque combinaison il suffit en effet de choisir (p 1) objets parmi les (n 1) restants.
p
celles qui ne contiennent pas cet objet. Il y en a Cn1
; pour les obtenir il faut en
effet choisir p objets parmi les (n 1) qui sont differents de lobjet designe.

bar-hen.net

0. A NALYSE COMBINATOIRE

4 Applications
4.1 Developpement du binome de Newton 1
Lanalyse combinatoire permet aisement le developpement de (a + x)n o`u n est un entier
strictement positif (n N, n 6= 0)

Elever
(a + x) a` la puissance n revient a` multiplier n binomes identiques a` (a + x). Le
resultat est une somme ; chaque e lement de cette somme est le produit de n facteurs, du
type a ou x, choisis chacun dans un binome different.
On obtient donc des termes de la forme ap xnp (0 p n). Chacun deux sera present
autant de fois quil existe de facons de choisir les p facteurs a, cest-`a-dire de choisir p binomes parmi les n (les binomes o`u lon choisit les facteurs x sont alors bien
determines) ; il y en a donc Cnp . Sommer Cnp termes identiques a` ap xnp revient a` multiplier ap xnp par le coefficient numerique Cnp . On obtient ainsi, si n N et n 6= 0 :
(a + x)n = xn + Cn1 axn1 + + Cnp ap xnp + + Cnn2 an2 x2 + Cnn1 an1 x + an (6)
Comme Cnnp = Cnp cette expression met en e vidence la symetrie des coefficients numeriques
du developpement du binome de Newton range suivant les puissances croissantes de a
(ou de x).
Exemple 0.6 En donnant a` n successivement les valeurs 1, 2, 3 on obtient :
(a + x)1 = 1a + 1x
(a + x)2 = 1a2 + 2ax + 1x2
(a + x)3 = 1a3 + 3a2 x + 3ax2 + 1x3

4.2

Le triangle de Pascal 2
On consid`ere les developpements :
p1 p1 np
p
0
1
(x + a)n1 = Cn1
xn1 + Cn1
axn2 + + Cn1
a x
+ Cn1
ap xnp1 +
|
{z
}
|
{z
}
n
0 n
1
n1
p p np
(x + a) = Cn x + Cn ax
+ + Cn a x
+

On sapercoit que le coefficient Cnp , dapr`es la relation 5 peut e tre obtenu par laddition de
p
p1
Cn1
et de Cn1
. Do`u lidee du triangle de Pascal qui permet dobtenir, par recurrence,
les coefficients numeriques du developpement du binome de Newton.
Exemple 0.7 En utilisant le triangle de Pascal (Table 1), on peut e crire :
(a + x)6 = x6 + 6ax5 + 15a2 x4 + 20a3 x3 + 15a4 x2 + 6a5 x + a6
1
2

NEWTON Issac (1642-1727), mathematicien et physicien anglais


PASCAL Blaise (1623-1662), mathematicien, physicien, philosophe et e crivain francais

bar-hen.net

Applications

Lanalyse combinatoire conduit a` utiliser des factorielles.


Quand on sait que 20! 2.432 1018 , on se rend compte des difficultes rencontrees dans
les calculs. Par la suite il sera surtout interessant de connatre lordre de grandeur dune
probabilite. Il est donc utile dobtenir une valeur approchee de n! pour les valeurs e levees
de n ; ceci est possible par lintermediaire de la formule de Stirling3 :

n! = nn en 2n[1 + (n)]
(7)
o`u (n) 0 lorsque n +
Si n est suffisamment grand, on peut donc, dans les calculs, e crire :

n! nn en 2n

(8)

En utilisant les logarithmes, il est alors facile dobtenir une bonne approximation de n!
Exemple 0.8 On se propose destimer 20! en utilisant lequation 8.

1
1
log 20 + log 2 + log
2
2
20.5 log 20 20 log e + 0.39908

log(20!) 20 log 20 20 log e +

On obtient : log(20!) 18.38439, do`u 20! 2.423 1018 , soit une erreur relative qui est
seulement de lordre de 4.3 103

STIRLING James (1698-1770), mathematicien anglais

bar-hen.net

0. A NALYSE COMBINATOIRE

Tableau 1 Triangle de Pascal


4
5 6 7

0 1 2
3
1
1 1
1 2 1
2
3
1 3 3
1
4
1 4 6
4
1
5
1 5 10 10 5
1
6
1 6 15 20 15 6 1
1 7 21 35 35 21 7 1
7
On lit : C52 = 10. Ce resultat sobtient en ajoutant C42 (meme colonne, ligne du dessus) et
C41 (colonne de gauche, ligne du dessus)
n

bar-hen.net

Exercices

5 Exercices
1. Combien de nombres peut-on former avec les chiffres 0,1,2,3,4,5,6,7, chaque chiffre
netant present qune fois, de facon que chaque nombre commence par un 7 et soit
divisible par 5,
si les nombres sont de 8 chiffres ?
si les nombres sont de 6 chiffres ?
Reponses : 1440 ; 720
2. Cinq hommes et quatre femmes vont au cinema. Ils disposent dune rangee de
neuf places. De combien de facons differentes peuvent-ils sasseoir si lon veut
que chaque femme soit entouree de deux hommes ?
Reponse : 2880
3. On dispose de n boules. On veut former k groupes contenant respectivement r1 , r2 , . . . , rk
boules, en utilisant toutes les boules (r1 + r2 + + rk = n). De combien de facons
peut-on le realiser ?
Reponses : r1 !r2n!!rk !
4. On dispose de 5 billes rouges, 2 blanches et 3 bleues. Si les billes de meme couleur
sont indiscernables, de combien de facons peut-on les aligner ?
Reponses : 2520
5. Un groupe de 5 mathematiciens et 7 physiciens doit e lire un comite representatif
forme de 2 mathematiciens et 2 physiciens. Quel est le nombre de resultats possibles si :
les 12 personnes sont e ligibles ?
un physicien est e lu doffice ?
2 mathematiciens ne sont pas e ligibles ?
Reponses : 210 ; 60 ; 63
6. Le jeu de lecarte se joue avec 32 cartes, chaque joueur en recevant 5.
combien de mains differentes peut avoir un joueur ?
combien y-a-t-il de mains contenant 2 atouts et 2 seulement ?
Reponses : 201376 ; 56672
7. Quel est le nombre de groupes de six personnes que lon peut former avec 4 garcons
et 6 filles si lon veut quils contiennent obligatoirement 2 garcons,
donnes ?
seulement ?
au moins ?
Reponses : 70 ; 90 ; 185
8. Demontrer les trois relations :
n
X

Cni = 2n

(9)

i=0
n
X
i=1,i

impair

Cni

n
X
i=1,i

Cni = 2n1

(10)

pair
bar-hen.net

0. A NALYSE COMBINATOIRE

(11)
9. Developper : (P + Q)10
Reponse : Q10 +10P Q9 +45P 2 Q8 +120P 3 Q7 +210P 4 Q6 +252P 5 Q5 +210P 6 Q4 +
120P 7 Q3 + 45P 8 Q2 + 10P 9 Q + P 10
10. Estimer c50
100
Reponse : 1.011 1029

bar-hen.net

Chapitre 1
Premiers e lements de theorie des
probabilites
Le but de la theorie des probabilites est de degager des methodes permettant de faire des
predictions, qualitatives ou quantifiees, sur le deroulement des phenom`enes qui sont regis
par le hasard. On va dabord preciser et isoler lobjet de notre e tude :

Notion dexperience aleatoire


Dans chaque cas, le phenom`ene e tudie peut e tre concu comme une experience dont
le resultat est aleatoire : lorsquon reproduit lexperience (dans des conditions precisees)
le resultat de lexperience varie et semble dependre du hasard. On dit quil sagit dune
experience aleatoire ; on la representera par la lettre E.
Exemple 1.1 on jette deux des de couleurs differentes : le resultat de lexperience est
exprime par la donnee des nombres affiches par chacun des des.
Exemple 1.2 On tire au hasard successivement et sans remise, deux boules dune
urne contenant 10 boules numerotees de 1 a` 10 : le resultat peut e tre exprime par la
succession des deux numeros des boules tirees.
Exemple 1.3 On note la taille dun individu pris au hasard dans une population
donnee, le nombre consiste en un nombre reel (lunite de longueur ayant e te choisie)
Remarquons que tr`es souvent le hasard resulte, ou bien dun manque dinformations sur
les conditions experimentales, ou bien de limpossibilite pratique dexploiter les donnees
experimentales pour prevoir le resultat.
Exemple 1.4 jeux de cartes, roulettes, jeu de des, etc.
Pour e tudier un phenom`ene aleatoire, il faudra dabord lassimiler a` une experience
aleatoire (qui est presque toujours une notion ideale ou virtuelle) et associer ensuite a`
ce phenom`ene un mod`ele mathematique ; cest sur ce mod`ele quon pourra le plus commodement raisonner et calculer. Cette modelisation est lobjet des paragraphes suivants.
11

12

Lensemble fondamental

2 Lensemble fondamental
On appelle ensemble fondamental associe a` E, tout ensemble dont les e lements representent
toutes les issues (ou resultats) possibles de E. Pour chacun des trois exemples mentionnes
precedemment, on a :
Exemple 1.1 = {[a, b]; a, b entiers compris entre 1 et 6 }
Exemple 1.2 = {[a, b]; a, b entiers distincts compris entre 1 et 10 }
Exemple 1.3 = R+ = [0, +[. On pourra en pratique se restreindre a` un intervalle
plus petit
Exemple 1.5 (jeu de pile ou face) si E consiste a` jouer 2 fois a` pile ou face
= {P P, P F, F P, F F }
On a un mod`ele presque identique pour lexperience E suivante : on choisit au hasard
une famille parmi les familles de 2 enfants, et on note le sexe des enfants, celui du plus
jeune, puis celui de lane : = {F F, F G, GF, GG}.
Si on note seulement le sexe des enfants sans se preoccuper de lordre des naissances, on
aura un ensemble different = {F F, F G, GG}
Exemple 1.6 (mod`ele mendelien de transmission dun caract`ere) on consid`ere un gene
admettant deux all`eles A et a ; E consiste en lobservation du descendant direct de deux
heterozygotes ; on prend = {AA, Aa, aa} (ensemble des genotypes possibles).
Si on consid`ere a` la fois deux genes, admettant chacun deux all`eles A, a et B, b, on
prendra = {AABB, AABb, AaBB, . . .} (il y 9 issues possibles).

Les e venements
Considerons une propriete (ou qualite) E liee au resultat (ou a` lissue) de lexperience
aleatoire E : a` chaque mise en uvre de E, ou bien E est realisee, ou bien E nest pas
realisee.
Exemple 1.7 Dans lexemple 1.1, on a E=les deux des affichent des nombres pairs ;
dans lexemple 1.2, on a E=on a tire au moins une boule de numero impair, etc.
Une telle propriete E permet de partager lensemble fondamental en deux parties :
dune part, lensemble AE des points representant une issue de E pour laquelle E
a lieu, et dautre part, la partie AE formee des points associes a` une issue ne
realisant pas E.
On obtient ainsi une representation de la propriete E par une partie AE de .
On dit que AE est levenement attache a` la propriete E ; on dit aussi que AE est levenement
E est realise. On voit immediatement que AE est aussi un e venement, cest levenement
non E est realise, cest-`a-dire E nest pas realise.

bar-hen.net

E MENTS DE TH E ORIE DES PROBABILIT E S


1. P REMIERS EL

13

Exemple 1.8 Dans lexemple 1.1, levenement la somme des nombres obtenus est 6
est lensemble A = {(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)}
Dans lexemple 1.6, considerons que le mod`ele de transmission dun caract`ere lie a` un
gene admettant deux all`eles A, a soit une couleur : vert lie a` A, ou jaune lie a` a et supposons A dominant. Levenement le descendant presente le caract`ere vert est represente
par {AA, Aa}.
enement certain : cest levenement lie a` une propriete realisee lorsquon effectue
Ev
E ; cet e venement est lensemble tout entier.
enement impossible : cest levenement associe a` une propriete qui nest jamais realisee ;
Ev
cet e venement est la partie vide de E, notee .
enement complementaire : si A est un e venement, on dit que A est levenement
Ev
complementaire de A dans . On retiendra que A est levenement non A.
enement e lementaire : on qualifie ainsi les e venements lies a` E qui ne sont realises
Ev
que pour une issue de E ; ce sont les parties de reduites a` un point.

4 Alg`ebre des e venements


Outre loperation de complementation, il existe deux autres operations importantes sur
lensemble A des e venements lies a` une experience aleatoire donnee E :
La reunion : si A et B sont deux e venements (pour E), levenement A ou B est la
partie de reunion des parties de A et B, et on a : A ou B=A B.
Lintersection : levenement A et B est la partie de intersection de A et B, et on a :
A et B=A B.
Exemple 1.9 sur le jeu de pile ou face (exemple 1.5) avec deux lancers : levenement
e lementaire P P (2 fois pile) est intersection de levenement A=dabord pile={P P, P F },
avec levenement B=Pile au 2e` me lancer={P P, F P }.
Levenement reunion A B est levenement au moins une fois pile ; levenement
complementaire A B de A B est levenement jamais pile, cest-`a-dire deux fois
face.
Lensemble A des e venements est donc naturellement muni des operation de complementation,
de reunion et dintersection ; on traduit ce fait en disant que A est une alg`ebre de parties
de . Une e tude approfondie de la theorie des probabilites necessite aussi la consideration
de reunion (ou dintersection) de suites infinies devenements.
Dans ce cours, on se limitera presque toujours a` des operations portant sur un nombre
fini devenements.
enements incompatibles : on dit que les e venements A et B (relatifs a` une meme
Ev
experience aleatoire) sont incompatibles, si ils ne peuvent e tre realises simultanement,
autrement dit si A B = .

bar-hen.net

14

La probabilite P

Syst`eme complet devenements : on appelle ainsi toute suite A1 , . . . , An devenements


deux a` deux incompatibles, telle que A1 A2 An = ; les ensembles Ai ,
1 i n, forment alors une partition de .
Exemple 1.10 E= lancer de deux des ; on pose, pour i = 1, 2, . . . , 6, Ai =le premier
de affiche i.
Pour achever de decrire le mod`ele mathematique associe a` lexperience aleatoire, il reste
a` introduire la notion de probabilite.

La probabilite P
On admet qu`a chaque e venement A A est associe un nombre P(A), compris entre 0
et 1 et qui mesure la probabilite de realisation de A.
Intuitivement, P(A) est la frequence de realisation de A au cours dun tr`es grand nombre
de mises en uvre de lexperience aleatoire consideree.
P est une application, definie sur A, (lalg`ebre des e venements attaches a` E) et a` valeurs
dans lintervalles [0, 1] :
P : A 7 [0, 1]
Il est clair quon doit avoir P() = 0 et P() = 1.
Considerons maintenant deux e venements incompatibles A et B ; imaginons quon effectue lexperience E N fois (N tr`es grand) et quon note nA et nB le nombre de fois o`u
on a observe A et B (respectivement) au cours de ces N realisations de E.
Comme A et B sont incompatibles, il est clair que le nombre nAB de realisations de A
ou B est exactement nAB = nA + nB . Do`u
nA nB
nAB
=
+
N
N
N
autrement dit, la frequence de realisation de A B est la somme des frequences de
realisation de A et de B. Ce raisonnement conduit a` la propriete suivante :
Si A et B sont deux e venements incompatibles, on a :
P(A B) = P(A) + P(B)
Plus generalement, si A1 , A2 , . . . , An sont deux a` deux incompatibles :
P(A1 An ) = P(A1 ) + + P(An )
Consequences :
1. pour tout e venement A A :
P(A) = 1 P(A)

bar-hen.net

15

E MENTS DE TH E ORIE DES PROBABILIT E S


1. P REMIERS EL

2. si A A, B A :
P(A B) + P(A B) = P(A) + P(B)
et en particulier
P(A B) P(A) + P(B)
On pourra e tablir ces relations a` titre dexercice.
Soulignons encore un propriete generale des probabilites : Soient A A, B A, si
A B, la realisation de A entrane celle de B et on dit que A implique B ; comme
P(B) = P(B A) + P(B A) (pourquoi ?), on voit que :
si A B, alors P(A) P(B)

5.1

Notion despace de probabilite


On dit que le triplet (, A, P) constitue par la donnee de , de lalg`ebre des e venements
A et de la probabilite P, est un espace de probabilite. Cest le mod`ele mathematique
quon associe a` lexperience aleatoire E.
Dans chaque probl`eme concret, des hypoth`eses naturelles, ou des faits experimentaux,
permettent de determiner la probabilite P ou du moins celle de certains e venements quon
est conduit a` considerer.
Considerons un premier exemple :

6 Le cas e lementaire
Supposons lensemble fondamental fini, et supposons que toutes les issues ont la meme
probabilite (on dit quelles sont e quiprobables). Il est alors facile de determiner P :
Notons |A| le nombre delements de la partie A de . Comme P() est la somme des
probabilites des e venements e lementaires {}, ( parcourant ) et comme les P({})
sont par hypoth`eses e gaux entre eux, on obtient :
1
||

P({}) =

P({}) ; do`u :

Si A est une partie de , P(A) =

P(A) =

|A|
||

cest-`a-dire le rapport du nombre des issues favorables au nombre de toutes les issues
possibles.
Dans ce cas, le calcul de la probabilite dun e venement peut donc e tre ramene a` un
denombrement.

bar-hen.net

16

Rappel de combinatoire : applications

Exemple 1.11 Prenons E= on joue deux fois avec un de.


= {[a, b]; a, b entiers , 1 a, b 6}
Si le de est e quilibre, il est naturel de supposer les e venements e lementaires e quiprobables,
do`u, P({}) = 1/36 pour tout .
La probabilite que la somme des nombres obtenus soit 6 est 5/36.

7
7.1

Rappel de combinatoire : applications


Arrangements avec repetition
Soient X1 , X2 , . . . , Xn n ensembles finis et X = X1 X2 Xn le produit cartesien
de ces ensembles :
X = {(x1 , x2 , . . . , xn ); x1 X1 , x2 X2 , . . . , xn Xn }
(Rappel : un n-uple, tel que (x1 , x2 , . . . , xn ) est une suite de n e lements ranges dans un
certain ordre)
Alors, le cardinal (ou nombre delements) de X est le produit des cardinaux de X1 , X2 , . . . , Xn :
|X| = |X1 | |X2 | |Xn |

Exemple 1.12 On jette trois des (= E).


Alors = {(a, b, c); a, b, c entiers, 1 a, b, c 6} contient 6 6 6 = 216 e lements.
La probabilite dobtenir deux 1 et un 3 est 3/216.
Remarque : on a modelise lexperience en faisant comme si les trois des e taient distinguables ; cest ce qui permet de supposer toutes les issues e quiprobables.
Soient X un ensemble a` n e lements et p un entier. On appelle p-arrangement (avec
repetition) delements de X la donnee de p e lements de X, non necessairement distincts,
ranges dans un certain ordre.
Il revient au meme de se donner un e lements de X p = X
| X
{z . . . X}.
p fois
Il y a donc np p-arrangements (avec repetition) delements de X.

7.2

Arrangements
Considerons un ensemble X a` n e lements et p un entier compris entre 0 et n. Un parrangement delements de X est la donnee de p e lements distincts de X, ranges dans un
certain ordre. Le nombre Apn de tels arrangements est donne par la formule :
Apn = n(n 1) (n p + 1)
bar-hen.net

E MENTS DE TH E ORIE DES PROBABILIT E S


1. P REMIERS EL

17

Il y a en effet n facons de choisir le 1er e lement de larrangement, puis, ce choix e tant


fait, (n 1) choix de pour le 2e` me , . . ., et (n p + 1) choix possibles pour le pe` me e lements
de larrangement lorsquon a choisi les p 1 premiers. Ce qui justifie la formule.
En utilisant la notation factorielle (k! = 1 2 . . . k si k entier et k 1, et par
convention 0! = 1), on peut aussi e crire :
Apn =

n!
(n p)!

Prenons p = n : un n-arrangement delements de X est la donnee dun ordre total sur


X ; on dit aussi que cest une permutation de X. Il y a en tout n! = Ann permutations de
X.
Exemple 1.13 E=on jette 3 des. Il y a 3! = 6 mani`eres dobtenir un 1, un 2 et un 5.
La probabilite de cet e venement est donc 6/216= 1/36.
Exemple 1.14 E= on tire au hasard et sans remise 3 boules dans une urne contenant
10 boules dont 5 rouges, 3 noires et 2 blanches. Cherchons la probabilite dobtenir successivement une boule rouge, une boule noire et une boule blanche (evenement RN B).
On prend (en imaginant une numerotation des boules) :
= {(a, b, c); a, b, c entiers 2 a` 2 distincts, 1 a, b, c 10}
contient A310 = 10 9 8 = 720 e lements quil est naturel de supposer e quiprobables.
Le nombre dissues favorables est 5 3 2 = 30. Do`u P(RN B) = 30/720 = 1/24

7.3

Combinaisons
Une p-combinaisons delements de X est la donnee dune partie de X a` p e lements
(sans quon ait defini un ordre de succession de ces e lements). Le nombre Cnp des pcombinaisons de X (X ayant n e lements) est donne par la formule :
Cnp =

Apn
n!
=
p!
p!(n p)!

Chaque p-combinaison donne naissance a` p! p-arrangements, obtenus en choisissant un


ordre de succession sur les e lements de la combinaison.
p+1
En particulier Cnp = Cnnp , et on verifie : Cn+1
= Cnp + Cnp+1
Exemple 1.15 Au jeu de Bridge, quelle est la probabilite davoir 4 As dans une main de
13 cartes ? (on utilise un jeu de 52 cartes)..
Se donner une main de 13 cartes, cest se donner une 13-combinaison extraite de lensemble des 52 cartes.
Prenons pour E lobservation des 13 cartes dun jeu donne, et donc = lensemble
des 13-combinaisons pris dans lensemble des 52 cartes. Si on admet que toutes les

bar-hen.net

18

Probabilite conditionnelle

13 ; comptons alors les 13issues sont e quiprobables, chaque issue a la probabilite 1/C52
combinaisons comprenant les 4 As : il y en a autant que de 9 combinaisons parmi 48
cartes, do`u :

P(4 As) =

9
C48
(48)!(13)!
10 11 12 13
=
=
2.64 103
13
C52
(52)!(9)!
49 50 51 52

Remarque : on aurait pu prendre pour E lobservation des cartes dun joueur donne
dans lordre o`u elles ont e te distribuees ; alors est lensemble des A13
52 13-arrangements
possibles ; le nombre de ces arrangements contenant les 4 As est :
m = A413 A948
Il y a A413 dispositions possibles pour les 4 As, et, cette disposition e tant fixee, il y a A948
arrangements possibles.
Comme les differents 13-arrangements sont e quiprobables, on trouve :
P(4 As) =

10 11 12 13
A413 A948
=
13
A52
49 50 51 52

cest-`a-dire le meme resultat que precedemment mais par un raisonnement plus difficile.
Les notions de probabilite conditionnelle et dindependance jouent un role fondamental
dans toute la suite ; elles sont indispensables dans la conduite des calculs d`es quon sort
du cas e lementaire considere precedemment. Dailleurs meme dans ce cas, et d`es quon
a acquis un peu lhabitude, elles permettent souvent des calculs plus simples et plus surs.

8 Probabilite conditionnelle
8.1

Probabilite conditionnelle
Considerons une experience aleatoire E despace de probabilite associe (, A, P).
Definition 1.1 Soient A, B A et supposons P(A) 6= 0. La probabilite conditionnelle
de B, A e tant donne est le nombre :
P(B|A) =

P(A B)
P(A)

On dit aussi que P(B|A) est la probabilite de B sachant A.


Signification : imaginons quon effectue lexperience E et quon donne a` un individu
linformation que A a e te observe lors de cette realisation de E ; on ne donne aucune information (en dehors de la description de E). Pour cet individu, la probabilite de realisation
de B sera en general differente de ce quelle e tait avant de savoir que A a e te realise.
bar-hen.net

E MENTS DE TH E ORIE DES PROBABILIT E S


1. P REMIERS EL

19

Exemple 1.16 On tire 5 cartes parmi 52. Si on sait que la premi`ere carte est las de tr`efle
(evenement A), la probabilite davoir 4 As (evenement B) est intuitivement :
p=

48
4!48!
=
4
C51
51!

4
Il y a C51
combinaisons possibles pour les quatre derni`eres cartes, et 48 de ces combinaisons comportent les 3 As manquants.
5!48!
Dautre part P(A) = 1/52 et P(A B) = 1/5P(B) = 5C485 = 552!
= 4!48!
52!
52
P
(AB)
On verifie que : p = P(A)

Exemple 1.17 On jette un de ; si on sait que le nombre obtenu est pair, et en labsence
de toute autre information, la probabilite davoir 2 est intuitivement 1/3, celle davoir 1
est e videmment 0 ; ce qui est en accord avec la definition precedente de P(B|A).
La formule de la probabilite conditionnelle peut se justifier intuitivement. Effectuons
lexperience E N fois, (N tr`es grand) ; on note NA , NAB le nombre de fois o`u A et
A et B ont e te effectivement realises. La frequence de realisation de B lorsquon ne
consid`ere que les realisation de E (parmi les N effectues) qui ont conduit a` A est :
f=

NAB
NAB
N
=

NA
N
NA

Dapr`es la signification de la probabilite dun e venement : NAB


P(A B) et NNA
N
P(A) (dans la mesure o`u N est grand).
(AB)
On voit que f PP
= P(B|A)
(A)
Par convention, si A, B A et si P(A) = 0, on convient que P(B|A) = 0
Les formules suivantes (formules des probabilites composees) decoulent immediatement
de la definition de la probabilite conditionnelle. Elles sont neanmoins tr`es importantes
dans les calculs (pratiques ou theoriques) :
Si A, B A P(A B) = P(A)P(B|A)
Si A, B, C A P(A B C) = P(A)P(B|A)P(C|A B)
Et plus generalement, si A1 , . . . , An A alors :
P(A1 . . . An ) = P(A1 )P(A2 |A1 )P(A3 |A1 A2 ) . . . P(An |A1 . . . An1 )

Exemple 1.18 On va calculer des probabilites attachees a` lexperience du tirage sans


remise de 3 boules dune urne ; on suppose que lurne contient initialement 10 boules
dont 5 rouges, 3 noires et 2 blanches. Calculons a` laide des probabilites conditionnelles
P(RN B) (voir exemple 1.14). On a :
RN B = A1 A2 A3
bar-hen.net

20

Probabilite conditionnelle

o`u A1 =la 1e` re boule tiree est rouge, A2 =la 2e` me boule tiree est noire et A3 = la
3e` me boule tiree est blanche.
Clairement P(A1 ) = 5/10 = 1/2 (toutes les boules ayant la meme probabilite detre dabord
tirees) ; de plus P(A2 |A1 ) = 3/9 = 1/3 et P(A3 |A1 A2 ) = 2/8 = 1/4. Do`u dapr`es la
formule des probabilites composees :
P(RN B) =

5
1
1
=
32 =
234
24
10 9 8

A` titre dexercice on peut calculer P(N RB) et P(N BR). Est-ce e tonnant de trouver 1/24 ?

8.2

Formule de Bayes
La formule des e venements complementaires permet decrire que pour tout A A, on
P(A) + P(A) = 1
Pour tout couple devenements A, B la formule des probabilites composees devient donc :
P(A|B) =

P(A)P(B|A)
P(A)P(B|A) + P(A)P(B|A)

Cette formule sappelle la formule de Bayes. On parle aussi formule des probabilites des
causes.
Exemple 1.19 (efficacite dun test de depistage). On a mis au point un test permettant de
depister une maladie ; ce test netant pas infaillible, on souhaite connatre la probabilite
detre atteint par la maladie pour un individu presentant un test positif.
On suppose connues :
1. la proportion de la population atteinte par la maladie ;
2. la probabilite pour un sujet malade de presenter un test positif ;
3. la probabilite pour un sujet sain de fournir un test positif.
Lexperience aleatoire consiste ici a` prendre au hasard un individu (dans la population consideree) et a` lui faire subir le test. On note T, M, S les e venements le test
est positif, lindividu est malade, lindividu est sain. Le probl`eme est de trouver
P(M |T ) connaissant P(M ), P(T |M ), P(T |S). On a :
P(M T )
P(T )
P(M )P(T |M )
=
P(T M ) + P(T S)
P(M )P(T |M )
=
P(M )P(T |M ) + P(S)P(T |S)

P(M |T ) =

Exemple numerique : si P(M ) = 1/100, P(T |M ) = 0.8, P(T |S) = 0.1, on trouve un
resultant surprenant : P(M |T ) 0.075. Dans ce cas, le test est dune efficacite presque
nulle. Avec P(M ) = 1/1000, P(T |M ) = 0.95, P(T |S) = 0.05, P(M |T ) 0.013.
bar-hen.net

E MENTS DE TH E ORIE DES PROBABILIT E S


1. P REMIERS EL

21

9 Independance
9.1 Independance de deux e venements
Si A et B sont deux e venements (associes a` une experience aleatoire E), on dit que A et
B sont independants si :
P(A B) = P(A)P(B)
Il revient au meme de dire que P(B|A) = P(B) : ainsi, savoir que A a e te realise lors
dune mise en uvre particuli`ere de E ne modifie pas la probabilite de realisation de B
(et donc ne nous apprend rien de nouveau sur la probabilite que B ait lieu).
Attention a` ne pas confondre independants et incompatibles. Si A et B sont incompatibles
A B = et P(A B) = 0 ; A et B ne pourront donc e tre independants que si P(A) = 0
ou P(B) = 0.
Exemple 1.20 On tire une carte au hasard dans un jeu de 52 cartes ; les e venements
Pique et Valet sont independants (`a verifier), mais non incompatibles (pourquoi ?).
Les e venements Pique et Tr`efle sont incompatibles mais ils ne sont pas independants.
Si A et B sont independants, A et B, A et B, A et B sont e galement independants (deux
a` deux).
Verifions le par exemple pour A et B : comme A B et A B sont incompatibles, et
comme (A B) (A B) = A, on a :
P(A B) + P(A B) = P(A)
Do`u :
P(A B) =
=
=
=

9.2

P(A) P(A B)
P(A) P(A)P(B)
P(A)(1 P(B))
P(A)P(B)

Independance de plusieurs e venements


Considerons dabord le cas de 3 e venements A, B, C (relatifs a` E). On dira quils sont
independants (dans leur ensemble) si ils sont independants 2 a` 2 et si de plus :
P(A B C) = P(A)P(B)P(C)
On peut montrer que cette definition signifie que toute information sur la realisation de
deux dentre eux au cours dune mise en uvre de E ne modifie pas la probabilite de
realisation du troisi`eme.
(ABC)
Calculons par exemple P(A|B C) = PP
(BC)
Dapr`es ce qui prec`ede, B et C sont independants et P(B C) = P(B)P(C)
bar-hen.net

22

Independance

Dautre part : P(A B C) = P(A B) P(A B C) car A B C et A B C


sont incompatibles et leur reunion vaut A B.
Do`u, P(A B C) = P(A)P(B) P(A)P(B)P(C) = P(A)P(B)P(C) et donc finalement P(A|B C) = P(A)
Si les e venements A, B, C sont deux a` deux independants, on ne peut pas en deduire en
general quils sont independants (dans leur ensemble).
Exemple 1.21 Prenons E=on jette deux fois un de, A=on a obtenu 6 au 1er jet,
B=on a obtenu 6 au 2e` me jet, C=on a obtenu le meme resultat les 2 fois. Il est
a` peu pr`es intuitif que ces trois e venements sont independants deux a` deux. En effet
P(A) = P(B) = P(C) = 1/6 (par denombrement, en remarquant quil y a en tout 36
issues e quiprobables), et A B = B C = A C = on a obtenu deux fois 6 ; do`u
P(A B) = P(B C) = P(A C) = 1/36.
Par contre P(A B C) = P(A B) = 1/36, alors que P(A)P(B)P(C) = 1/63 = 1/216
De mani`ere generale on dit que les e venements A1 , A2 . . . , An sont independants dans
leur ensemble si pour chaque choix dune partie {i1 , . . . , ik } de {1, . . . , n} (les ij e tant
supposes distincts), on a :
P(Ai1 Ai2 . . . Aik ) = P(Ai1 )P(Ai2 ) . . . P(Aik )
On peut montrer que cette definition e quivaut a` dire que pour chaque J = {i1 , . . . , ik } de
{1, . . . , n} et chaque i 6 J, 1 i n, on a :
P(Ai |Ai1 Ai2 . . . Aik ) = P(Ai )
Cette relation donne une signification intuitive de lindependance.
Il est important de noter que :
si les e venements A1 , A2 , . . . , An sont independants, il en est de meme pour A1 , A2 , . . . , An1 , An .
Plus generalement on peut remplacer certains (ou tous) Ai par leur complementaire Ai
sans perdre la propriete dindependance ;
Si A1 , A2 , . . . , An sont independants, toute sous-suite (Ai1 , Ai2 , . . . , Aik ) {i1 , . . . , ik }
{1, . . . , n} est encore une suite devenements independants.
Exemple 1.22 (schema de Bernoulli) E consiste a` jouer 3 fois a` pile ou face ; on suppose
que la probabilite dobtenir pile au cours dun lancer est p (0 p 1), (celle dobtenir
face est donc q = 1 p) et on suppose que les lancers sont independants.
p nest pas forcement e gal a` 21 .
On peut representer le resultat par un mot : pile, pile, pile, pile, face, pile, face,
face, pile, etc. On a, par exemple, :
P(pile, pile, face) = P(pile)P(pile)P(face) = p2 q
Ce resultat peut senoncer de mani`ere generale : pour n entier fixe, si on joue n fois a`
pile ou face : la probabilite dun e venement e lementaire A, (cest-`a-dire un e venement
de la forme pile, face,. . . mot de longueur n forme de pile et de face) est pi q j o`u i est
le nombre de pile requis par A et j le nombre de faces (i + j = n).

bar-hen.net

E MENTS DE TH E ORIE DES PROBABILIT E S


1. P REMIERS EL

10

23

Exercices
1. Dans une loterie, 400 billets, dont 4 gagnants, sont mis en vente. Si on ach`ete 10
billets, quelle est la probabilite de gagner au moins un lot ?
2. Soit le labyrinthe ci dessous, dans lequel on fait penetrer des rat. Quelles sont les
probabilites, pour un animal de sortir par A, B, C, D, E ou F ?
D

Entree

3. Trois chasseurs tirent sur un oiseau. Quelle est la probabilite pour que loiseau soit
touche, sachant que les probabilites de toucher loiseau, pour chaque homme, sont
P(A) = 1/2, P(B) = 2/3, P(C) = 1/4 ?
4. Une population est composee de 40% dhommes et de 60% de femmes ; 50% des
hommes et 30% des femmes fument. Quelle est la probabilite pour quun fumeur,
choisi au hasard soit une femme ?
5. Deux amis se trouvent dans la queue a` lentree du restaurant universitaire. Sachant
que la queue comporte n personnes alignes, quelle est la probabilite pour quils
soient separes par 5 personnes exactement ?
6. Quelle est la probabilite pour que, dans un groupe de 25 personnes, au moins 2
personnes aient leur anniversaire le meme jour ?
7. On vous presente un homme. Dans la br`eve conversation qui suit, vous apprenez
que cet homme a deux enfants dont au moins une fille. Quelle est la probabilite
pour quil ait 2 filles ?
8. On consid`ere des des a` jouer reguliers. Est-il plus probable dobtenir au moins une
fois la face 6 en jetant quatre fois un de ou dobtenir au moins une fois le double 6
en jetant vingt quatre fois deux des ?
9. Soit une esp`ece diplode. Un caract`ere est gere par un couple dall`eles ; tout individu porte donc donc deux de ces all`eles qui sont ici de type A ou a. On suppose
quaux trois genotypes possibles correspondent seulement deux phenotypes : D
pour AA et Aa, R pour aa ; de plus, le caract`ere nest pas lie au sexe et les accouplements ont lieu au hasard.
On designe par ui , vi , wi les probabilites pour quun individu, choisi au hasard
dans la generation Fi , soit respectivement de genotype AA, Aa, ou aa. En F0 , on
avait seulement des individus de type D, avec u0 = 1/3 et v0 = 2/3. on sinteresse
maintenant a` la generation F1 :
(a) calculer w1 , puis v1 , puis u1 ;
(b) si on choisit au hasard un individu de phenotype D, quelle est la probabilite
pour quil soit de genotype AA ?
bar-hen.net

24

Exercices

10. On a melange, par inadvertance, des graines de deux provenances differentes : A et


B. On a ainsi un ensemble de graines dont 1/3 provient de A et 2/3 de B. La moitie
des graines de A et les trois quarts des graines de B sont noires.
On choisit une graine au hasard : elle est noire. Quelle est la probabilite pour quelle
provienne de A ?
11. Cinq hommes et quatre femmes vont au cinema. Ils disposent de 9 places alignees.
Ils sassoient au hasard, mais de mani`ere a` ce que chaque femme soit entouree
de deux hommes. Quelle est la probabilite pour que monsieur P soit a` cote de
mademoiselle C ?
12. On dispose de quatre jetons : A, B, C, D tels que A et B ont deux faces blanches,
C a une face noire et une face blanche, D a deux faces noires. On tire un jeton au
hasard et on ne voit que lune de ses faces : elle est blanche. Calculer la probabilite
pour que lautre face soit blanche.
13. Soit une urne contenant 10 boules rouges, 5 blanches, 3 noires et 2 jaunes.
(a) On tire successivement 4 boules (tirage exhaustif) :
calculer la probabilite dobtenir dans lordre : 1 rouge, 1 noire, 1 blanche,
1 jaune ;
calculer la probabilite dobtenir seulement 3 boules rouges sur les 4 tirees ;
calculer la probabilite pour que la deuxi`eme boule soit rouge.
(b) On tire successivement 3 boules (tirage non exhaustif) :
calculer la probabilite dobtenir seulement 2 boules rouges sur les 3 tirees ;
calculer la probabilite dobtenir au moins 2 boules rouges sur les 3 tirees ;
calculer la probabilite pour que la deuxi`eme boule soit rouge.
14. On admet le mod`ele suivant :
La coloration de liris, chez lhomme, est geree par un couple dall`eles ; elle est
independantes du sexe ; la coloration bleue est recessive.
Madame Dupont na pas les yeux bleus, ses parents navaient pas les yeux bleus,
mais elle a un fr`ere qui a les yeux bleus.
Monsieur Dupont na pas les yeux bleus, mais il a eu dun premier mariage, un
enfant aux yeux bleus.
(a) Monsieur et Madame Dupont vont avoir leur premier enfant. Quelle est la
probabilite pour quil ait les yeux bleus ?
(b) Monsieur et Madame Dupont ont dej`a eu un premier enfant qui na pas les
yeux bleus, quelle est la probabilite pour que cet enfant puisse transmettre la
coloration bleue ?
(c) si Monsieur et Madame Dupont ont dej`a eu un premier enfant aux yeux bleus,
quelle est la probabilite pour que leur deuxi`eme enfant ait les yeux bleus ?
15. On consid`ere deux locus homologues dune plante diplode et on admet que les
g`enes correspondants ont deux all`eles A et a.
Partant dune plante heterozygote (`a la generation 0) on constitue par autofecondation
des generations successives.
bar-hen.net

E MENTS DE TH E ORIE DES PROBABILIT E S


1. P REMIERS EL

25

On designe par xn , yn et zn les probabilite des genotypes AA, Aa et aa a` la ne` me


generation (x0 = z0 = 0, y0 = 1).
(a) Calculer xn , yn et zn en fonction de xn1 , yn1 et zn1 ;
(b) en deduire x1 , y1 , z1 , puis x2 , y2 , z2 , puis x3 , y3 , z3 ;
(c) calculer xn , yn , zn ;
(d) soit pn la probabilite pour quune plante de la ne` me generation soit homozygote. Quels sont les nombres n1 et n2 de generations successives pour que
pn1 0.95 et pn2 0.999 ?
16. Dix couples sont reunis dans une soiree. On admet que, pour danser, chaque homme
choisit une femme au hasard.
Quelle est la probabilite pour que chacun des 10 hommes danse avec son e pouse ?
Quelle est la probabilite pour que monsieur Dupond danse avec son e pouse ?
Quelle est la probabilite pour que monsieur Dupond et monsieur Durand dansent
avec leur e pouse ?
Quelle est la probabilite pour que monsieur Dupond ou monsieur Durand dansent
avec son e pouse ?
17. Dans une population donnee, un individu peut e tre atteint dune affection A avec la
probabilite pA = 1/100 et dune affection B, independante de A, avec une probabilite
pB = 1/20. Quelle est la probabilite pour quun individu choisi au hasard soit atteint
dau moins une des deux maladies ?
18. On appelle duree de vie dun composant e lectronique le temps pendant lequel
ce composant mis sous tension, fonctionne correctement. Un crit`ere definissant la
qualite dune fabrication donnee est : la probabilite pour que la duree de vie dun
composant soit au moins e gale a` 10000 heures est de 80%. On admet que les pannes
de composants differents sont des e venements independants.
(a) Avec 3 composants, on realise un premier montage. Il suffit que lun des
composants soit defectueux pour que le syst`eme realise ne remplisse plus
sa fonction (montage serie). Calculer la probabilite pour que le syst`eme
fonctionne correctement au moins 10 000 heures.
(b) Avec 3 composants, on realise un deuxi`eme montage. Dans ce cas, pour que
le syst`eme ne remplisse plus sa fonction, il faut que les trois composants
soient defectueux (montage parall`ele).
calculer la probabilite pour que le syst`eme fonctionne au moins 10 000
heures ;
le syst`eme ayant e te laisse sous tension pendant 10 000 heures, on vient
verifier son fonctionnement : il est correct ; quelle est la probabilite de
trouver au moins un composant defectueux ?

bar-hen.net

26

11

Solutions

Solutions
1. On consid`ere lexperience aleatoire qui consiste a` choisir successivement 4 numeros
parmi 400 pour designer les gagnants (schema de tirage exhaustif).
Soit un individu qui poss`ede 10 billets. On note Ai (i = 1, . . . , 4) levenement : le
ie` me numero tire nest pas sur lun des 10 billets.
Soit E levenement : lindividu gagne au moins un lot. E est donc levenement :
lindividu ne gagne aucun lot.
On a P(E) = 1 P(E) (evenements contraires).
E = A1 A2 A3 A4 . Do`u :
P(E) = P(A1 A2 A3 A4 )
Les e venements A1 , A2 , A3 , A4 ne sont pas independants (tirage exhaustif). Donc :
P(E) = P(A1 )P(A2 |A1 )P(A3 |A2 A1 )P(A4 |A3 A2 A1 )
390 389 388 387
=
400 399 398 397
90.33%
Do`u P(E) 9.67%
2. Lexperience consiste a` faire entrer un rat dans le labyrinthe et a` observer la sortie
choisie. Si on admet que le rat, a` chaque embranchement choisit indifferemment
lune des deux voies qui soffrent a` lui : G (pour gauche) et G (pour droite),
on aura, a` chaque embranchement : P(G) = P(G) (absence de lateralisation et
independance des choix successifs).
Dans cette hypoth`ese, on a :
P(A) = P(G) =

1
2

P(B) = P(G C) = P(G)P(G) =


P(C) = P(G G G) =

1
4

1
8

P(D) = P(G G G G) =

1
16

1
32
1
P(F ) = P(G G G G G) =
32

P(E) = P(G G G G G) =

On peut verifier que les e venements A, B, C, D, E, F forment, mutuellement incompatibles, forment un syst`eme complet :
P(A) + P(B) + P(C) + P(D) + P(E) + P(F ) = 1
bar-hen.net

E MENTS DE TH E ORIE DES PROBABILIT E S


1. P REMIERS EL

27

3. Lexperience est : les chasseurs A, B, C tirent. On note E levenement loiseau


est touche et E levenement loiseau nest pas touche.
On a : P(E) = 1 P(E) (evenements contraires).
Soit A levenement loiseau nest pas touche par A.
On a de meme P(A) = 1 P(A) = 1 12 = 12 .
Avec les memes notations, on a e galement P(B) = 1 P(B) = 13 et P(C) =
1 P(C) = 34 .
On peut alors e crire E = A B C et donc P(E) = P(A)P(B)P(C) = 12 13 34 = 18 ,
en supposant les e venements A, B, C independants. On en deduit donc que
P(E) =

7
8

4. Lexperience est le choix dun individu, au hasard dans la population. On note :


H levenement : lindividu choisi est un homme
F levenement : lindividu choisi est une femme
T levenement : lindividu choisi fume
On veut calculer la probabilite conditionnelle P(F |T ).
(F T )
Par definition P(F |T ) = PP
(T )
P(F T ) = P(F )P(T |F ) = 0.6 0.3 = 0.18
T = (H T ) (F T ) et donc P(T ) = P(H T ) + P(F T ) puisque les
e venements sont incompatibles.
P(T ) = P(H)P(T |H)+P(F )P(T |F ) = 0.40.5+0.60.3 = 0.2+0.18 = 0.38
0.18
Et donc finalement P(F |T ) = 0.38
47.37%
5. n e tudiants salignent a` lentree du restaurant. Soit E levenement les deux amis
sont separes par r personnes. Pour que levenement soit possible, il faut n r+2.
Si on ne tient pas compte de lordre relatif des deux amis, il y a, a priori, Cn2 =
n(n1)
couples de places possibles pour eux, tous e quiprobables, donc chacun de
2
2
probabilite n(n1)
.
Lintervalle ferme delimite par les deux amis comprend r + 2 places. Il y autant
de couples realisant E que de mani`eres de choisir la place la plus pr`es de lentree,
cest-`a-dire :
n (r + 2) + 1 = n r 1
Les differentes e ventualites realisant E e tant mutuellement incompatibles, on a :
P(E) =

2(n r 1)
n(n 1)

6. En ce qui concerne les jours de naissance, le groupe est considere comme choisi
au hasard dans une population. Lannee comprend 365 jours et forme un ensemble
A de 365 e lements ; on suppose a priori, hypoth`ese discutable, que chaque jour est
e galement probable comme jour danniversaire dun personne choisie au hasard.
bar-hen.net

28

Solutions

Levenement F : 2 personnes du groupe, au moins, ont leur anniversaire le meme


jour, a pour e venement contraire F : toutes les personnes du groupe ont des jours
danniversaire differents.
On choisit successivement les 25 personnes. On note :
Ak le jour danniversaire de la k e` me personne, k {1, 2, . . . , 25} ;
Bk lensemble {A1 , A2 , . . . , Ak } et Bk le complementaire de Bk dans A ;
Ek levenement les k premi`eres personnes ont des anniversaires differents.
On note qualors Bk contient k e lements et Bk contient (365 k) e lements. On a
successivement :


1
364
1
P(E2 ) = P(A2 6= A1 )P(A2 B1 ) =
365
365


k
P(Ek+1 = P(Ek Ak+1 Bk ) = P(Ek )P(Ak+1 Bk |Ek ) = P(Ek ) 1
365
Do`u par recurrence :

P(F ) = P(E25 ) =

1
1
365


 

2
24
1
... 1
365
365

ce que lon peut e crire :


P(F ) =

341
365! 1
364 363
...
=
365 365
365
340! 36525

Et donc

365! 1
340! 36525
Calcul numerique : P(F ) 1 0.4313 = 56.87%
P(F ) = 1

7. On rencontre au par hasard un homme qui a deux enfants. En supposant qu`a


chaque naissance la probabilite davoir un garcon G, e gale a` celle davoir une fille
F est de 1/2, quatre e ventualites sont a` envisager : G G, G F , F G, F F . On
en deduit :
P(F F |G G) =

1/
P((F F ) (G G))
P(F F )
1
4
=
=
=
1 P(G C)
1 1/4
3
P(G G)

8. On consid`ere dabord levenement le jet de 1 de. On designe par 6 levenement la


face est six. et par 6 levenement contraire : la face nest pas six. On a P(6) = 16
et P(6) = 56 .
Pour quatre jets de 1 de, on a :
P(au moins un 6) = 1 P(pas de 6 en 4 jets) = 1 P(6 6 6 6)
et a` cause de lindependance des e venements successifs !
 6
5
P(au moins un 6) = 1
51.77%
4
bar-hen.net

29

E MENTS DE TH E ORIE DES PROBABILIT E S


1. P REMIERS EL

1
Pour un jet de deux des, on a P(double 6) = P(6 6) = 36
Do`u P(double 6) =
35
1
1 36 = 36
Pour vingt quatre jets de 2 des, on obtient, en raisonnant comme dans le cas
precedent :
 24
35
49.14%
P(au moins un double 6)1 P(double 6) = 1
36

N.B. : le chevalier de Mere pour qui les deux e ventualites e taient e gales, ne voulait
pas admettre la solution de Pascal.
9. Il faut dabord denombrer les croisements possibles dans la generation F0 et calculer leur probabilite :
Croisement I : (H(AA) F (AA))
P(I) = P(H(AA))P(F (AA)) = u20 =

1
9

Croisement II :((H(AA) F (Aa)) (H(Aa) F (AA))


P(II) = P(H(AA))P(F (Aa)) + P(H(Aa))P(F (AA)) = 2u0 v0 =

4
9

Croisement III :(H(Aa) F (Aa))


4
9
Les trois e ventualites forment un syst`eme complet devenements.
Il faut ensuite, pour chaque croisement, calculer la probabilite pour quun descendant est un genotype donne. Il est facile de trouver :
P(III) = P(H(Aa))P(F (Aa)) = v02 =

P(AA|I) = 1 ; P(Aa|I) = 0 ; P(aa|I) = 0


1
1
; P(Aa|II) = ; P(aa|II) = 0
2
2
1
1
1
P(AA|III) = ; P(Aa|III) = ; P(aa|III) =
4
2
4
On a alors, en appliquant laxiome des probabilites totales et la relation des probabilites composes :
41
1
w1 = P(aa) = P(III aa) = P(III)P(aa|III) =
=
94
9
v1 = P(Aa) = P(II Aa) + P(III Aa) = P(II)P(Aa|II) + P(III)P(Aa|III)
41 41
4
=
+
=
92 92
9
1
4
4
4
u1 = P(AA) = P(I AA) + P(II AA) + P(III AA) = +
+
=
9 92 94
9
On verifie que les 3 e ventualites forment un syst`eme complet.
Enfin, on a :
P(AA D)
P(AA)
1
P(AA|D) =
=
=
P(D)
1 w1
2
P(AA|II) =

bar-hen.net

30

Solutions

10. Lexperience consiste a` choisir une graine au hasard dans le melange. On


P(A|N ) =

1/
P(A N )
1
6
= 4 =
P(N )
/6
4

En effet :
11
1
=
32
6
23
1
P(B N ) = P(B)P(N |B) =
=
34
2
P(A N ) = P(A)P(N |A) =

P(N ) = = P(A N ) + P(B N ) =


11. Reponse :

4
6

2
5

12. Reponse : Lexperience consiste a` choisir un jeton et a` le poser sur une table ; on
ne voit ainsi quune face, la deuxi`eme est cachee. On a :
P(B2 |B1 ) =

4/
P(B2 B1 )
P(A B
4
8
=
= 5 =
P(B1 )
B1
/8
5

En effet P(A B) = P(A) + P(B) = 12 (evenement incompatibles et


P(B1 ) = P(AB(CB1 )) = P(A)+P(B)+P(C)+P(B1 |C) = 14 + 14 + 14 12 =
13.

5
8

(a) 5/1938 ; 80/323 ; 1/2


(b) 3/8 ; 1/2 ; 1/2

14. On note a lall`ele correspondant a` la coloration bleue et A lall`ele correspondant


a` la coloration non bleue ; A domine a. On aura besoin denvisager deux types de
croisement
Croisement de type I H(Aa) F (Aa)
On a 4 e venements e quiprobables pour le descendant : AA, Aa, aA, aa ;
Croisement de type II H(Aa) F (AA)
On a 4 e venements e quiprobables pour le descendant : AA, Aa, aA, AA
Le genotype de Monsieur Dupont est certainement Aa, puisquil na pas les yeux
bleus mais quil peut transmettre a. Pour le genotype de Madame Dupont, qui na
pas les yeux bleus, on a le choix entre deux e ventualites : AA ou Aa ; comme elle
est issue dun croisement de type I et quelle na pas les yeux bleus, on en deduit,
pour le croisement des Dupont :
P(II) = P(F (AA)|F (non aa))
P(I) = P(F (Aa)|F (non aa))

1/
P(F (AA F (non aa)
P(F (AA))
4
=
= 3 = 1/3
P(F (non aa))
P(F (non aa))
/4

2/
P(F (Aa F (non aa)
P(F (Aa))
4
=
= 3 = 2/3
P(F (non aa))
P(F (non aa))
/4

En effet si E1 E2 E1 E2 = E1
bar-hen.net

E MENTS DE TH E ORIE DES PROBABILIT E S


1. P REMIERS EL

31

En ce qui concerne lenfant des Dupont, on peut enfin e crire :


1
1
1
P(AA|I) = ; P(Aa|I) = ; P(aa|I) =
4
2
4
1
1
P(AA|II) = ; P(Aa|II) = ; P(aa|II) = 0
2
2
(a) Lexperience consiste a` observer la couleur des yeux du premier enfant. On
a : (yeux bleus)=(enfant aa)=(I enfant aa)(II enfant aa) ; do`u, en appliquant laxiome des probabilites totales et la relation des probabilites composees :
21 1
1
P(enfant aa) = P(I)P(enfant aa|I)+P(II)P(enfant aa|II) =
+ 0=
34 3
6
(b) Il sagit de la meme experience. On a
P(enfant Aa|enfant non aa) =

15.

3/
P(enfant Aa)
3
6
= 5 =
P(enfant nonaa)
/6
5

(c) Lincertitude de Madame Dupont est levee. On est certain detre dans le cas
I. Do`u
1
P(2e aa|1e aa) = P(2e aa|I) =
4
(a) On designe par En le genotype dune plante choisie au hasard dans la e` me
generation et par En1 son ascendant immediat. Comme on passe dune
generation a` lautre par autofecondation, on a :
1
P(En (AA)|En1 (AA)) = 1 ; P(En (AA)|En1 (Aa)) = ; P(En (AA)|En1 (aa)) = 0
4
1
P(En (Aa)|En1 (AA)) = 0 ; P(En (Aa)|En1 (Aa)) = ; P(En (Aa)|En1 (aa)) = 0
2
1
P(En (aa)|En1 (AA)) = 0 ; P(En (aa)|En1 (Aa)) = ; P(En (aa)|En1 (aa)) = 1
4
On peut alors e crire :
P(En (AA)) = P((En1 (AA)En (AA))(En1 (Aa)En (AA))(En1 (aa)En (AA)))
En appliquant successivement laxiome des probabilites totales et la relation
des probabilites composees, on obtient :
xn = P(En1 (AA))P(En (AA)|En1 (AA)) + P(En1 (Aa))P(En (AA)|En1 (Aa))
+P(En1 (aa))P(En (AA)|En1 (aa))))
En raisonnant de meme pour yn et zn , on obtient :
1
xn = 1xn1 + yn1 + 0zn1
4
1
yn = 0xn1 + yn1 + 0zn1
2
1
zn = 0xn1 + yn1 + 1zn1
4

bar-hen.net

32

Solutions

(b) On part de x0 = z0 = 0, y0 = 0 En utilisant les resultat precedent, on


obtient :
1
1
x1 = z1 =
, y1 =
4
2


1 1
1
1
1
x2 = z2 = + =
1+
, y2 = 2
4 8
4
2
2


1 1
1
1
1 1
1
x3 = z3 = + +
=
1+ +
, y2 = 3
4 8 16
4
2 4
2

1
1
(c) On suppose xn1 = zn1 = 14 1 + 12 + . . . + 2n2
, yn1 = 2n1
.

1
1
1
On deduit de la question precedente : xn = zn = 4 1 + 2 + . . . + 2n1
,
1
yn = 2n . Par recurrence, a` partir de n = 2, ces e galites sont bien verifiees.
On reconnat, entre parenth`eses, la somme des n premiers termes dune suite
geometrique, de terme 1 et de raison 1/2.




1
1
1
1 1 21n
1
1
1 + + . . . + n1 =
=
1 n
4
2
2
4 1 12
2
2
Finalement

1
xn = zn =
2

1
1 n
2


, yn =

1
2n

(d)
1
2n1
1
= 1 n2
2

1
0.05 n1 5
2n1
1
0.999 n2 0.05 n2 10
2

Pn1 = xn1 + zn1 = 1

; Pn1 0.95

Pn2 = xn2 + zn2

; Pn2

On remarque que xn +yn +zn = 1, ce qui est normal puisque les e venements
AA, Aa et aa forment un syst`eme complet.
16. Reponse : 1/10! ; 1/10 ; 1/90 ; 17/90
17. Lexperience consiste a` choisir un individu au hasard dans la population. On a :
P(A B) = P(A) + P(B) P(A B)
= P(A) + P(B) P(A)P(B)
ou encore P(A B) = 1 P(A B) = 1 P(A)P(B).
Reponse : 5.95%
18. Montage serie :
P(E) = (0.8)3 = 0.512
Montage parall`ele :
P(E) = 1 (0.2)3 = 0.992
P(F |E) =

3(0.2)(0.8)2 + 3(0.2)2 (0.8)


0.484
0.992
bar-hen.net

Chapitre 2
Variables aleatoires discr`etes
1

Variable aleatoire a` valeurs dans R


Definition 2.1 Soit un espace de probabilite {, A, P} associe a` une experience aleatoire
E. On appelle variable variable aleatoire a` valeurs dans R une application X, de dans
R, possedant la propriete :
Pour tout intervalle I R, {|X() I} A

(2.1)

Cette definition comporte trois points :


1. Tout dabord une variable aleatoire permet dassocier a` tout e venement e lementaire
un nombre reel X() ; ceci permet de traduire une observation par un nombre
reel. Lensemble X() sappelle lensemble des observables
2. La propriete 2.1 signifie que {|X() I} fait partie de la tribu A. On designe
par X I cet e venement que lon exprime en langage courant par la variable
aleatoire X prend une valeur dans lintervalle I.
On sera amene, par la suite, a` distinguer les types dintervalle :
si I = [a, b[, X I=a X < b ;
si I = [a, b], X I=a X b ;
si I = [a], X I=X = a, etc.
Neanmoins, ce qui est essentiel cest que lintroduction dune variable aleatoire
permet a` tout intervalle, e ventuellement reduit a` un point, de representer un e venement.
3. Puisque lepreuve {, A} est probabilise, on a :
P({|X() I}) = P(X I)
La definition dune variable aleatoire permet dattribuer une probabilite a` tout intervalle I identifie a` levenement dont il est limage.

1.1

Loi de probabilite
La loi de probabilite dune variable aleatoire X, on dit aussi la distribution de X, est le
mode de repartition de la probabilite de sur lensemble des observables.
33

34

Variable aleatoire a` valeurs dans R

Il en resulte que connatre la loi de probabilite de X, cest e tre capable dattribuer une
probabilite a` tout e venement X I.

1.2

Fonction de repartition
Si on consid`ere, en particulier, lintervalle ] , t[, qui definit levenement (X < t) =
{|X() < t}, la definition de la variable aleatoire X implique qu`a tout reel t on peut
associer la valeur P(X < t) ; il existe donc une fonction FX , definie sur R et telle que
FX (t) = P(X < t) :

Definition 2.2 Etant


donnee une variable aleatoire X, a` valeurs dans R, on appelle
fonction de repartition la fonction :

R [0, 1]
FX :
t 7 FX (t) = P(X < t)

1.3

Proprietes de la fonction de repartition


1. La fonction de repartition dune variable aleatoire a` valeurs dans R est une fonction
croissante au sens large.
En effet, si A = (X < a) et B = (X < b), a < b A B. On en deduit
P(A) P(B) (voir chapitre 1) cest-`a-dire FX (a) FX (b)
2. limt+ FX (t) = 1 , limt FX (t) = 0+
En effet
lim FX (t) = lim P(X < t) = P(X R) = P() = 1

t+

t+

par valeurs inferieures puisquune probabilite est un nombre inferieur ou e gal a` 1.


lim FX (t) = lim P(X < t) = P() = 0

par valeurs superieures puisquune probabilite est un nombre superieur ou e gal a` 0


3. Si a < b, FX (b) FX (a) = P(a X < b).
En effet si si A = (X < a) et B = (X < b), a < b A B.
A A et B A B A A et B A A.
On peut e crire B = (B A) (B A).
Do`u :
P(B) = P(B A) + P(B A) e venements incompatibles
= P(A) + P(B A) (A B B A = A)
On en deduit P(B A) = P(B) P(A).
Or (B A) = (X < b X < a) = (X < b X a) = (a X < b)
Finalement : P(a X < b) = P(X < b) P(X < a) = FX (b) FX (a).
La fonction de repartition dune variable aleatoire X permet de calculer P(X I)
pour tout intervalle I, ferme a` droite, ouvert a` gauche.
bar-hen.net

35

` TES
2. VARIABLES AL EATOIRES
DISCR E

4. La fonction de repartition dune variable aleatoire a` valeurs dans R est continue a`


gauche en tout point.
Il resulte de la propriete 3 que pour tout t et pour tout  positif, on a :
P(t  X < t) = FX (t) FX (t )
lim+ P(t  X < t) = FX (t) lim+ FX (t )
0

0

Si on admet lim0+ P(t  X < t) = P() = 0, alors


lim FX (t ) = FX (t)

0+

1.4

Fonction de repartition et loi de probabilite


Comme on va le montrer par la suite, la loi de probabilite dune variable aleatoire, a` valeurs dans R, est parfaitement definie par sa fonction de repartition, le calcul de P(X = t)
en tout point t combine avec la propriete 3 permettra en effet douvrir ou de fermer les
intervalles a` volonte. La fonction de repartition, concept commun a` toutes les variables
aleatoires, va jouer un role essentiel ; il convient donc den connatre parfaitement la
definition et les proprietes.
Cest a` partir de la fonction de repartition que lon va differencier differents types de
distribution ; pour chaque type on montrera quil existe une autre mani`ere de definir la
loi de probabilite.

2 Variables aleatoires discr`etes


2.1

Fonction de repartition en escalier


Un premier type de distribution est caracterise par un fonction de repartition FX dite en
escalier ; le graphe de FX presente une suite croissante (finie ou non) de discontinuites :
{x1 , x2 , . . . , xn , . . .} et est constitue de paliers successifs dordonnees croissantes compte
tenu des proprietes de FX .
XX (t)
6

xi xi+1

bar-hen.net

xn

36

Variables aleatoires discr`etes

En chaque point xi de discontinuite, FX est continue a` gauche (lim0+ FX (xi ) =


li = FX (xi )) et admet un limite a` droite (lim0+ FX (xi +) = li+1 = FX (xi+1 )). Partout
ailleurs, FX est continue.
Si on prend un point t et un point t +  ( > 0) situes dans lintervalle ]xi , xi+1 [, on a,
puisque les points correspondants du graphe sont sur le meme palier :
FX (t + ) FX (t) = li+1 li = 0 = P(t X < t + )
On en deduit
P(X = t) = lim+ P(t X < t + ) = 0
0

Toute valeur reelle distincte dun point de discontinuite et tout intervalle ne comportant
pas de point de discontinuite sont affectes dune probabilite nulle.
Par contre, pour tout point xi de discontinuite, on peut e crire, si 0 <  < xi+1 xi :
FX (xi + ) FX (xi ) = li+1 li = P(xi X < +)
On en deduit
P(X = xi ) = lim+ P(xi X < xi + ) = li+1 li
0

La conclusion de cette analyse est que lensemble denombrable {x1 , x2 , . . . , xn , . . .} regroupe les valeurs de probabilite non nulle et que la probabilite de est repartie uniquement sur ces points. Lensemble {x1 , x2 , . . . , xn , . . .} est donc lensemble des observables de X et la probabilite attribuee a` chacun de ces points est la hauteur de la marche
correspondante.
Reciproquement, si on connat lensemble des observables {x1 , x2 , . . . , xn , . . .} et les
probabilites attribuees a` chacune delles, il est facile de retrouver la fonction de repartition
et de determiner la probabilite attribuee a` tout intervalle :
Si a ]xi , xi+1 ], (X < a) = (X = x1 ) (X = x2 ) (X = xi ). On en deduit,
les e venements e tant incompatibles :
FX (a) = P(X < a) = P(X = x1 )+P(X = x2 )+ +P(X = xi ) =

i
X

P(X = xk )

k=1

Si a ]xi , xi+1 ] et b = xi+3 , (a X b) = (X = xi+1 ) (X = xi+2 ) (X = xi+3 ).


On en deduit, les e venements e tant incompatibles :
P(a X b) = P(X = xi+1 ) + P(X = xi+2 ) + P(X = xi+3 )
Definition 2.3 Une variable aleatoire X, a` valeurs dans R, dont la fonction de repartition
FX est en escalier, est dite variable aleatoire discr`ete. Les valeurs observables de X, qui
correspondent aux discontinuites de FX forment un ensemble denombrable {x1 , x2 , . . . , xn , . . .}.
La loi de probabilite de X est definie par la loi de correspondance :

{x1 , x2 , . . . , xn , . . .} [0, 1]
P:
xi
7 P(X = xi ) = pi
bar-hen.net

37

` TES
2. VARIABLES AL EATOIRES
DISCR E

Dans la pratique, cest par la loi P que lon definit la loi de probabilite dune
P variable
aleatoire discr`ete. Il est clair que les probabilites pi verifient la relation i pi = 1,
puisque lensemble des e venements (X = xi ) forme une partition de
Exemple 2.1 La fonction de repartition dune variable aleatoire est definie par :

t 7 0 , si t 1

t 7 26 , si 1 < t 2
F :
t 7 56 , si 2 < t 4

t 7 1 , si t > 4
On en deduit la loi de probabilite de cette variable, definie par :
valeurs observables
probabilites

xi
pi

2/6

3/6

1/6

Exemple 2.2 On tire une carte dun jeu de 32 cartes. Soit X la variable aleatoire qui
associe a` la carte tiree une valeur numerique suivant la r`egle du jeu de bridge : 4 pour
un as, 3 pour un roi, 2 pour une dame, 1 pour un valet et 0 pour une autre carte.
La loi de probabilite de X est definie par :
valeurs observables xi 0 1 2
4
4
probabilites
pi 16
32
32
32
ou par la fonction de repartition FX :

4
32

4
32

t
t0 0<t1 1<t2 2<t3 3<t4 t>4
4/8
5/8
6/8
7/8
FX (t)
0
1

2.2

Representation graphique : lhistogramme


Considerons un ensemble de n donnees :
(x1 , x2 , . . . , xi , . . . , xn ) = (xi |1 i n)
Le jeu de donnees peut constituer un e chantillon issu de lobservation dune distribution
aleatoire ou bien un repertoire exhaustif de n valeurs enregistrees lors dune operation de
compilation.
Parrall`element, soit une partition en m intervalles de I, un intervalle de R contenant
lensemble du jeu de donnees :
(I1 = [b1 , b2 [, . . . , Ij = [bj , bj+1 ], . . . , Im = [bm , bm+1 ]) = (Ij |1 j m)
I1 , . . . , Im e tant une partition, nous avons :
[
Ij = I et (j, k)Ij Ik =
j

On parle de la classe j pour designer les valeurs de (xi |1 . . . n) appartenant a` Ij .


La classe j est caracterisee par :
bar-hen.net

38

Param`etres descriptifs dune distribution discr`ete

son amplitude aj = bj+1 bj ;


nj , le nombre
P dobservations xi appartenant a` la classe j. On parle aussi de frequence
absolue. j nj = n ;
P
n
fj = nj , la frequence relative. j fj = 1.
Lhistogramme est une representation dans un diagramme cartesien qui associe les frequences
fj aux classes j. De mani`ere pratique, lhistogramme est obtenu en juxtaposant des rectangles dont la base est e gale a` lamplitude de la classe et dont la surface est e gale a` la
frequence de la classe.
Si lamplitude de toutes les classes est e gale, la hauteur des rectangles correspond a` la
frequence de chacune des classes et la largeur des rectangles correspond a` lamplitude
des classes.
Dans le cas de classes damplitudes differentes, la hauteur des rectangles vaut afii . Cette
correction sexplique par la volonte de proposer une representation en rapport avec linf
terpretation visuelle, laquelle est sensible a` la surface sj du rectangle : sj = ajj aj et donc
P
j sj = 1.
Il existe donc autant dhistogrammes que de partitions de I. Ainsi le choix de la partition
conduit a` une representation plus ou moins informative.

3 Param`etres descriptifs dune distribution discr`ete


Soit X une variable aleatoire discr`ete dont la loi de probabilite est definie par

{x1 , x2 , . . . , xn , . . .} [0, 1]
P:
xi
7 P(X = xi ) = pi
Dans le cadre de ce cours, nous utiliserons les param`etres descriptifs qui suivent ; lexpose
nest pas exhaustif.
Mode
On appelle mode de la variable X, ou de la distribution de X, une valeur x pour laquelle
P(X = x) presente un maximum.
Les distributions discr`etes classiques presentent en general un seul mode (parfois deux
modes successifs e quiprobables) et sont dites unimodale, par opposition aux distributions
a` plusieurs bosses dites plurimodales.
Dans lexemple 2.1, le mode de X est la valeur 2 ; dans lexemple 2.2, le mode de X est
la valeur 0
Esperance
On appelle esperance de X, et on note X ou E(X), le nombre reel, sil existe, defini par
X
X
X = E(X) =
(xi P(X = xi )) =
(xi pi )
i

bar-hen.net

39

` TES
2. VARIABLES AL EATOIRES
DISCR E

La reserve sil existe concerne le cas o`u lensemble des observables contient un nombre
infini de valeurs ; lexistence de E(X) depend alors de la convergence de la somme.
Analogie mecanique : imaginons une tige sans masse sur laquelle on place des masses
ponctuelles : a` labscisse xP
masse mi . Labscisse x du centre de masse
i se trouve laP
de ces points est donne par ( i mi )x = i (mi xi ). Lesperance de X definit donc le
barycentre de points materiels xi de masse pi , de masse totale 1, situes sur un axe.
` tout e venement e lementaire ,
On peut e galement donner une autre definition de E(X) : A
de probabilite P(), correspond une image X(). On peut e crire :
X
E(X) =
X()P()

En effet, si on regroupe dans cette derni`ere somme les e venements e lementaires de meme
image, on obtient :

X
X
X
X

E(X) =
P() =
xi P(X = xi ) =
xi pi
i

|X()=xi

On dit que le mode et lesperance, qui representent une certaine tendance centrale, sont
des param`etres de position.
Moments dordre k
On appelle moment dordre
k (k N) de X,Pet on note E(X k ), le nombre reel, sil existe,
P
defini par : E(X k ) = i [xki P(X = xi )] = i xki pi On a
E(X 0 ) =

pi = 1

E(X 1 ) =

xi pi = E(X)

On utilisera E(X 2 ) =

x2i pi

Variance
2
On appelle variance de X, et on note V(X) ou X
, le nombre reel, sil existe, defini par :
X
V(X) = X =
(xi X )2 pi
i

On appelle e galement la variance de X le moment centre dordre 2 de X et on note :




E (X X )2 = E (X E(X))2
On notera quune variance, somme de termes positifs, ne peut avoir quune valeur positive. Une valeur e levee de la variance signifie que les valeurs e loignees de lesperance ont
bar-hen.net

40

Param`etres descriptifs dune distribution discr`ete

une forte probabilite ; on dit que la variance est un param`etre de dispersion. Une valeur
nulle de la variance signifie quil nexiste quune seule valeur observable de valeur e gale
a` lesperance (dispersion minimum).
Lanalogie mecanique de la variance est le moment dinertie de masses ponctuelles par
rapport a` leur centre de masse.
P
On peut e crire :P
V(X) = i (x2i P
2X xi + 2X )p
Pi
2
2
Do`
u
V(X)
=
(x
p
)

2
(x
p
)
+

X
X
i i i
i i i
i pi
P
P
P
Or i pi = 1 et i pi xi = x donc V(X) = i (x2i pi ) 2X
Do`u la relation (theor`eme de Guldin) :
V(X) = E(X 2 ) E2 (X)
Cette relation est tr`es commode dans le calcul de la variance.

Ecart-type
On appelle e cart-type de X la racine carre de sa variance. On note X .
Un e cart-type est donc un reel positif ; il sagit dun indice de dispersion qui presente
lavantage davoir la meme unite que les observables.
Exemple 2.3 Reprenons lexemple 2.1 On a
2
3
1+ 2+
6
6
2
3
E(X 2 ) =
1+ 4+
6
6
V (X) = 5 4 = 1
X = 1
E(X) =

1
4=2
6
1
16 = 5
6

Exemple 2.4 Reprenons lexemple 2.2 On a :


16
4
4
0+ 1+ 2+
32
32
32
16
4
4
2
E(X ) =
0+ 1+ 4+
32
32
32
60 25
35
V (X) =

=
16 16
16
X 1.479
E(X) =

4
3+
32
4
9+
32

4
40
5
4=
=
32
32
4
4
120
60
16 =
=
32
32
16

On peut e galement calculer V(X) en utilisant la definition de V(X) :



2

2

2

2

2
16
5
4
5
4
5
4
5
4
5
V(X) =
0
+
1
+
2
+
3
+
4
32
4
32
4
32
4
32
4
32
4


1
1 9 49 121
=
25 + + +
+
32
4 4
4
4
35
=
16
bar-hen.net

41

` TES
2. VARIABLES AL EATOIRES
DISCR E

4 Variable indicatrice
Definition 2.4 Soit une experience aleatoire E pouvant entraner lobservation dun e lement
E ou de son contraire E. On appelle variable indicatrice de levenement E une variable
aleatoire X qui associe a` E la valeur un et a` E la valeur zero.

4.1

Loi de probabilite
On pose P(E) = p et P(E) = q = 1 p. On a
P(X = 1) = P(E) = p
et
P(X = 0) = P(E) = q = 1 p
La loi de X est donc definie par :
k
0
P(X = k) 1 p

4.2

1
p

Param`etres descriptifs
E(X) = 0(1 p) + 1p = p
E(X 2 ) = 0(1 p) + 1p = p
V(X) = E(X 2 ) E2 (X) = p p2 = p(1 p) = pq
Le mode est 1 si p > 21 , et 0 si p < 21 . Il ny a pas de mode si p =

1
2

5 Loi discr`ete uniforme


5.1

Definition
Soit une experience aleatoire E a` laquelle est associee une variable aleatoire X dont lensemble des observables contient un nombre fini de valeurs reelles : X() = {x1 , x2 , . . . , xn }.
La loi de probabilite de X est dite uniforme si elle est definie par
1
P(X = xi ) =
i {1, 2, . . . , n}
n
Exemple 2.5 Dans le jet dun de regulier, si X est la variable aleatoire qui associe a` la
face obtenue le nombre de points quelle represente, la loi de X est definie par :
k
P(X = k)

1
6

1
6

1
6

1
6

1
6

1
6

La loi de X est uniforme sur {1, 2, 3, 4, 5, 6}


bar-hen.net

42

La loi hypergeometrique

5.2 Param`etres descriptifs

E(X) =

n
X
i=1

E(X ) =

n
X

1X
xi
xi P(X = xi ) =
n i=1
n

x2i P(X

i=1

1X 2
x
= xi ) =
n i=1 i

V(X) = E(X 2 ) E2 (X)

Une distribution uniforme ne presente, e videmment, pas de mode.


Un cas particulier interessant est celui o`u lensemble des observables est constitue des n
premiers entiers. On obtient alors :
n

E(X) =

1X
1 n(n + 1)
n+1
i=
=
n i=1
n
2
2
n

1 n(n + 1/2)(n + 1)
(2n + 1)(n + 1)
1X 2
E(X ) =
i =
=
n i=1
n
3
6
2

V(X) =

n2 1
(2n + 1)(n + 1) (n + 1)2

=
6
4
12

6 La loi hypergeometrique
6.1

Schema du tirage exhaustif ou sans remise


Une urne contient N boules dont a sont rouges et N a non-rouges.
On consid`ere lexperience E qui consiste a` prelever, sans remise, un e chantillon de n
boules de lurne (n N ). Si X est la variable aleatoire associant a` un tel e chantillon le
nombre de boules rouges quil peut contenir, la loi de probabilite de X est definie par :
P(X = k) =

nk
Cak CN
a
n
CN

Un tel schema est utilise dans les sondages.

Definition 2.5 On dit quune variables aleatoire X, a` valeurs dans N, suit une loi hypergeometrique si la loi de probabilite est definie par :
P(X = k) =

Cak CNnk
a
CNn

o`u k, n, a, N sont des entiers positifs tels que 0 n N , 0 k n, 0 k a,


0 n k N a.

bar-hen.net


` TES
2. VARIABLES AL EATOIRES
DISCR E

43

6.2 Param`etres descriptifs


On notera, a` titre dinformation, les resultats suivants :
E(X) =

a
a N aN n
n ; V(X) = n
N
N N N 1

7 La loi binomiale
7.1

Schema de Bernoulli
Soit une suite finie de n experiences aleatoires E1 , E2 , . . . , En , obeissant aux conditions
suivantes :
1. chaque experience peut entraner lobservation dun e venement E ou de son contraire
E;
2. la probabilite de E, notee p, est la meme pour chaque experience ; ceci est alors
e galement vraie pour la probabilite de E, notee q = 1 p ;
3. le resultat dune experience est independant des resultats des autres experiences.
On note Ek levenement E se realise a` la k e` me experience et Ak levenement E se
realise exactement k fois dans la suite dexperiences.
Levenement Ak peut se realiser de plusieurs mani`eres mutuellement incompatibles. La
probabilite de Ak est donc la somme des probabilites de chacune de ces e ventualites.
Lune delles est, par exemple : E1 Ek Ek+1 En ; sa probabilite est
pk q nk , a` cause de lindependance des e venements. Toute autre e ventualite realisant Ak
aura la meme probabilite, obtenue par le produit de k termes e gaux a` p et de n k termes
e gaux a` q.
Pour obtenir la probabilite de Ak , il suffit donc de denombrer les e ventualites qui realisent
Ak . Il est clair quil y en a autant que de mani`eres de choisir, parmi les n experiences,
celles qui realisent E, cest-`a-dire Cnk et on e crit P(Ak ) = Cnk pk q nk .
Ce schema, dit de Bernoulli, sapplique par exemple, a` une suite de jets dune pi`ece de
monnaie (E=pile) ou un tirage avec remise, ou non exhaustif, de n boules dans une urne
a` deux categories (E=boule tiree est rouge).
Si on associe a` une suite dexperience de Bernoulli la variable aleatoire representant le
nombre devenements E que lon peut observer, levenement Ak secrit X = k et on
a : P(X = k) = Cnk pk q nk .
Definition 2.6 On dit quune variable aleatoire X, a` valeurs dans N, suit une loi binomiale si sa loi de probabilite est donnee par :
P(X = k) = Cnk pk q nk
avec k {0, 1, 2, . . . , n}, o`u n est un entier donne et o`u p est un reel tel que 0 < p < 1.
Le nom de cette loi provient du fait que P(X = k) est donne par le terme de rang k +1 du
developpement, suivant les puissances
croissantes de p, du binome de Newton : (p + q)n .
Pn
On verifie immediatement que k=0 Cnk pk q nk = (p + q)n = 1.
bar-hen.net

44

La loi binomiale

Une loi binomiale e tant parfaitement definie par les param`etres n et p, on e crit symboliquement : X suit une loi B(n, p).
Exemple 2.6
1. Si X est la variable aleatoire qui represente le nombre de piles
que lon peut obtenir

en jetant 10 fois une pi`ece reguli`ere, X suit une loi B 10, 21 . On a :
k
0
1
2
3
4
5
6
7
8
9
10
10
45
120
210
252
210
120
45
10
1
1
P(X = k) 1024 1024 1024 1024 1024 1024 1024 1024 1024 1024 1024
2. Une urne contient des boules rouges en proportion 1/4. On tire successivement 25 boules
en remettant chaque fois la boule
 tiree. Si Y est le nombre de boules rouges que lon peut
1
obtenir, Y suit un loi B 25, 4 (tirage non exhaustif ou avec remise).
3. La probabilite pour quun individu, issu dun certain croisement, poss`ede le phenotype
R est de 3/4. Si Z est la variable aleatoire representant le nombre dindividus portant le
phenotype R, que
 lon peut observer sur 50 descendants issus dun tel croisement, Z suit
une loi B 50, 43

7.2

Param`etres descriptifs
On admettra les resultats qui suivent ; il est recommande den connatre une demonstration
(voir par exemple le corrige de lexercice 11)
Si X est une variable aleatoire de loi B(n, p),
Lesperance de X est donne par X = E(X) = np
2
La variance de X est donnee par X
= V(X) = np(1 p) = npq
la distribution est de type unimodal et admet pour mode lentier, en general unique,
situe dans lintervalle [(n + 1)p 1, (n + 1)p] ou exceptionnellement deux modes
successifs, e quiprobables, bornes de lintervalle ci-dessus lorsque (n+1)p a une valeur
enti`ere.
Exemple 2.7

1. Si X suit une loi B 10, 21 , on a
1
E(X) = 10 = 5
2
Verifions :
E(X) =

10
X

kCnk pk q nk

k=0

1
(0 + 10 + 90 + 360 + 840 + 1260 + 1260 + 840 + 360 + 90 + 10)
1024
5120
=
1024
= 5
=

bar-hen.net

45

` TES
2. VARIABLES AL EATOIRES
DISCR E

V(X) = 10

11
= 2.5
22

Verifions :
10
X

E(X 2 ) =

k 2 Cnk pk q nk

k=0

1
(0 + 10 + 180 + 1080 + 3360 + 6300 + 7560 + 5880 + 2880 + 910 + 100)
1024
28160
=
1024
= 27.5

V(X) = E(X 2 ) E2 (X) = 2.5


Le mode est 5, entier de lintervalle [4.5, 5.5]

2. Si Y suit une loi B 25, 14 , on a
25
75
, V(X) = ,
4
16

3. Si Z suit une loi B 50, 34 , on a
E(X) =

E(X) =

7.3

150
150
, V(X) =
,
4
16

le mode est 6 [5.5, 6.5]

le mode est 38 [37.25, 38.25]

Formes de la distribution
La forme dune distribution binomiale se deduit aisement de letude du mode :
1. si p =

1
2

= q, forme en cloche symetrique.


k
En effet P(X = k) = Cnk 12 = P(X = n k). Car Cnk = Cnnk . Deux modes
successifs e quiprobables pour n impair

1
2. Si n+1
< p < 12 , forme en cloche dissymetrique, le mode e tant deplace vers la

gauche. Eventuellement,
deux modes successifs e quiprobables.

3. Si p

1
,
n+1

forme en L ; mode=0, e ventuellement deux modes 0 et 1.

1
2

n
4. Si < p < n+1
, forme en cloche dissymetrique, le mode e tant deplace vers la

droite. Eventuellement,
deux modes successifs e quiprobables.
n

5. Si p
, forme en J ; Eventuellement,
deux modes en n 1 et n.
n+1

Comme on le verra plus loin, il est tr`es important, en statistique, de savoir determiner la
forme dune distribution.
Exemple 2.8

1. Si X suit une loi B 10, 21 ,la distribution est en cloche symetrique par rapport au mode
5, valeur e gale aussi a` lesperance de X.
bar-hen.net

46

La loi binomiale


2. Si Y suit une loi B 25, 14 , la distribution est en cloche dissymetrique ; le mode 6 est plus
proche de 0 que de 25.

3. Si X suit une loi B 50, 34 ,la distribution est en cloche dissymetrique ; le mode 38 est
plus proche de 50 que de 0.

7.4

Approximation dune loi hypergeometrique


Soit X une variable aleatoire de loi hypergeometrique. On a :
Cak CNnk
a
CNn
a!
(N a)!
n!(N n)!
=
k!(a k)! (n k)!(N a n + k)!
N!
n!
a(a 1) . . . (a k + 1) (N a)(N a 1) . . . (N a n + k + 1)
=
k!(a k)! N (N 1) . . . (N k + 1)
(N k)(N k 1) . . . (N n + 1)
ak+1 N aN a1
N an+k+1
a a1
= Cnk
...
...
N N 1
N k+1N kN k1
N n+1
a
Si on suppose maintenant que N + et que N p, on a :

P(X = k) =

a
N

k1

N
p, Na1
= N1 1N p, . . . , Nak+1
= N1 k1
p;
1
k+1
N
N
on denombre k fractions de ce type.
a
a
1 N
1 N
nk1
N a
N an+k+1
N
N
=

p,
.
.
.
,
=
1 p ; on denombre n k
k
k
N n+1
1 n1
1 N
N
fractions de ce type.
En conclusion : si N + et si Na p, on a :

Cak CNnk
a
Cnk pk (1 p)nk
n
CN
Ce resultat mathematique peut e tre utilise de la mani`ere suivante :
La variable X represente le nombre dindividus dun type donne (de couleur rouge pour
une boule) que lon peut trouver dans un e chantillon de taille n extrait dune population de taille N (lurne) contenant a individus du type considere. Lechantillon peut e tre
obtenu par n tirages successifs sans remise. Si la taille de la population est tr`es grande
devant celle de lindividu (n  N ), de mani`ere a` ce que lon puisse considerer qu`a
chaque tirage la probabilite dobtenir un individu du type considere demeure pratiquement e gale a` celle du premier tirage ( Na ), la loi de X peut e tre assimilee a` une loi binomiale B n, p = Na . On remarquera, en particulier, que cette approximation conserve
lesperance :
a
E(X) = n = np
N
et, pratiquement, la variance :


a 
a  1 Nn
V(X) = n
1
np(1 p)
N
N
1 N1
 n
1
car 1 N1 1
N

bar-hen.net

47

` TES
2. VARIABLES AL EATOIRES
DISCR E

8 La loi de Poisson
Definition 2.7 On dit quune variable aleatoire X, a` valeurs dans N, suit une loi de
Poisson de param`etre si, e tant un reel donne strictement positif, la loi de X est
definie par :
k
P(X = k) = e
o`u k N
k!
Une loi de Poisson e tant parfaitement definie par le param`etre , on e crit alors : X suit
une loi P(). On note que :
+
X
k=0

8.1

k!

=e

+ k
X

k=0

k!

= e e = 1

Calcul pratique des probabilites


Les differentes probabilites se calculent aisement grace a` la formule de recurrence :
P(X = k + 1) = P(X = k)

k+1

Si, par exemple, on suppose que X suit une loi P(2, 2), on a :
P(X = 0) = e2.2 0.110803
2.2
P(X = 1) = P(X = 0)
0.243767
1
2.2
P(X = 2) = P(X = 1)
0.268144
2
2.2
P(X = 3) = P(X = 2)
0.196639
3
etc.
On trouvera dans la table 11.4 les valeurs de P(X = k), avec quatre chiffres significatifs,
pour differentes valeurs de . On peut, pour une valeur de non tabulee, proceder par
interpolation lineaire.
Si, par exemple, X suit une loi P(2, 2), on obtient :

2
Pour =2 P(X = 1) 0.2707
Pour = 2.2 P(X = 1) 0.2702 (0.27070.2052)
Pour =2.5P(X = 1) 0.2052
5
Do`u P(X = 1) 0.2445 ; la comparaison avec la valeur trouvee plus haut donne une
idee de la precision du procede.
On notera que la somme des probabilites des observables concentrees autour du mode
est pratiquement e gale a` un. Ceci explique que les probabilites affectees aux observables
exterieures a` cette zone ne sont pas tabulees ; il convient cependant de preciser que non
seulement chacune de ces probabilites est negligeable mais quil en est e galement de
meme de la somme de ces probabilite (attention, cette derni`ere remarque nest pas triviale : cette somme comprend un nombre infini de termes !).
bar-hen.net

48

La loi de Poisson

8.2 Param`etres descriptifs


On admettra les resultats qui suivent ; il est recommande den connatre une demonstration
(voir par exemple le corrige de lexercice 10)
Si X est une variable aleatoire de loi P(),
Lesperance de X est donne par X = E(X) =
2
La variance de X est donnee par X
= V(X) =
la distribution est de type unimodal et admet pour mode lentier, en general unique,
situe dans lintervalle [1, ] ou exceptionnellement deux modes successifs, e quiprobables,
bornes de lintervalle ci-dessus lorsque a une valeur enti`ere. La position du mode se
deduit aisement de la formule de recurrence donnee dans le paragraphe precedent.

8.3

Forme de la distribution
La forme dune distribution de Poisson se deduit de la valeur du mode :
Forme en L si 1 ;
forme en cloche dissymetrique pour > 1. Le mode se deplace vers la droite lorsque
augmente.

8.4

Processus de Poisson
Letude de certains phenom`enes aleatoires, qui sont dits suivre un processus de Poisson
(voir exercice 28) permet dintroduire directement la loi de Poisson. Cest ainsi que le
nombre dimpulsions que lon peut enregistrer par unite de temps, lors de la mesure dun
rayonnement par un compteur, est une variable aleatoire qui suit une loi de Poisson ;
lesperance de cette loi, qui caracterise le rayonnement, est le param`etre quil convient
de connatre.
Exemple 2.9 Le mouvement propre dun compteur, mesure pendant 30 secondes, est
une variable aleatoire X qui suit une loi P(10). Quelle est la probabilite dobserver
un nombre dimpulsions compris dans lintervalle [8; 12] lors dun comptage de 30 secondes ?
On a :
P(8 X 12) = P(X = 8) + P(X = 9) + P(X = 10) + P(X = 11) + P(X = 12)
= 0.1126 + 0.1251 + 0.1251 + 0.1137 + 0.0948
57%

8.5

Approximation dune loi binomiale


On utilisera, le plus souvent, la loi de Poisson comme approximation dune loi binomiale.
Soit X une variable aleatoire de loi B(n, p). On cherche la limite de P(X = k) lorsque :
n tend vers linfini, p tend vers zero, le produit np tend vers une valeur finie . On a :
P(X = k) =

n!
n!
(np)k (1 p)n
pk (1 p)nk =
k!(n k)!
(n k)!nk k! (1 p)k
bar-hen.net

49

` TES
2. VARIABLES AL EATOIRES
DISCR E

limn+

n!
(nk)!nk

= 1 car :

nn1n2
n!
nk+1
=
...
k
(n k)!n
n n
n
n

 


2
k1
1
= 1 1
1
... 1
n
n
n
limp0 (1 p)k = 1
log(1 p)n = n log(1 p) np lorsque n + et p 0.
On en deduit que :
lim
(1 p)n = e
n+,p0,np

En conclusion, lorsque n tend vers linfini, p tend vers zero, le produit np tend vers une
valeur finie , la loi binomiale B(n, p) converge vers une loi de poisson P() puisque :
Cnk pk (1 p)nk e

k
k!

Dans la pratique nous utiliserons ce resultat mathematique de la mani`ere suivante : lorsque


n a une valeur e levee (n 100) et une valeur p tr`es faible (p quelques pour cent), une
loi binomiale B(n, p) peut e tre approchee par une loi de Poisson P( = np)
Exemple 2.10 La probabilite dobserver une mutation sur un individu e tant de 104 ,
combien dindividus faut-il sattendre a` examiner pour e tre pratiquement sur dobserver au moins un mutant ?
Soit n ce nombre et soit X la variable aleatoire qui associe a` ces n individus le nombre
de mutants que lon peut observer parmi eux.
X suit une loi B (n, 104 ). Comme 104 est une valeur tr`es faible et que n a certainement
une valeur e levee, on peut dire que X suit pratiquement une loi P ( = n104 ).
Si on consid`ere comme pratiquement sur un e venement de probabilite au moins e gale a`
0.95, on e crit :
P(X 1) 0.95 P(X < 1) 0.05
Or P(X < 1) = P(X = 0) et P(X = 0) = e pour une loi de Poisson P().
4
On veut donc en10 0.05. Do`u :
n104 log 0.05
n104 log 0.05
n 2.99573 10+4
n 29958
Exemple 2.11 Le tableau ci-dessous donne une idee de lapproximation

bar-hen.net

50

P(X
P(X
P(X
P(X
P(X
P(X
P(X
P(X
P(X

La loi geometrique

= 0)
= 1)
= 2)
= 3)
= 4)
= 5)
= 6)
= 7)
= 8)

B (300, 102 )
0.0490
0.1486
0.2244
0.2252
0.1689
0.1010
0.0501
0.0212
0.0079

P(3)
0.0498
0.1493
0.2240
0.2240
0.1680
0.1008
0.0504
0.0216
0.0081

9 La loi geometrique
Soit une suite dexperiences aleatoires E1 , E2 , . . . , En , . . . obeissant aux conditions du
schema de Bernoulli :
1. chaque experience peut entraner lobservation dun e venement E ou de son contraire
E;
2. la probabilite de E, notee p, est la meme pour chaque experience ;
3. le resultat dune experience est independant des resultats des autres experiences.
On note Ek levenement E se realise a` la k e` me experience.
Si on consid`ere maintenant la variable aleatoire X qui associe a` toute suite de resultats le
rang du premier e venements E, on a :
P(X = k) = P(E1 E2 Ek1 Ek )
Lindependance des e venement permet decrire :
P(X = k) = P(E1 )P(E2 ) P(Ek1 )P(Ek ) = (1 p)k1 p
ou, en posant q = 1 p = P(E) :
P (X = k) = q k1 p
on remarque le fait que k N .
Definition 2.8 On dit quune variable aleatoire X, a` valeurs dans N , suit une loi geometrique,
ou de Pascal, si sa loi de probabilite est definie par P(X = k) = (1 p)k1 p o`u k N
et o`u p est un reel tel que 0 < p < 1.

9.1

Param`etres descriptifs
On demontre (voir exercice 18) les resultats suivants :
1
1p
q
E(X) = , V(X) =
= 2
2
p
p
p
La formule de recurrence P(X = k + 1) = P(X = k)(1 p) montre, puisque 0 < 1
p < 1, que les probabilites successives decroissent constamment ; le mode a donc pour
valeur 1.
bar-hen.net


` TES
2. VARIABLES AL EATOIRES
DISCR E

10

51

Exercices
1. Paul a dans sa poche deux botes dallumettes indiscernables ; lune contient 5
allumettes, lautre 2. Il choisit au hasard une des botes, allume sa cigarette avec
une seule allumette, puis remet la bote dans sa poche si elle nest pas vide, ou
la jette lorsquelle est vide. Soit X la variable aleatoire representant le nombre de
cigarettes allumees avant de jeter une des deux botes.
Determiner la loi de X. Calculer lesperance et la variance de X.
2. Un sac contient trois tickets numerotes 1,2,3
(a) Soit X le numero que lon peut obtenir en tirant un ticket. Quelle est sa loi
de probabilite ? Calculer son esperance et son e cart-type.
(b) Soit X2 la variable representant la moyenne arithmetique des deux numeros
que lon peut obtenir en tirant deux tickets. Determiner sa loi de probabilite
et calculer son esperance et son e cart-type selon les deux modes de tirages :
exhaustif et non exhaustif.
(c) Meme question pour X3 , moyenne arithmetique des trois numeros que lon
peut obtenir en tirant trois tickets.
3. Un gardien de nuit a 10 cles, dont une seule marche, pour ouvrir une porte. Il
emploie deux methodes :
A : methode rationnelle ; a` jeun, il retire les cles dej`a essayees.
B : ivre, chaque cle peut e tre essayee plusieurs fois.
Soit XA le nombre de cles dej`a essayees avant douvrir, y compris la bonne, dans
le cas A, XB dans le cas B.
(a) Determiner la loi de probabilite et la fonction de repartition de XA et XB ;
(b) Calculer les esperance de XA et XB ;
(c) on sait que le gardien est ivre un jour sur trois. Un jour, apr`es avoir essaye 8
cles, le gardien na toujours pas ouvert la porte. Calculer la probabilite pour
quil soit ivre.
4. Chez une esp`ece vegetale, la longueur des entre-nuds separant deux feuilles successives ayant termine leur croissance est gouverne par un couple dall`eles Aa. Les
longueurs des entre-nuds des genotypes AA, Aa, aa sont respectivement e gales a`
3cm, 5cm et 2cm.
On consid`ere une population composee des trois types dindividus avec les frequences
(1q)2 pour le genotype AA, 2q(1q) pour le genotype Aa et q 2 pour le genotype
aa.
(a)

bar-hen.net

i. Un individu est tire au hasard dans la population. Quelles sont les probabilites :
de tirer un individu de genotype AA ;
de tirer un individu de genotype Aa ;
de tirer un individu de genotype aa ?

52

Exercices

ii. Calculer, en fonction de q, lesperance mathematique 1 de la variable


aleatoire X1 e gale a` la longueur des entre-nuds de lindividu tire au
hasard dans la population et e tudier les variations de 1 , lorsque q varie
de 0 a` 1 (bornes incluses).
iii. Pour quelle valeur de q, lesperance mathematique de la longueur des
entre-nuds est-elle maximum ? Quelles sont alors les probabilites de
tirer :
de tirer un individu de genotype AA ;
de tirer un individu de genotype Aa ;
de tirer un individu de genotype aa ?
iv. Calculer, en fonction de q, les probabilites pour quun gam`ete issu dun
individu tire dans la population :
porte lall`ele A ;
porte lall`ele a.
(b) Un selectionneur decide deliminer de la reproduction tous les individus dont
la longueur des entre-nuds est e gale a` 2 cm.
i. Calculer, en fonction de q, pour un individu tire au hasard dans la population, la probabilite :
detre de genotype AA ;
detre de genotype Aa ?
ii. Calculer, en fonction de q, lesperance mathematique de la variable
aleatoire X2 e gale a` la longueur des entre-nuds dun individu tire dans
la population conservee pour la reproduction et e tudier les variations de
2 , lorsque 0 q < 1.
iii. Calculer, en fonction de q, les probabilites pour quun gam`ete issu dun
individu tire dans la population conservee pour la reproduction :
porte lall`ele A ;
porte lall`ele a.
Comparer ces deux probabilites a` celles de la question precedente.
N.B. 1 On supposera toujours que tous les individus de la population ont la
meme probabilite detre tires lors du tirage au hasard.
N.B. 2 On rappelle quun individu de genotype AA produit des gam`etes portant lall`ele A avec la probabilite 1, quun individu de genotype aa
produit des gam`etes portant lall`ele a avec la probabilite 1 et quun individu de genotype Aa produit des gam`etes portant lall`ele A avec la
probabilite 1/2, et portant lall`ele a avec la probabilite 1/2.
5. Un groupe de 10 personnes est compose de 4 hommes et de 6 femmes. On choisit
dans ce groupe un e chantillon de 4 personnes. Determiner la loi de probabilite du
nombre de femmes que lon peut observer dans un tel e chantillon ; calculer son
esperance et sa variance.

bar-hen.net

53

` TES
2. VARIABLES AL EATOIRES
DISCR E

6. Determiner la loi de probabilite, le mode, l esperance et lecart-type de variable


aleatoire donnee par la fonction de repartition :
F (t) = 1
4
F (t) =
5
1
F (t) =
5
F (t) = 0

si t > 3

si 2 < t 3

si 1 < t 2

si t 1

7. Une urne contient 10 boules numerotees : 3 numeros 1, 2 numeros 2, 5 numeros


3. On tire deux boules et on consid`ere la variable aleatoire representant le total des
nombres marques sur les deux boules :
determiner sa loi de probabilite ;
determiner sa fonction de repartition ;
calculer son esperance et sa variance ;
quelle est la probabilite pour que ce total prenne une valeur au moins e gal a` 6 ?
strictement compris entre 2 et 6 ?
8. Combien de fois faut-il envisager de lancer une pi`ece de monnaie pour e tre pratiquement sur dobserver au moins une fois levenement face ?
9. Soit un restaurant de 50 places. La probabilite, pour quune personne, ayant reserve
une table, ne vienne pas, est de 20%. Un jour, le patron a pris 52 reservations.
Quelle est la probabilite pour quil se trouve dans une situation embarrassante ?
10. On consid`ere deux races de plantes pures dune meme esp`ece diplodes, lune a`
fleurs rouges, lautre a` fleurs blanches ; la coloration de la fleur est determinee par
un couple dall`eles. On effectue un croisement pour obtenir la generation F 1, la
generation F 2 e tant obtenue par autofecondation.
Les plantes observes en F 1 sont rouges. Determiner la loi de probabilite de X,
nombre de plantes a` fleurs rouges que lon peut observer en F 2 sur cinq plantes.
Les plantes observes en F 1 sont roses. Determiner la loi de Y , nombre de plantes
a` fleurs roses, que lon peut observer en F 2, toujours sur 5 plantes.
Comparer la forme de ces trois distributions.
11. Soit la variable X, de loi binomiale P(X = k) = Cnk pk q nk avec k {0, 1, 2, . . . , n},
n un entier donne et p un reel tel que 0 < p < 1.
Calculer lesperance et la variance de X ;
determiner le mode de Xet en deduire la forme des distributions de lexercice
precedent.
12. Soit la variable aleatoire representant le nombre de filles que lon peut observer
dans une famille de 6 enfants. Determiner sa loi de probabilite, son mode, son
esperance, sa variance.
13. Un amplificateur est fabrique a` laide de 100 composants e lectroniques. Chaque
composant a une probabilite de 103 de se reveler defectueux a` la mise en service.
On admet quil suffit que lun des composants soit defectueux pour que lamplificateur ne fonctionne pas et quil ny a pas dautres causes de panne.
bar-hen.net

54

Exercices

Soit P la probabilite pour quun amplificateur ne fonctionne pas. On posera pour


1
la suite P = 10
. Justifier ce resultat.
Soit le nombre damplificateurs defectueux que lon peut obtenir dans une serie
de 4. Determiner sa loi de probabilite.
14. On consid`ere deux races dune meme esp`ece. La premi`ere est caracterisee par ses
fleurs rouges et ses feuilles decoupees, la deuxi`eme par ses fleurs blanches et ses
feuilles enti`eres.
On observe en F 1, apr`es croisement, des plantes a` fleurs rouges et a` feuilles decoupees.
On admet les hypoth`eses suivantes : chaque caract`ere est determine par un couple
dall`eles, les populations parentales sont pures, les deux couples dall`eles sont
independants.
Soit X la variable aleatoire representant le nombre de plantes a` fleurs blanches
et a` feuilles enti`eres quon peut observer, sur 100 plantes obtenues en F 2 par autofecondation. Quelle est la loi de X ? Determiner le mode de X et donner la forme
de sa distribution. Calculer lesperance et la variance de X.
15. Deux personnes lancent, 5 fois chacune, une pi`ece de monnaie. Calculer la probabilite pour quelles obtiennent le meme nombre de faces.
16. Dans un stock de botes de lait de longue conservation, il peut exister des botes
non steriles et donc defectueuses ; on notera N le nombre de botes de lait du stock,
D
D le nombre de celles qui sont defectueuses et q = N
Pour sassurer que la proportion de botes defectueuses est suffisamment faible, on
controle un e chantillon de n botes preleve dans le stock sous les conditions :
Chaque bote a la meme probabilite 1/N detre prelevee. La taille n de lechantillon
est petite par rapport a` la taille N du stock et on peut faire lapproximation que les
prel`evements des n botes sont des e venements independants.
(a) Quelle est, sous ces conditions, la loi de la variable aleatoire X e gale au
nombre de botes non steriles dans lechantillon ?
Quelles sont les probabilites et des deux e venements :
les botes de lechantillon sont toutes steriles ;
une bote au moins de lechantillon est non sterile.
(b) On veut que la probabilite soit superieure ou e gale a` 0.95 si q depasse un
seuil fixe q0 (q0 est la valeur a` partir de laquelle on estime que la qualite du
produit est inacceptable).
Quel nombre n de botes faut-il prelever pour que cette condition soit satisfaite ?
Donner la valeur minimale de n si q0 = 0.01
17. On jette simultanement deux des reguliers. On sinteresse a` levenement sortie
dune paire ; quel est sa probabilite ?
Soit X le nombre de paires que lon peut obtenir en jetant les deux des quatre
fois de suite. Determiner sa loi de probabilite. Calculer son esperance et son
e cart-type.

bar-hen.net


` TES
2. VARIABLES AL EATOIRES
DISCR E

55

Laurent propose a` Paul le jeu suivant : tous deux misent la meme somme puis
Paul lance quatre fois les deux des ; sil obtient au moins une paire il emporte la
mise, si non cest Laurent. Le jeu est-il e quitable ?
18. On consid`ere une suite chronologique dexperiences aleatoires : E1 , E2 , . . . , En , . . ..
Chaque experience nadmet que deux resultats possibles : levenement A, de probabilite P ou levenement B de probabilite 1 P ; ces deux e venements sont
incompatibles et les realisations successives sont independantes. Soit U la variable
aleatoire associant a` la suite dexperiences le rang du premier e venement A :
determiner la loi de probabilite de U ;
calculer lesperance et la variance de U .
19. On consid`ere une variable aleatoire X dont la loi de probabilite est une loi de
k
Poisson : P(X = k) = e k! , pour k N, e tant un reel donne strictement
positif. Montrer que E(X) = V(X) = . Determiner le mode de X et en deduire
la forme de la distribution.
20. Soit une variable aleatoire X, dont la loi est une loi de Poisson desperance = 0.43.
Calculer, a` 104 pr`es, la probabilite de chacune des premi`eres valeurs de X ; justifier larret des calculs.
21. On admet que la probabilite dapparition dune mutation sur un individu est 106 .
Combien dindividus faut-il sattendre a` examiner pour e tre pratiquement sur dobserver au moins un mutant ?
22. On choisit au hasard une famille dans une population donnee. Soit X le nombre
denfants quelle peut contenir ; on admet que X est une variable de Poisson desperance .
On sait, dautre part, qu`a chaque naissance la probabilite davoir un garcon est 1/2.
Comparer les histogrammes de la loi de X dans les cas = 2 et = 3.5 ;
exprimer la probabilite dobserver k garcons dans une famille dont on sait quelle
contient n enfants,
determiner la loi de probabilite du nombre de garcons que lon peut observer
dans une famille extraite de la population.
23. Le bureau detude dun centre spatial doit donner son avis sur un projet de fusee.
Le moteur et lequipement e lectronique se composent de 1500000 pi`eces distinctes.
Chaque pi`ece a une chance sur 10 millions de se reveler defectueuse ; la defectuosite
dune seule pi`ece suffit a` empecher le bon fonctionnement de la fusee, les causes
de defectuosite des diverses pi`eces e tant independantes.
Que penser du projet ?
24. La probabilite pour que linjection dun certain serum provoque une reaction allergique, sur un individu choisi au hasard, est de 0.1%. Quelle est la probabilite pour
que, sur 900 individus traites on observe lallergie dans :
exactement 3 cas ;
au plus 3 cas ;
au moins 3 cas ?
25. Dans une esp`ece donnee, la proportion des albinos est de 0.2%. Calculer la probabilite dobserver au moins 2 albinos dans un e chantillon de 230 individus.
bar-hen.net

56

Exercices

26. Dans une population humaine, la proportion de gauchers est de 1%. Quelle est la
probabilite dobserver au moins 4 gauchers dans un e chantillon de 230 personnes ?
27. Une usine fabrique des petits gateaux aux raisins. La pate et les raisins sont melanges
avant le decoupage des gateaux. Quel nombre moyen de raisins faut-il prevoir par
gateau si lon veut que la probabilite pour quun gateau contienne au moins un
raisin soit de 99% ?
28. (Processus poissonien). On consid`ere une suite devenements identiques qui se
succ`edent dans le temps. Le nombre devenements qui se produisent dans une intervalle de temps est aleatoire. Soit wk (t) la probabilite davoir k e venements dans
un intervalle de temps de longueur t. Calculer wk (t) en supposant :
(a) wk (t) ne depend que de la longueur t de lintervalle de temps et pas de linstant initial ;
(b) la probabilite dobserver un e venement dans un intervalle de temps dt est un
infiniment petit du meme ordre que dt, donc e quivalent a` dt ( = constante
positive) ;
(c) la probabilite dobserver plus dun e venement dans un intervalle de temps dt
est un infiniment petit dordre superieur a` dt ;
(d) si t et t0 sont des intervalles de temps sans partie commune, le nombre
devenements se produisant dans t est independant du nombre devenements
se produisant dans t0 .

bar-hen.net

57

` TES
2. VARIABLES AL EATOIRES
DISCR E

11

Solutions
1. Lexperience E consiste a` allumer successivement 7 cigarettes. On note X la variable qui associe a` E le nombre de cigarettes allumees avant de jeter une des deux
botes. X est une variable discr`ete. On se propose de calculer P(X = k) avec
k {2, 3, 4, 5, 6}
Soient les e venements :
A : pour une cigarette on tire la premi`ere bote (de 5 allumettes) ;
B : pour une cigarette on tire la deuxi`eme bote (de 2 allumettes) ;
(iA, jB) : les (i + j) premiers choix ont donne i fois A et j fois B ;
(dernier A) le dernier choix est A ;
(dernier B) le dernier choix est B

1 i+j
i
On a : P(A) = P(B) = 21 tant quil y a deux botes et P((iA, jB)) = Ci+j
,
2
si (iA, jB) 6= 0.
On e crit successivement
1
P(X = 2) = P(1B dernier B) = P(B)P(B) =
4
 2
1 1
2
1
P(X = 3) = P((1A, 1B) dernier B) = P((1A, 1B))P(B) = C2
=
2 2
8
 3
1 1
3
P(X = 4) = P((2A, 1B) dernier B) = P((2A, 1B))P(B) = C31
=
2 2
16
P(X = 5) = P((3A, 1B) dernier B) + P(4A dernier A) (evenements incompatibles)
 4
 4
1 1
1 1
5
3
+
=
= P((3A, 1B))P(B) + P((4A)P(B) = C4
2 2
2 2
32
 5
1
5
P(X = 26) = P((4A, 1B) dernier A B) = P((4A, 1B)) = C51
=
2
32
Do`u la loi de probabilite :
xi 2 3 4 5 6
8
6
5
5
8
pi 32
32 P
32
32
32
On verifie que i pi = 1.
On en deduit :
n
X
1
119
E(X) =
xi pi = (16 + 24 + 24 + 25 + 30) =
3.719
32
32
i=1
2

E(X ) =

n
X
i=1

x2i pi =

1
505
(32 + 72 + 96 + 125 + 180) =
15.78
32
32

V(X) = E(X 2 ) E2 (X) =

bar-hen.net

1999
1.95
1024

58

Solutions

2.

(a) X est une variable aleatoire discr`ete de loi uniforme sur {1, 2, 3}
P(X = 1) = P(X = 2) = P(X = 3) =

1
3

1
E(X) = = (1 + 2 + 3) = 2
3
 1
2
V(X) = E (X )2 = (1 + 0 + 1) =
3
3

2
(X) =
3
On note, pour la suite X, Y et Z les numeros tires en premier, deuxi`eme et
troisi`eme rang.
(b) Tirage exhaustif On a pour resultat possibles :


3
X2 =
= (X = 1 Y = 2) (X = 2 Y = 1)
2

X2 = 2 = (X = 1 Y = 3) (X = 3 Y = 1)


5
X2 =
= (X = 2 Y = 3) (X = 3 Y = 2)
2
En appliquant laxiome des probabilites totales (evenements incompatibles) puis la relation des probabilites composees (evenements dependants,
on a, par exemple, :


3
P X2 =
= P(X = 1)P (Y = 2|X = 1) + P(X = 2)P (Y = 1|X = 2)
2
11 11
=
+
32 32
1
=
3
On a la loi :
xi
P(X2 = xi )
On en deduit :

3
2
1
3

2
1
3

5
2
1
3

1
E(X2 ) = = ( 3/2 + 0 + 5/2) = 2 = E(X)
3
 1
1
V(X2 ) = E (X2 )2 = ( 1/4 + 1/4) =
3
6
1
(X2 ) =
6
bar-hen.net

59

` TES
2. VARIABLES AL EATOIRES
DISCR E

Tirage non exhaustif



X2 = 1 =


3
X2 =
=
2

X2 = 2 =


5
X2 =
=
2

X2 = 3 =

On a pour resultat possibles :


(X = 1 Y = 1)
(X = 1 Y = 2) (X = 2 Y = 1)
(X = 1 Y = 3) (X = 2 Y = 2) (X = 3 Y = 1)
(X = 2 Y = 3) (X = 3 Y = 2)
(X = 3 Y = 3)

En appliquant laxiome des probabilites totales (evenements incompatibles) puis la relation des probabilites composees (evenements independants,
on a, par exemple, :

P X2 = 2 = P(X = 1)P (Y = 3) + P(X = 2)P (Y = 2) + P(X = 3)P (Y = 1)
11
= 3
33
3
=
9
On a la loi :
xi
1
P(X2 = xi ) 19
On en deduit :

3
2
2
9

5
2
2
9

2
3
9

3
1
9

1
E(X2 ) = = (1 + 3 + 6 + 5 + 3) = 2 = E(X)
9
 1
1
1
1
V(X2 ) = E (X2 )2 = (1 + 2 + 0 + 2 + 1) =
9
4
4
3
(X)
1
(X2 ) = =
3
2
(c) tirage exhaustif Une seule valeur observable X3 : 2 Donc P(X3 = 2) = 1
et E(X3 ) = 1 2 = E(X) et V(X3 ) = 0 = (X3 )
tirage non exhaustif En raisonnant comme dans la question precedente, on
obtient :
xi
1
1
P(X2 = xi ) 27
On en deduit :

4
3
3
27

5
3
6
27

2
7
27

7
3
6
27

8
3
3
27

3
1
27

1
(1 + 4 + 10 + 14 + 14 + 8 + 3) = 2 = E(X)
27



1
4
1
1
4
2
2
V(X2 ) = E (X2 ) =
1+3 +6 +0+6 +3 +1 =
27
9
9
9
9
9

2
(X)
(X2 ) =
=
3
3
E(X2 ) = =

bar-hen.net

60

Solutions

3. On note Ei levenement la bonne clef est tiree la ie` me fois et Ei levenement la


bonne clef nest pas tiree la ie` me fois.
Si X est le nombre dessais, on a :(X = k) = E1 E2 . . . Ek1 Ek , k
{1, 2, . . . , 10}
Methode A (tirage exhaustif)
P(XA = 1) = P(E1 ) =

1
10

P(XA = 2) = P(E1 E2 ) = P(E1 )P(E2 |E1 ) =


P(XA = 3) = P(E1 E2 E2 ) =

9 1
1
=
10 9
10

9 81
1
=
10 9 8
10

..
.
. = ..
P(XA = 10) = P(E1 . . . E9 E10 ) =

31
1
9 87
...
1=
10 9 8
22
10

On peut e galement dire : tirer 10 clefs en tirage exhaustif revient a` ordonner


9!
1
les 10 clefs. La bonne clef a une probabilite de 10!
= 10
detre a` une place
donnee. Do`u la loi de XA :
1
, k {1, 2, 3, . . . , 10}
10
P(XA = k) = 0 si k 6 {1, 2, 3, . . . , 10}

P(XA = k) =

Il sagit dune loi uniforme sur {1, 2, 3, . . . , 10}.


On en deduit, en posant F (t) = P(XA < t) :
F (t) = 0 ,
k
F (t) =
,
10
F (t) = 1 ,

si t 1
o`u k est lentier immediatement inferieur a` t, si 0 < t 10
si t 10

Methode B (tirage non exhaustif) k N



P(X = k) = P(E1 E2 . . . Ek1 Ek ) =
Do`u la loi geometrique : P(XB = k) =
k) = 0 pour k 6 N
G(t) = 0 ,
 k1
9
G(t) = 1
,
10


9 k1 1
10
10

9
10

k1

1
10

pour k N et P(XB =

si t 1
o`u k est lentier immediatement inferieur a` t, si t > 1
bar-hen.net

61

` TES
2. VARIABLES AL EATOIRES
DISCR E

1
(somme des termes dune suite geometrique : 10
(1 + 9/10 + + 9k1/10) =
9 k
1 1( 10 )
10 1 9/10
1
Pour |x| < 1, 1 + x + x2 + + xn + = 1x
donc 1 + 2x + 3x2 + +
1
eduit :
nxn1 + = (1x)
2 . On en d

1
E(XB ) =
10

9
1+2 +3
10

3
10

2

!
+

1 1
= 10
10 ( 1/10)2

Pour la derni`ere question on note que


2
= 0.2
10
 8
9
1 P(XB 8) = 1 G(9) =
0.43
10
P(X = XA )P(X > 8|X = XA ) + P(X = XB )P(X > 8|X = XB )
2
1
P(XA > 8) + P(XB > 8)
3
3
2
1
1
0.2 + 0.43 0.83
3
3
3

P(XA > 8) = P(XA = 9) + P(XA = 10) =


P(XB > 8) =
P(X > 8) =
=

On peut alors e crire :


P(gardien ivre|X > 8) = P(X = XB |X > 8) =

1
0.43
P(X = XB X > 8)
31
0.518
P(X > 8)
0.83
3

4. Probl`eme tr`es simple


(a)

i. P(AA) = (1 q)2 ; P(Aa) = 2q(1 q) ; P(aa) = q 2


ii. Loi de X1 : P(X1 = 2) = q 2 ; P(X1 = 3) = (1 q)2 ; P(X1 = 5) =
2q(1 q). Donc 1 = E(X1 ) = 2q 2 + 3(1 q)2 + 10q(1 q) =
5q 2 + 4q + 3
iii. 1 est maximum pour q = 2/5. Dans ce cas on a P(AA) = 36% ;
P(Aa) = 48% ; P(aa) = 16%

(b)

iv. P(A) = P(donneur AA A) + P(P(donneur Aa A) = (1 q)2 1 +


2q(1 q) 21 = 1 q
P(a) = P(donneur Aa a) + P(P(donneur aa a) = 2q(1 q) 21 +
q2 1 = q
non aa)
P(AA)
(1q)2
1q
i. P(AA|non aa) = P(AA
P(non aa) = non aa = 1q2 = 1+q
non aa)
P(AAa)
2q(1q)
2q
P(Aa|non aa) = P(Aa
P(non aa) = non aa = 1q2 = 1+q
ii. Loi de X2 : P(X2 = 3) = 1q
; P(X2 = 5) =
1+q
3+7q
1
(3 3q + 10q) = 1+q
1+q

bar-hen.net

2q
1+q

Donc 2 = E(X2 ) =

62

Solutions

iii. P(A) = P(donneur AAA)+P(donneur AaA) =


1
( 1 q car 1 1 q 2 )
1+q

1q
2q
1+ 1+q
12
1+q

P(a) = P(donneur Aa a) + P(P(donneur aa a) =


( q car q q + q 2 )

2q
1+q

1
2

q
1+q

5. Il sagit dune loi hypergeometrique E(X) = 2.4 ; V(X) = 0.64


xi 0
1
2
3
4
24
90
80
15
1
pi 210
210
210
210
210
6. On trouve aisement la loi de T :
ti
pi

1
5

3
5

1
5

puis E(T ) = 2, (T ) =

2
,
5

mode=2.

7. Lespace des e venements associe a` lexperience E qui consiste a` choisir 2 boules


2
contient C10
= 45 e venements e lementaires e galement probables. On peut alors
distinguer les e venements suivants :
1
3
(1,1) de probabilite 45
C32 = 45
1
6
(1,2) de probabilite 45
3 2 = 45
1
(1,3) de probabilite 45
3 5 = 15
45
1
1
(2,2) de probabilite 45 C22 = 45
1
10
(2,3) de probabilite 45
2 5 = 45
1
(3,3) de probabilite 45
C52 = 10
45
On en deduit aisement la loi de probabilite :

xi 2 3 4 5 6
3
6
16
10
10
pi 45
45
45
45
45
puis E(X) = 4.4 et V(X) 1.35
P(X 6) = P(X = 6) = 10
; P(2 < X < 6) = 1
45

13
45

32
45

8. Chaque jet peut entraner lobservation de levenement Face avec la probabilite


1/ , ou Pile avec la probabilit
e 1/2, dans lhypoth`ese dun jet regulier. Les differents
2
jets sont independants. Si X est la variable aleatoire Nombre de faces que lon
peut obtenir sur n jets, on a X B(n, P ). Si lon qualifie de pratiquement sur
un e venement de probabilite superieur a` 0.99, il faut determiner n pour que :
P(X 1) 0.99 P(X = 0) 0.01
Or P(X = 0) = 21n
Do`u linegalite 21n 0.01 2n 100 ce qui est realise pour n 7 (27 = 128).
Si on veut P(X 1) 0.999 il faut choisir n 10.
9. Pour chaque client qui a reserve, deux resultats possibles : il vient de probabilite
0.8, ou il ne vient pas de probabilite 0.2. On consid`ere que les choix des 52
bar-hen.net

63

` TES
2. VARIABLES AL EATOIRES
DISCR E

clients qui ont reserve sont independants. Si X est la variable aleatoire nombre de
clients qui se presentent le soir, parmi les 52, on a X B(52; 0.8)
La situation embarrassante correspond a` levenement X > 50.
X > 50=X = 51X = 52 ; les deux e venement e tant incompatibles :

P(X > 50) = P(X = 51) + P(X = 52) = 52

8
10

51

 52
2
8
1.28 104
+
10
10

10. Exemple classique dutilisation de la loi binomiale : observer 5 descendants dont


les parents ont des genotypes donnes revient a` effectuer 5 experiences identiques et
independantes ; pour chaque descendant il a possibilite dapparition dun phenotype
donne (probabilit
 e P ) ou non (probabilite 1 P ).
3
X B 5, 4 . Distribution en cloche dissymetrique avec mode a` droite (pratiquement en J).
0
1
2
3
4
5
xi
1
15
90
270
405
243
pi 1024
1024
1024
1024
1024
1024

X B 5, 14 . Distribution en cloche dissymetrique avec mode a` gauche (pratiquement en L).
yi
0
1
2
3
4
5
243
405
270
90
15
1
pi 1024 1024
1024
1024
1024
1024

X B 5, 12 . Distribution en cloche symetrique.
zi
pi

1
32

15
32

10
32

10
32

5
32

1
32

11.
E(X) =
=

n
X
k=0
n
X

kP(X = k)
k

n!
pk (1 p)nk
k!(n k)!

n!
pk (1 p)nk
(k 1)!(n k)!

k=0

n
X
k=1

= np

n
X
k=0

(n 1)!
pk1 (1 p)nk
(k 1)!(n k)!

On pose i = k 1 k = i + 1 n k = n i 1. On a
E(X) = np

n1
X
i=0

bar-hen.net

(n 1)!
pi (1 p)ni1 = np(p + 1 p)n1 = np
i!(n i 1)!

64

Solutions

E(X ) =

n
X

k 2 P(X = k)

k=0

=
=

n
X
k=0
n
X
k=1

n
X

k2
k

n!
pk (1 p)nk
k!(n k)!

n!
pk (1 p)nk
(k 1)!(n k)!

(k 1 + 1)

k=1

n!
pk (1 p)nk
(k 1)!(n k)!

n
X

n
X
n!
n!
k
nk
=
(k 1)
p (1 p)
+
pk (1 p)nk
(k

1)!(n

k)!
(k

1)!(n

k)!
k=1
k=1

n
X
k=2

n
X
n!
n!
k
nk
p (1 p)
+
k
pk (1 p)nk
(k 2)!(n k)!
k!(n k)!
k=1

= n(n 1)p2

n
X
k=2

(n 2)!
pk2 (1 p)nk + np
(k 2)!(n k)!

On pose, comme plus haut i = k 2 k = i + 12 n k = n i 2. On a :


n1
X
(n 2)! i
E(X ) = n(n1)p
p (1p)n2i +np = n(n1)p2 +np = n2 p2 +np(1p)
i!(n

k)!
i=0
2

et donc
V(X) = E(X 2 ) E2 (X) = np(1 p)
Pour determiner le mode on consid`ere le support des probabilites de deux valeurs
observables successives. On a :
P(X = k + 1)
C k+1 pk+1 (1 p)nk1
nk p
= n k k
=
nk
P(X = k)
Cn p (1 p)
k+11p
On en deduit :

P(X = k + 1) > P(X = k)


si k < (n + 1)P 1

P(X = k + 1) < P(X = k)


si k > (n + 1)P 1
P(X = k + 1) = P(X = k) = k(n + 1)P 1 si k [0, n] et (n + 1)P 1 a

une valeur enti`ere


On resulte ces informations en disant que le mode est un entier l [(n + 1)P
1, (n + 1)P ]
On peut noter que (n + 1)P > 0 car P > 0 et (n + 1)P 1 < n, car P < n+1
= 1;
n+1
l est donc bien une observable {0, 1, 2, . . . , n}. Lintervalle a pour amplitude 1
et en general ill est unique, si (n + 1)P 1 a une valeur enti`ere, il peut y avoir deux
modes successifs. Il est aise de retrouver les resultats de lexercice 10
bar-hen.net

65

` TES
2. VARIABLES AL EATOIRES
DISCR E


12. Reponses : B 6, 12 ; esperance=mode=3 ; variance=1.5.

1
13. Reponses : P = 1 (1 103 )100 101 car (1 x)n 1 nx ; B 4, 10

1
14. Reponses : B 100, 16
.
Distribution pratiquement en L : forme en cloche tr`es dissymetrique, de mode 6.
E(X) = 6.25 ; V(X) 5.86

15. Reponse : X et Y suivent une loi B 5, 12
P(X = Y ) =

5
X

P(X = i)P(Y = i)

i=0

5
X
i=0

C5i

2 1
210

63
256

16. Reponses :
X suit une loi hypergeometrique que lon peut approcher par B (n, q) ;
= (1 q)n ; = 1 (1 q)n
log 0.05
n log(1q
; log 0.05 3, log(1 102 ) 102 n 300
0)


17. Reponses : X B 4, 16 ; E(X) = 23 ; (X) = 35
671
625
> 1296
; le jeu nest pas e quitable.
1296
18. On note Bi levenement B se produit a` la ie` me experience et Aj levenement A
se produit a` la ie` me experience.
On a : (U = k) = B1 B2 . . . Bk1 Ak , k N
On en deduit, a` cause de lindependance des realisation successives : P(U = k) =
P(B1 )P(B2 ) . . . P(Bk1 )P(Ak ) = (1 P )k1 P
U suit une loi geometrique :
P(U = k) = (1 P )k1 P pour k N
P
k
2
n
On sait, que pour |x| < 1, on a +
k=0 x = 1 + x + x + + x + =
P+ k
1
On pose f (x) = k=0 x = 1x
.
On en deduit :
0

f (x) =

+
X

kxk1 =

k=1
+
X

xf 0 (x) =

kxk =

k=1

(x) = (xf 0 (x))0 =

+
X
k=1

bar-hen.net

k 2 xk1 =

1
1x

1
(1 x)2
x
(1 x)2
1
2x
1+x
+
=
2
3
(1 x)
(1 x)
(1 x)3

66

Solutions

On peut alors e crire :


+
X

P(U = k) = P

k=1

+
X

(1 P )k1 = P f (1 P ) =

k=1
+
X

E(X) =

k=1
+
X

E(X 2 ) =

P
=1
P

k(1 P )k1 P = P f 0 (1 P ) =

1
P
=
P2
P

k 2 (1 P )k1 P = P (1 P ) = P

k=1

V(X) = E(X 2 ) E2 (X) =

2P
2P
=
P3
P2

2P
1
1P
2 =
2
P
P
P2

Comme PP(U(U=k+1)
= 1 P < 1, il est clair que la variable U admet pour mode 1 ;
=k)
les probabilites decroissent quand k augment.
19.
E(X) =

+
X

kP(X = k) =

k=0
2

E(X ) =

+
X

+
X

ke

k=0
+
X

k P(X = k) =

k=0

k!

k e

k=0

+
X

k=1
k

k!

= e

X i
k1
= e
= e e
(k 1)!
i!
i=0

+
X
k=1

k1
(k 1)!

Or
+
X

k=1

+
X
k1
k1
=
(k 1 + 1)
(k 1)!
(k 1)!
k=1

+ i
X

i=0

i!

+
+
X
X
k1
k1
+
(k 2)! k=1 (k 1)!
k=2

+ i
X

i=0

i!

Et donc
V(X) = E(X 2 ) E2 (X) =

= k+1
Determination du mode On a la relation PP(X=k+1)
(X=k)
On en deduit :

si k < 1
P(X = k + 1) > P(X = k)
P(X = k + 1) < P(X = k)
si k > 1

P(X = k + 1) = P(X = k) = k 1 si k N et a une valeur enti`ere 0


On resulte ces informations en disant que le mode est un entier l [ 1, ]
Lintervalle a pour amplitude 1, et en general, l est unique ; si a une valeur
enti`ere 1, on aura deux modes successifs.
bar-hen.net

67

` TES
2. VARIABLES AL EATOIRES
DISCR E

Forme de la distribution En L si 1
En cloche, si > 1
20. On obtient, a` 104 pr`es, pour E(X) = 0.43
Interpolation lineaire a`
partir des tables
0.43
P(X = 0) = e
0.6505
0.6511
P(X = 1) = P(X = 0) 0.43
0.2797
0.2787
1
0.43
P(X = 2) = P(X = 1) 2
0.0601
0.0602
0.43
P(X = 3) = P(X = 2) 3
0.0086
0.0088
P(X = 4) = P(X = 3) 0.43
0.0009
0.0010
4
0.43
P(X = 5) = P(X = 4) 5
0.0001
0.0001
0.9999
0.9999
P(X 5)
Chaque valeur enti`ere 6 a une probabilite inferieure a` 104 . On remarque, de
plus, que lensemble des entiers 6 constitue un e venement presque impossible
P(X 6) = 1 P(X 5) 0.0001. On peut donc decider darreter la tabulation
a` X = 5.
21. Soit P = 106 la probabilite, pour un individu, detre mutant. Soit X le nombre de
mutants que lon peut observer sur n individus examines. On a X B (n, 106 ).
Comme la probabilite P a une valeur tr`es faible et n une valeur tr`es e levee, on peut
e crire X P ( = n106 ).
Si on consid`ere comme pratiquement sur un e venement de probabilite 0.99, on
a:
Calcul precis

P(X 1) 0.99 P(X = 0) 0.01 e 0.01 4.61


Do`u n106 4.61 et n 4.61 106
Pour une probabilite 0.999 on aurait n 6.91 106 .
22. Soient X le nombre denfants et Y le nombre de garcons quune famille choisie au
hasard peut contenir. On sait que X P().
Si = 2, X a une distribution en cloche avec 2 modes successifs : 1 et 2. Si
= 3.5, X a une distribution en cloche, de mode 3, donc deplace sur la droite
(voir 19)
Si on sait que la famille choisie
contient n enfants, il est clair que le nombre de

garcons suit une loi B n, 21 . On e crit :
 k  nk
 n
1
1
1
k
k
P(Y = k|X = n) = Cn
= Cn
2
2
2
avec k {0, 1, . . . , n}
On a (Y = k) = (Y = k X = k) (Y = k X = k + 1)
Les differentes e ventualites e tant deux a` deux incompatibles, on a :
P(P (Y = k) =

+
X
i=0

bar-hen.net

P(X = k + i Y = k)

68

Solutions

+
X

P(X = k + i)P(Y = k|X = k + i)

i=0

+
X

k+i (k + i)! 1
(k + i)! k!i! 2k+i

i=0

+
X
i=0

 k+i
1
2

k+i
Ck
(k + i)! k+i

k
e k
2

1 X i 1
k! i=0 2i i!

( /2)k /2
e
k!
k
( /2)
= e /2
k!

= e

On en deduit
Y P



2
23. Soit X le nombre de pi`eces defectueuses que lon peut observer sur les 1 500 000

pi`eces. Etant
donnees les hypoth`ese, on a

X B 1.5 106 , 107
Comme la probabilite, pour une pi`ece, detre defectueuse est tr`es faible et comme
le nombre de pi`eces est tr`es e leve, on peut e crire
X P(0.15)
On a
P(X = 0) = e0.15 0.86
La fusee a donc 14 chances sur 100 de ne pas partir. Le projet nest pas fameux,
compte-tenu de prix dune telle operation !
` partir de la loi binomiale, on obtient : P(X = 0) = (1 107 )1.5 106 . Do`u, en
A
utilisant lapproximation (1 x)n 1 nx
P(X = 0) 1 0.15 = 0.85
24. Reponses : 4.94% ; 98.66% ; 6.28%
25. Reponse : 94.37%
26. Reponse : 20.26%
27. Reponse : = log 0.01 4.6

bar-hen.net

69

` TES
2. VARIABLES AL EATOIRES
DISCR E

28. On va determiner successivement wo (t), w1 (t), w( 2(t) puis, par recurrence wk (t).
On note Xt la variable aleatoire nombre devenement pendant t.
w0 (t) = P(Xt = 0)

w0 (t + dt) = P(Xt+dt = 0) = P(Xt = 0 Xdt = 0)


= P(Xt = 0)P(Xdt = 0) 4e` me hypoth`ese
= w0 (t)[1 P(Xdt 1)] = w0 (t)[1 P(Xdt = 1) P(Xdt > 1)]
= w0 (t)(1 dt dt)
o`u  0 si dt 0 (2e` me et 23e` me hypoth`eses).
On en deduit :
w0 (t + dt) w0 (t)
= w0 (t) w0 (t)
dt
Et, faisant tendre dt vers zero :
w00 (t) = w0 (t)

(2.2)

Lequation differentielle 2.2 a pour solution generale w0 (t) = Cet


Par les 2e` me et 23e` me hypoth`eses w0 (0) = 1 donc w0 (t) = et

w1 (t + dt) = P(Xt+dt = 1)
= P(Xt = 1 Xdt = 0) + P(Xt = 0 Xdt = 1) , e venements incompatibles
= w1 (t)(1 dt dt) + w0 (t)dt
o`u  0 si dt 0
On en deduit :
w1 (t + dt) w1 (t)
= w1 (t) w0 1(t) + w0 (t)
dt
Et, faisant tendre dt vers zero :
w10 (t) = w1 (t) + et

(2.3)

Lequation differentielle 2.3 a pour solution generale w0 (t) = (C + t)et


w1 (0) = 0 donc w1 (t) = tet
On a de meme :
w2 (t + dt) = P(Xt+dt = 2)
= P(Xt = 2 Xdt = 0) + P(Xt = 0 Xdt = 2) + P(Xt = 1 Xdt = 1)
= w2 (t)(1 dt dt) + w1 (t)dt + w0 (t)0 dt
bar-hen.net

70

Solutions

o`u , 0 0 si dt 0
On en deduit :
w20 (t) = w2 (t) + 2 tet

(2.4)


Lequation differentielle 2.4 a pour solution generale w2 (t) = C +


w2 (0) = 0 donc w2 (t) =

(t)
2


2

et

(t)2 t
e
2

Plus generalement, si wk1 (t) =

(t)k1 t
e ,
k1

on e crira :

wk (t + dt) = wk (t)(1 dt dt) + wk1 (t)dt + wk2 (t)0 dt


On en deduit lequation differentielle
wk0 (t) = wk (t) + et


de solution generale wk (t) = C +

(t)k
k!

(t)k1
(k 1)!

et

wk (0) = 0 donc wk (t) = (t)


et
k
La variable Xt suit une loi de Poisson de param`etre t

bar-hen.net

Chapitre 3
Variables aleatoires a` densite
1
1.1

Densite de probabilite
Variable aleatoire de distribution continue
Un deuxi`eme type de distribution, pour une variable aleatoire a` valeur dans R, est caracterise par sa fonction de repartition continue sur R. On dit alors que la variable aleatoire
est de distribution continue.
Soit X une telle variable, de fonction de repartition FX .
Comme pour toute variable aleatoire, si t et t +  ( > 0) sont deux reels quelconques, on
a
P(t X < t + ) = FX (t + ) FX (t)
On en deduit
P(X = t) = lim+ P(t X < t + ) = lim+ FX (t + ) FX (t)
0

0

La continuite de FX entrane ici


P(X = t) = FX (t) FX (t) = 0
Pour une variable aleatoire de distribution continue, la probabilite dobserver une valeur
reelle t donnee est donc nulle quelle que soit t. Les e venements de probabilite non nulle
seront donc obligatoirement representes par des intervalles.
Pour mieux comprendre, on peut reprendre lanalogie mecanique de la masse dun solide.
Si on decoupe le solide en morceaux de plus en plus petits, on peut encore parler de la
` la limite, la masse dun point materiel, notion tout a` fait
masse de chacun deux. A
abstraite, est e videmment nulle alors que la masse dun morceau ne lest pas.
Une telle modelisation probabiliste sadapte, dailleurs tr`es bien a` la realite ; lorsquon
dit que la taille dun individu, choisi au hasard dans une population donnee, est de 178
cm, il sagit dun abus de langage : la seule affirmation correcte est que lobservation se
situe entre 177.5cm et 178.5cm.
Il resulte de ce qui prec`ede que, si X est de distribution continue, on a
FX (b) FX (a) = P(a < X b) = P(a X b) = P(a < X b) = P(a < X < b)
71

72

Densite de probabilite

On peut alors noter


P (X [a, b]) = FX (b) FX (a) (a < b)

(3.1)

Lensemble des observable X() est alors constitue dun intervalle ou dune reunion
dintervalles disjoints ; cest un ensemble non denombrable.

1.2

Densite de probabilite
Definition 3.1 Soit X une variable aleatoire a` valeurs dans R, de fonction de repartition
FX . Sil existe une fonction f , fonction numerique dune variable reelle, telle que :
Z t
t R , FX (t) =
(3.2)
f (x)dx

on dit que f est la densite de probabilite de X et on la note fX . On dit e galement que X


est une variable aleatoire a` densite, ou de distribution absolument continue.
La theorie de lintegration permet de faire quelques remarques. Si la densite f existe,
alors :
1. la fonction de repartition, definie, sur R, par une integrale fonction de sa borne
superieure, est continue sur R ;
2. en tout point t o`u f admet une limite a` droite f (t+) et une limite a` gauche f (t),
la fonction de repartition admet une derivee a` droite e gale a` f (t + ) et une derivee
a` gauche e gale a` f (t ) ;
3. en tout point t o`u f est continue (f (t ) = f (t + ) = f (t)), la fonction de repartition
admet pour derivee f (t).
Il resulte du point 1 que toute distribution absolument continue est continue. La reciproque
nest pas vraie. Cependant, toutes les distributions continues usuelles sont absolument
continues. La densite, continue presque partout, est alors obtenue par derivation de la
fonction de repartition (point 3), sauf en un nombre fini de points o`u f nest pas forcement
definie mais admet e ventuellement des limites a` gauche et a` droite (point 2).

1.3

Densite de probabilite et loi de probabilite


Une densite de probabilite definit parfaitement la distribution dune variable aleatoire
X a` valeurs dans R. Il suffit de remarquer que, connaissant la densite f , la relation 3.2
permet de determiner la fonction de repartition FX . Sans chercher a` determiner FX , on
peut e galement e crire :
P(X [a, b]) = FX (b) FX (a) voir la relation 3.1
Z b
Z a
=
f (x)dx
f (x)dx voir la relation 3.2

bar-hen.net

73

` DENSIT E
3. VARIABLES AL EATOIRES
A

Do`u pour tout intervalle [a, b] avec a < b :


Z
P(X [a, b]) =

f (x)dx

(3.3)

Pour une fonction de repartition on utilise un segment AB, pour une densite de probabilite, on utilise une aire de surface.
On soulignera le fait que le passage de FX a` f sobtient par derivation, f (x) nest pas
une probabilite, mais une probabilite par unite de mesure, do`u la notion de densite de
probabilite a` rapprocher de la notion de la masse specifique dun solide.
Par contre la quantite f (t)dt, parfois appelee probabilite e lementaire, est, lorsque dt est
un infiniment petit, e quivalente a` : P(t X < t + dt) = FX (t + dt) FX (t)

1.4

Proprietes dune densite de probabilite


La densite de probabilite f dune variable aleatoire X poss`ede les proprietes suivantes :
1. f (x) 0 , sur R, sauf e ventuellement en un nombre fini de points. En effet, si
f (x) pouvait avoir une valeur negative sur un intervalle [, ], on aurait P(X
R
[, ]) = f (x)dx < 0, ( < ), ce qui nest pas admissible.
R +
2. f (x)dx = 1. En effet :
Z

f (x)dx = lim

b+

f (x)dx = lim FX (b) = 1

b+

Cette deuxi`eme propriete implique que f est integrable sur R, donc sur tout intervalle.
Exemple 3.1 Soit X une variable aleatoire, a` valeurs dans R, de fonction de repartition
FX definie par :

t 7 0 , si t 0
t 7 12 t , si 0 < t 2
FX :

t 7 1 , si t > 2
X est de distribution continue (FX est continue sur R). Lensemble des observables
constitue lintervalle ]0, 2] puisque la probabilite de tout intervalle exterieur a` ]0, 2] est
nulle.
X admet pour densite :

x 7 0 , si x 0 ou t > 2
fX :
x 7 12 , si 0 < x 2
La densite fX sobtient par derivation presque partout, sauf :
en 0, o`u fx admet pour limite a` gauche 0 (derivee a` gauche de FX ) et pour limite a`
droite 12 (derivee a` droite de FX ) ;
en 2, o`u fx admet pour limite a` gauche 12 (derivee a` gauche de FX ) et pour limite a`
droite 0 (derivee a` droite de FX )
bar-hen.net

74

Densite de probabilite

En ces deux points, donner ou non une valeur a` fX ne modifie pas lexpression de FX ,
ce quil est aise de verifier en utilisant la relation 3.2.
Exemple 3.2 Soit Y une variable aleatoire, a` valeurs dans R, de densite de probabilite
fY definie par :

y 7 0
, si y < 0
fY :
1 y/2
y 7 2 e
, si y 0
Lensemble des observables est [0, +[ : tout intervalle a` gauche de zero a une probabilite nulle (integrale definie de la fonction nulle). La fonction de repartition FY est donnee
par :
Z
t

FY (t) = P(Y < t) =

f (y)dy

On obtient :

Z
si t 0 FY (t) = lim

si t 0 FY (t) =

Z
0dy +

0dy = 0
a

h
i
1 y/2
y t
t
e dy = 0 + e /2 = 1 e /2
2
0

On obtient finalement :

FY :

t 7 0
, si t 0
t/2
t 7 1 e
, si t 0

On remarque quen zero, FY admet pour derivee a` droite 21 , e gale a` la limite a` droite de
fY , et pour derivee a` gauche 0, e gale a` la limite a` gauche de fY . Le choix de fY (0) = 12
est ici arbitraire et sans importance.
On peut alors calculer P(1 Y < 2) de deux mani`eres :
Z 2
1 y/2
P(1 Y < 2) =
e dy
1 2
h
i2
1
y/2
= e
= e /2 e1
1

P(1 Y < 2) = FY (2) FY (1)


1
= (1 e1 ) (1 e /2 )
23.86%

1.5

Representation graphique
Une distribution a` densite est en general representee par le graphe de la densite de probabilite. La forme de la courbe obtenue sappelle la forme de la distribution : uniforme
(voir 3.1), en L (voir exemple 3.2), en cloche, etc.

bar-hen.net

75

` DENSIT E
3. VARIABLES AL EATOIRES
A

2 Param`etres descriptifs dune distribution a` densite


Soit X une variable aleatoire, a` valeurs dans R, de densite de probabilite f . On peut associer a` la distribution de X un certain nombre de param`etres descriptifs. Ces param`etres
ont la meme denomination que dans le cas dune distribution discr`ete parce quils recouvrent les memes concepts.

2.1 Mode
On appelle mode de la variable aleatoire X, ou de la distribution de X, une valeur reelle x
pour laquelle la densite de probabilite de X presente un maximum.
Les distribution a` densite usuelles sont, en general, unimodales.
La distribution de lexemple 3.1 na pas de mode, celle de lexemple 3.2 a pour mode 0.

2.2

Esperance
On appelle esperance de la variable aleatoire X, et on note E(X) ou X le nombre reel,
sil existe, defini par :
Z
+

E(X) = X =

xf (x)dx

Lexistence de E(X) est lie a` la convergence de lintegrale.


Lesperance de X definit la position du barycentre de lensemble continu des points dune
droite qui representent lensemble des observables. Pour aboutir a` la definition ci-dessus,
on decoupe cette droite en n intervalles ; au ie` me intervalle on associe son barycentre
partiel i pondere par la probabilite de lintervalle qui, si xi est la largeur de lintervalle,
est
differente de
R +
Pnpeu differente de la probabilite e lementaire f (i )xi . E(X) est alors peu
` la limite (n +, xi 0), on obtient : E(X) = xf (x)dx
i=1 i f (i )xi ; a
On rapprochera cette definition de celle du centre de masse dun solide a` une dimension et de masse totale e gale a` 1, chaque point x du solide e tant affecte dune masse
specifique f (x).
Exemple 3.3 (suite de lexemple 3.1)
Z +
E(X) =
xfX (x)dx

Z 0
Z 2
Z +
=
xfX (x)dx +
xfX (x)dx +
xfX (x)dx

0
2
Z 2
1
= 0+
xdx + 0
0 2
 2 2
x
=
4 0
= 1

bar-hen.net

76

Param`etres descriptifs dune distribution a` densite

Exemple 3.4 (suite de lexemple 3.2)


Z +
E(Y ) =
yfY (y)dy

Z 0
Z +
=
yfY (y)dy +
yfY (y)dy

0
Z +
1 y
= 0+
y e /2 dy
2
0
Z +
h
i
+
y
y/2
= ye
+
e /2 dy , en integrant par parties
0
0
Z +
y
y
y
=
e /2 dy (car limy+ ye /2 = 0 et ye /2 = 0 pour y = 0)
0
i+
h
y/2
= 2e
0

= 2
Exemple 3.5 Soit Z une variable aleatoire de densite de probabilite :
fZ : t 7

1 1
1 + t2

, t R

On dit que Z suit une loi de Cauchy. Z na pas desperance ; en effet :


Z 0
Z +
Z +
t 1
t 1
t 1
E(Z) =
dt
=
dt
+
dt
2
2
1 + t2
1 + t
1 + t
0
0
+
1 
1 
=
log(1 + t2 ) +
log(1 + t2 ) 0
2
2
Lintegrale diverge puisque
lim log(1 + t2 ) = lim log(1 + t2 ) = +

2.3

t+

Moment dordre k
On appelle moment dordre k (k N) de la variable aleatoire X, et on note E(X k ), le
nombre reel sil existe, defini par :
Z +
E(X) =
xk fX (x)dx

On a :
0

E(X ) =

fX (x)dx = 1

Z +

E(X) =

xfX (x)dx = E(X)

bar-hen.net

77

` DENSIT E
3. VARIABLES AL EATOIRES
A

2.4 Variance
On appelle variance de la variable aleatoire X, et on note V(X), le nombre reel sil existe,
defini par :
Z
+

(x X )2 fX (x)dx

V(X) =

La variance de X sappelle e galement moment centre dordre 2 de X et se note :






E (x X )2 = E (x E(X))2
On note que la variance dune variable a` densite, definie comme lintegrale dune fonction
positive presque partout et meme strictement positive sur certains intervalles ne peut avoir
quune valeur strictement positive.
Une valeur e levee de la variance signifie que les valeurs e loignees de lesperance ont
une forte densite de probabilite. Une faible valeur de la variance signifie que les valeurs
de forte densite de probabilite sont situees pr`es de lesperance. La variance est donc un
param`etre de dispersion autour de lesperance. Lanalogie mecanique de la variance est
le moment dinertie dun solide a` une dimension par rapport a` son centre de masse.
On peut e crire
Z

(x2 2xX + 2X )fX (x)dx

Z +
Z +
Z
2
2
=
x fX (x)dx 2X
xfX (x)dx + X

V(X) =

fX (x)dx

= E(X 2 ) 22X + 2X
= E(X 2 ) + 2X
On retrouve la relation tr`es commode dans le calcul de la variance (theor`eme de Guldin) :
V(X) = E(X 2 ) E2 (X)

Ecart-type
On appelle e cart-type de X la racine carree de sa variance. On le note X .
Un e cart-type est donc un reel positif ; il sagit dun indice de dispersion qui presente
lavantage davoir la meme unite que les observables.
Exemple 3.6 (suite de lexemple 3.1)
Z

V(X) =

(t 1)2 fX (t)dt

1
(t2 2t + 1) dt
2
0
 3
2
1 t
=
t2 + t
2 3
0
=

bar-hen.net

78

Param`etres descriptifs dune distribution a` densite

=
et donc

1
3

3
3

X =

Exemple 3.7 (suite de lexemple 3.2)


Z +
Z
2
2
E(Y ) =
u fY (u)du =

1 u
u2 e /2 du
2

On int`egre par parties :


2

E(Y ) =

i+
2 u/2
u e
0
Z +

= 0+4
0

+2

u
ue /2 du

1 u/2
ue du
2

= 4E(Y )
= 8
u
u
En effet limu+ u2 e /2 = 0 et u2 e /2 = 0 pour u = 0
Finalement :
V(Y ) = E(Y 2 ) E2 (Y ) = 8 4 = 4 , Y = 2

Exemple 3.8 (suite de lexemple 3.5) Z, nayant pas desperance, na pas de variance.
On peut dailleurs remarquer que, lintegrale qui definit E(Z) divergeant, lintegrale qui
definit E(Z 2 ) diverge a fortiori.
Mode et esperance sont les param`etres de position dune distribution qui sont les plus
utilisees. Il sera fait appel, ulterieurement, a` un troisi`eme param`etre de position qui, lui
aussi, decrit une certaine tendance centrale : la mediane. Lidee de depart est de definir un
nombre qui separe lensemble des observables, ranges par valeurs croissantes, en deux
parties degales probabilite ; on rencontre dans cette demarche deux difficultes : le partage
ideal en deux zones e quiprobables nest pas toujours possible (variables discr`etes) et le
nombre cherche nest pas toujours unique (on peut obtenir un intervalle). On retiendra
cependant la definition suivante :
Definition 3.2 On appelle mediane dune variable aleatoire X, a` valeurs dans R et de
distribution continue un nombre verifiant la propriete :
P(X < ) = P(X > ) =

1
2

Pour les distribution a` densite usuelles la mediane est unique.

bar-hen.net

79

` DENSIT E
3. VARIABLES AL EATOIRES
A

3 Loi uniforme
Definition 3.3 On dit quune variable aleatoire X, a` valeurs reelles, est de loi uniforme
sur [a, b], a et b e tant deux reels verifiant : a < b, si sa densite de probabilite f est definie
par :

x 7 0 , si x 6 [a, b]
f:
1
x 7 ba
, si x [a, b]
On dit que la loi est uniforme sur [a, b]

3.1

Fonction de repartition
En utilisant la relation 3.2, on a :
Z

P(X < t) = FX (t) =

f (x)dx

On en deduit :
Z
si t a,

FX (t) =

Z a

si a t b,
si t b,

3.2

0dx = 0
Z
0dx +

1
ta
dx =
ba

a ba
Z a
Z b
Z t
1
FX (t) =
0dx +
dx +
0dx = 1

a ba
b
FX (t) =

Param`etres descriptifs
Une distribution uniforme na pas de mode.
Sa mediane est definie par FX () = 12 = a
=
ba
Z

E(X) =

 2 b
x
1
x
1 1
a+b
dx =
=
(b2 a2 ) =
ba
ba 2 a 2ba
2

 3 b
x2
1
x
1 1
1
dx =
=
(b3 a3 ) = (b2 +ab+a2 )
ba
ba 3 a 3ba
3

xf (x)dx =

E(X ) =

x f (x)dx =

a+b
2

1
1
(b a)2
V(X) = E(X 2 ) E2 (X) = (b2 + ab + a2 ) (b2 + 2ab + b2 ) =
3
4
12
Lexemple 3.1 represente une loi uniforme sur [0, 2].

bar-hen.net

80

Loi exponentielle

4 Loi exponentielle
Definition 3.4 On dit quune variable aleatoire X, a` valeurs dans R, suit une loi exponentielle de param`etre si sa densite de probabilite f est definie par :

x 7 0
, si x < 0
f:
x
x 7 e
, si x 0
o`u est un reel donne, strictement positif.

4.1

Fonction de repartition
On a :

P(X < t) = FX (t) =

f (x)dx

On en deduit :
Z
si t 0,

FX (t) =

Z 0

si t 0,

FX (t) =

4.2

0dx = 0
Z t
t

0dx +
ex dx = 0 + ex 0 = 1 et
0

Param`etres descriptifs
Une distribution exponentielle a pour mode zero.
Sa mediane est definie par
FX () =
Z
E(X) =

1
1
log 2
= 1 e e = = log 2 =
2
2

+
x

xe
0


+
dx = xex 0 +

+
x

e
0

1
dx = 0 +

ex dx =

En effet limx+ xexR = 0, si > 0 etR xex = 0 pour x = 0.


+
+
On remarque de plus que f (x)dx = ex dx = 1
Z +
Z +
Z
 2 x +
2 +
2
2
2
x
x
E(X ) =
x e dx = x e
+
2xe dx = 0+
xex dx = 2
0
0

0
0
En effet limx+ x2 ex = 0, si > 0 et x2 ex = 0 pour x = 0. On remarque de
plus que la derni`ere integrale est e gale a` E(X) et donc a` 1
V(X) = E(X 2 ) E2 (X) =

2
1
1
2 = 2
2

X = 1
Lexemple 3.2 concernait une distribution exponentielle de param`etre 21 .
bar-hen.net


` DENSIT E
3. VARIABLES AL EATOIRES
A

81

5 Loi normale
Definition 3.5 On dit quune variable aleatoire X, a` valeurs dans R, suit une loi normale, ou de Laplace-Gauss, si sa densite de probabilite f est definie par
1 x 2
1
f : x 7 e 2 ( )
2

x R, o`u R et R+ sont deux reels donnes

On dit e galement que X est une variable aleatoire normale.

5.1

Param`etres descriptifs
Le mode, la mediane et lesperance dune variable aleatoire normale X ont pour valeur
commune . En effet :


2
1
x 12 ( x
0
)
f (x) =

2
f 0 (x) > 0 pour x < , f 0 (x) = 0 pour x = et f 0 (x) < 0 pour x > . f (x) presente
donc un maximum pour .
La droite dequation x = est un axe de symetrie pour le graphe de f (a > 0, f ( +
a) = f ( a)) ; cette droite separe donc laire de la surface comprise entre la courbe et
laxe des abcisses en deux parts e gales ; do`u : P(X < ) = P(X > ) = 12 .
Z +
1 x 2
1
E(xX) =
xe 2 ( ) dx
2


dx . On obOn effectue le changement de variable t = x

x
=
t
+

et
dt
=

tient :
Z +
1
t2
E(X) =
(t + )e /2 dt
2
Z +
Z +
2
1

t2
t /2
e /2 dt
=
te
dt +
2
2

Z +
h
i
+
2
1

t
t2
e /2 dt
=
e /2
+

2
2

= 0+
R +
t2
t2
En effet limt e /2 = 0. On admet de plus que 12 e /2 dt = 1 ; ce resultat
que lon demontrera ulterieurement est e vident a priori puisquil sagit de lintegrale sur
R de la densite de probabilite dune variable aleatoire normale avec = 0 et = 1.
La variance de la variable aleatoire normale X est e gale a` 2 . En effet :
Z +
1 x 2
1
V(X) =
(x )2 e 2 ( ) dx
2
bar-hen.net

82

Loi normale



dx . On obOn effectue le changement de variable t = x

x
=
t
+

et
dt
=

tient :
Z +
1
t2
V(X) =
2 t2 e /2 dt
2

R
R
t2
On int`egre par parties
udv = uv vdu en posant u = t, dv = te /2 dt :
Z +
2 i+
2 h
2
t2
t /2
V(X) =
te
+
e /2 dt

2
2
R +
t2
t2
En notant que limt te /2 = 0 et 12 e /2 dt = 1, on obtient
V(X) = 2

5.2

Notation
On comprend maintenant lutilisation des symboles reserves et pour les deux param`etres presents dans lexpression de la densite. Une loi normale est compl`etement
definie par ces deux param`etres ; la variance intervenant plus souvent que lecart-type
dans les mod`eles probabilistes, on utilisera la notation : X suit une loi N (, 2 )

5.3

Forme de la distribution
Letude des variations de f montre que la distribution est en cloche, symetrique par rapport a` x = , dont la dispersion augmente avec
Definition 3.6 Si X est une variable aleatoire de loi N (0, 1), on dit que X est une
variable aleatoire normale, reduite (ou normale, centree, reduite voir definition 4.2). Sa
densite est alors definie par
1
x2
f (x) = e /2
2

5.4

, x R

Calcul des probabilites


Si a et b sont deux reels quelconques (a < b), comment calculer P (X [a, b]) lorsque X
suit une loi N (, 2 ) ? Lutilisation de la relation 3.1 : P(X [a, b]) = FX (b) FX (a)
R + 1 ( x )2
ou de la relation 3.3 : P(X [a, b]) = 1
e 2 dx necessiterait de connatre
2

lexpression analytique de FX (t) ou de disposer de tables a` triple entree (il faut se donner
, , t)
Le changement de variable t = x
, dej`a introduit precedemment va permettre une

grande simplification. On obtient en effet :


1

t2

e 2 dt

bar-hen.net

83

` DENSIT E
3. VARIABLES AL EATOIRES
A

On reconnat, sous le signe integral, la densite de probabilite dune variable aleatoire X


de loi N (0, 1). On a donc :



a b

P (X [a, b]) = P X
,
(3.4)

La relation 3.4 permet de ramener tout calcul de probabilite concernant une loi N (, 2 )
a` un calcul de probabilite concernant une loi N (0, 1). Certes, on ne connat pas dext2

pression analytique pour les primitives de f 7 12 e 2 ; les integrales definies de


cette fonction continue sont cependant calculables par des methodes numeriques. Il suffit
de disposer de tables de valeurs numeriques (tables 11.6, 11.7, 11.8) pour resoudre le
probl`eme pose ; ces tables, a` une seule entree, sont aisement utilisables.

5.5

Utilisation de la table 11.6


2
Rx
t
On pose, pour x positif : 0 12 2 dt = 12 (x)
Soit maintenant X une variable aleatoire de loi N (2, 4) :


1

P(3 X < 4) = P
X <1
2
 
1
1
1
=
(1)
2
2
2
0.3413 0.1915
0.1498

1
P(0 X 1) = P 1 X
2
 
1
1
1
=
(1)
2
2
2
0.1498

a` cause de la symetrie par rapport a` zero de la distribution N (0, 1)





1
P(0 < X 3) = P 1 < X
2
 
1
1
1
=

+ (1)
2
2
2
0.1915 + 0.3413
0.5328
R0
R1
la symetrie de la distribution impose en effet 1 f (t)dt = 0 f (t)dt
bar-hen.net

84

Loi normale

P(0.4 < X < 4.4) = P (1.2 < X < 1.2)


1
= 2 (1.2)
2
0.7698

5.6

Utilisation de la table 11.7


Il sagit l`a dune table de la fonction de repartition de la variable X . Elle donne, pour
positif : FX (u) = P(X < u).
La symetrie de la distribution de X par rapport a` zero permet decrire, pour u negatif :
FX (u) = P(X < u) = P(X > u) = 1 FX (u)
Si X suit une loi N (2, 4) :

1

P
X <1
2
 
1
FX (1) FX
2
0.8413 0.6915
0.1498


P(3 X 4) =
=

P(0 X 1) =
=
=
=


1
P 1 X
2
 
1
FX
FX (1)
2
 
1
1 FX
(1 FX (1))
2
 
1
F (1) F
2
0.1498


1
P(0 < X 3) = P 1 < X
2
 
1
= FX
FX (1)
2
 
1
= FX
(1 FX (1))
2

bar-hen.net

85

` DENSIT E
3. VARIABLES AL EATOIRES
A

0.6915 + 0.8413 1
0.5328

P(0.4 < X < 4.4) =


=
=
=
=

5.7

P (1.2 < X < 1.2)


FX (1.2) FX (1.2)
FX (1.2) (1 FX (1.2))
2FX (1.2) 1
2 0.8849 1
0.7698

Utilisation de la table 11.8


Cette table est dune grande utilite en statistique. Si u est un reel positif et si on pose
= P(|X | u), la table donne u en fonction de . On note que :
=
=
=
=
=

P(|X | u)
P [(X u) (X u)]
P (X u) + P (X u) e venements incompatibles
2P (X u) = 2P (X u) symetrie de la distribution
1 P(u < X < u) e venement contraire

X suivant une loi N (, 2 ), on retiendra les resultats suivants :


P(|X | 1.645) = 10% = P [(X 1.645) (X 1.645)]
= P [(X + 1.645) (X 1.645)]
De la symetrie de distribution, on deduit alors :
P(X 1.645) = P (X + 1.645) = 5%
P(X 1.645) = P(X 1.645) = 5%
De meme
P(|X | 1.960) = 5% = P [(X 1.960) (X 1.960)]
= P [(X + 1.960) (X 1.960)]
Do`u on peut deduire :
P(X 1.960) = P (X + 1.960) = 2.5%
P(X 1.960) = P(X 1.960) = 2.5%

bar-hen.net

86

Loi normale

5.8 Importance de la loi normale


La loi normale est certainement la loi de probabilite la plus utilisee. Comme on le verra
ulterieurement, elle intervient souvent comme loi limite vers laquelle convergent certains
mod`eles : on peut citer la moyenne de n mesures, independantes et de meme loi, dont
la distribution, lorsque n augmente indefiniment, se rapproche de plus en plus dune
distribution normale.
Introduite comme loi normale des erreurs, do`u son nom, la loi normale semble decrire
assez bien la distribution de certains caract`eres biometriques, par exemple la taille dun
individu choisi au hasard dans une population donnee.
La loi normale est aussi a` lorigine du developpement de mod`eles probabilistes, les
mod`eles gaussiens, dont on abordera letude et lutilisation plus loin : lois du chi-deux,
lois de Student, lois de Fisher-Snedecor,etc.
Dans un premier temps, on lutilisera essentiellement comme approximation des lois,
discr`etes, binomiale et de Poisson.

5.9

Approximation dune loi binomiale


Lapproximation a pour origine le theor`eme de De Moivre-Laplace :
Cnk pk (1 p)nk

lim

n+

12

1
2

np(1p)

si k + avec n de telle mani`ere que |knp|

knp

np(1p)

2

=1

np(1p)

demeure borne.

Si X est une variable aleatoire de loi B(n, p) et si on designe par f la densite de probabilite dune loi N (np, np(1 p)), le theor`eme ci-dessus peut e tre interprete de la mani`ere
suivante : lorsque n est suffisamment grand et pour les valeurs enti`eres k situees dans la
zone proche de lesperance np, de X, o`u se trouve concentree toute la probabilite, on a :
P(X = k) f (k)

(3.5)

Deux precisions sont a` ajouter :


si p = 12 (distribution binomiale de symetrie parfaite), la convergence est tr`es rapide ;
si p 6= 12 (distribution binomiale dissymetrique), la convergence est dautant plus
lente que p est loin de 12 .
Remplacer une expression analytique par une autre nest pas forcement dun grand interet.
Une deuxi`eme e tape va permettre de simplifier au maximum les calculs et conduire, de
fait, a` une meilleure approximation.
En statistique, cest le calcul de probabilites affectees a` des intervalles qui presentent un
interet. Si X suit une B(n, p), on se propose de calculer P(a X b). On a
X
P(a X b) =
P(X = k) , a, b, k {0, 1, 2, . . . , n}
(akb)

bar-hen.net

87

` DENSIT E
3. VARIABLES AL EATOIRES
A

Si on consid`ere lhistogramme de la loi de X, cette somme est aussi donnee par la somme
des aires des rectangles de largeur 1. Il est alors clair que :
Z b+0.5
P(a X b)
f (x)dx
a0.5

cette derni`ere integrale, qui porte sur la densite de probabilite dune loi N (np, np(1 p))
se calcule en utilisant une variable normale reduite X :
!
a 0.5 np
b
+
0.5

np
P(a X b) P p
X p
(3.6)
np(1 p)
np(1 p)
Dans la pratique, si les deux moities de rectangle situees a` droite et a` gauche de lintervalle [a, b] ont une aire negligeable par rapport a` lensemble, on se permettra decrire :
!
Z b
a np
b

np
P(a X b)
f (x)d = P p
X p
(3.7)
np(1 p)
np(1 p)
a
En conclusion : si n est suffisamment grand et si la distribution nest pas trop dissymetrique, une variable aleatoire X de loi B(n, p) peut e tre consideree comme une
variable aleatoire de loi N (np, np(1 p)).
Pour le calcul des probabilites, on peut utiliser 3.7 ou 3.6. Lorsquon utilise 3.6, ce qui
ameliore la precision de lapproximation, on dit quon effectue une correction de continuite. Le passage de 3.7 a` 3.6 seffectue tr`es aisement si on remarque que, puisque X
est a` valeurs enti`eres, on a toujours, pour a et b entiers :
P(a X b) = P(a 0.5 X b + 0.5)
cest dans le calcul approche, o`u X est considere comme une variable a` densite, que les
deux membres de legalite conduisent a` des resultats differents.
Quand peut-on decider de la validite de lapproximation ? On utilise tr`es souvent le crit`ere
suivant, dorigine empirique :
np 10 et n(1 p) 10
qui permet de tenir compte de la valeur de n et de la dissymetrie. On obtient par exemple :
si p = 21 , n 20 ; si p = 14 , n 40 ; si p = 0.9, n 100, etc. bien entendu, pour p
donne, plus n est grand, meilleure est lapproximation.
Quand est-il necessaire deffectuer la correction de continuite ? En realite, puisque cette
correction donne de meilleurs resultats, il faut se poser la question autrement : quand
peut-on abandonner la correction de continuite ? La reponse est simple en theorie : d`es
que la modification quelle apporte est negligeable. Cest le cas
lorsque n est tr`es grand ; la correction de continuite deplace les bornes concernant X
de 0.5 . Un deplacement de 0.01 (qui correspond pour p = 12 a` n = 10000) a
np(1p)

peu dimportance.
bar-hen.net

88

Loi normale

lorsque ces bornes sont situees dans une zone de faible probabilite (consulter les
tables).
lorsque lintervalle [a, b] contient beaucoup dentiers (faible erreur relative). On remarquera a` ce propos que pour a = b, la formule 3.6 donne :
!
a 0.5
a + 0.5
P(X = a) P p
X p
(3.8)
np(1 p)
np(1 p)
Il est e vident qualors, quel que soit n, il nest pas question de supprimer 0.5.
Pour terminer, on attirera lattention sur deux points
La variable aleatoire X, de loi B(n, p), est une variable discr`ete. Il est donc important
de preciser si les bornes de lintervalle sont ou non inclues dans lintervalle ; ceci peut
modifier en particulier le signe du terme correctif 0.5.
Il nest pas choquant dapprocher une distribution sur un ensemble fini de valeurs par
une distribution sur R puisquon sait que pour les lois B(n, p) et N (np, np(1 p))
pratiquement toute la probabilite est concentree autour de lesperance np.

Exemple 3.9 Soit X de loi B 20, 12 . Le tableau ci-dessous donne une idee de la validite
de lapproximation par une loi normale.
k
10
9 ou 11
8 ou 12
7 ou 13
6 ou 14
etc.

P(X = k)
Loi binomiale Loi normale (eq. 3.8)
0.176197
0.176929
0.160179
0.160367
0.120134
0.119390
0.073929
0.073013
0.036964
0.036678

Exemple 3.10 On joue 10000 fois a` pile ou face. Calculer la probabilite pour que le
nombre de piles soir dans lintervalle [4900, 5100]. 
Soit X le nombre de piles. X suit une loi B 10000, 12 que lon peut approcher par une
loi N (5000, 2500). On obtient, en designant par X une variable N (0, 1) :
sans correction de continuite :
P(4900 X 5100) = P(2 X 2) 95.45%
avec correction de continuite :
P(4900 X 5100) = P(4899.5 X 5100.5) = P(2.01 X 2.01) 95.55%
Exemple 3.11 Soit X de loi B(100, 0.3). Estimer P(24 X 29).
On consid`ere que X suit une loi N (30, 21) (puisque n(1 p) > 10 et np > 10)
On obtient :
sans correction de continuite :
P(24 X 29) = P(1.3093 X 0.2182) 0.3145
bar-hen.net

89

` DENSIT E
3. VARIABLES AL EATOIRES
A

avec correction de continuite :


P(23.5 X 29.5) = P(1.4184 X 0.1091) 0.3785
Le resultat exact est 0.3868.

5.10

Approximation dune loi de Poisson


On montre que si X est une variable aleatoire de loi P(), on peut considerer que X est
de loi N (, ) lorsque a une valeur suffisamment e levee.
Pour decider de la validite de lapproximation, le crit`ere, dorigine empirique, generalement
utilise est : 20.
Comme dans le cas precedent, lapproximation revient a` remplacer des sommes de probabilites par des integrales ; il est donc e galement necessaire dintroduire une correction
de continuite.

Exemple 3.12 Soit X de loi P(100). Evaluer


P(90 X 100).
X suit pratiquement une loi N (100) et on peut e crire si X est de loi N (0, 1), et en
effectuant la correction de continuite :
P(89.5 X 100.5) = P(1.05 X 1.05) 0.7063
En conclusion on retiendra le schema ci-dessous qui resume les principales approximations :
X B(n, p)
@




n 100
p 0.1 

@
@
@





@
@ 10
np
@
np(1@ p) 10
@
@
@
@
@
R
@







X P( = np)
X P()

X N (np, np(1 p))

20

X N (, )

6 Autres lois
Par la suite, on aura loccasion de definir des variables aleatoires et de determiner leur
densite de probabilite. Deux distributions sont cependant interessantes a` connatre, la
premi`ere parce quelle intervient tr`es souvent dans les livres de probabilite et de statistique, la deuxi`eme a` cause de ses applications.

bar-hen.net

90

Autres lois

6.1 La loi gamma


On dit quune variable aleatoire X, a` valeurs reelles, suit une loi gamma de param`etres n
et , si sa densite de probabilite f est definie par :

x 7 0
, si x 0
f:
n n1 x
x 7 (n) x e
, si x > 0
o`u n et sont deux reels donnes, strictement positif, et o`u (n) est une constante reelle
strictement positive qui ne depend que de n.
La constante (n) est aisement calculable. En effet, on doit avoir :
Z +
Z + n

f (x)dx = 1
xn1 ex dx = 1
(3.9)
(n)

0
R +
R +
Do`u (n) = 0 n xn1 ex dx = 0 tn1 et dt, en effectuant le changement de
variable t = x. Lorsque n est un entier positif, on obtient, en integrant par parties :
(n) = (n 1)! , n N
Z

E(X) =

Z
xf (x)dx =

1
n n x
x e dx =
(n)
(n)

n1 xn ex dx

On int`egre par parties :


Z +
1  n1 n x +
n
x e
+
n1 xn1 ex dx
E(X) =
0
(n)
(n) 0
Z
1  n1 n x + n + n n1 x
=
x e
+
x e dx
0
(n)
0
(n)
n
=

En effet limx+ xn ex = 0, si > 0 et xn ex = 0 pour x = 0. On remarque de plus


que la derni`ere integrale vaut 1 (voir la relation 3.9).
Z +
Z + n
Z +

1
2
2
n+1 x
E(X ) =
x f (x)dx =
x e dx =
n1 xn+1 ex dx
(n)
(n) 0

0
On int`egre par parties :
Z
1  n1 n+1 x + n + 1 + n1 n x
E(X ) =
x e
+
x e dx
0
(n)
(n) 0
Z
1  n1 n+1 x + n + 1 + n n x
=
x e
+
x e dx
0
(n)

(n)
0
2

Do`u finalement
E(X 2 ) = 0 +

n+1
n(n + 1)
E(X) =

On en deduit
V(X) = E(X 2 ) E2 (X) =

n(n + 1) n2
n
2 = 2
2

bar-hen.net

91

` DENSIT E
3. VARIABLES AL EATOIRES
A

6.2 La loi log-normale


On dit quune variable aleatoire X a` valeurs reelles, suit une loi log-normale si sa densite
de probabilite f est definie par :
(
x 7 0
, si x 0
1 log xb 2
f:

1
(
)
x 7 ax2 e 2 a
, si x > 0
o`u a R+ et b R sont deux reels donnes.
La loi log-normale est utilisee en granulometrie et en biometrie pour decrire, par exemple,
la distribution de la taille des grains de sediment provenant dune couche geologique
donnee ou des cellules dans une culture donnee.
` titre dexercice, calculons E(X) :
A
Z +
Z +
1 log xb 2 dx
1
E(X) =
xf (x)dx =
xe 2 ( a )
ax
2 0

On pose t =

log xb
a

dt = daxx et x = eat+b
Z +
1 2
1
E(X) =
e 2 t +at+b dt
2
Z +
1 2
1
=
e 2 (t 2at)+b dt
2
Z +
1
1
2 a2
=
e 2 (ta) + 2 +b dt
2
Z +
a2
1
1
2
+b
= e2
e 2 (ta) dt
2

On reconnat lintegrale sur R de la densite dune N (a, 1) do`u finalement :


a2

E(X) = e 2 +b

7 Melanges de distributions
7.1

Introduction
On consid`ere deux variables aleatoires X et Y , a` valeurs dans R, de fonctions de repartition
respectives FX et FY . Soit maintenant une experience aleatoire a` laquelle on associe la
variable aleatoire Z definie ainsi : avec la probabilite p, Z a la loi de X ; avec la probabilite (1 p), Z a la loi de Y .
On note p = P(Z = X) et 1 p = P(Z = Y ).

bar-hen.net

92

Melanges de distributions

La distribution de Z peut e tre definie par sa fonction de repartition FZ . On peut e crire :


(Z < t) = (Z = X Z < t) (Z = Y Z < t). Les deux e ventualites e tant
incompatibles, on obtient :
FZ (t) = P(Z < t) = P(Z = X Z < t) + P(Z = Y Z < t)
= P(Z = X)P(Z < t|Z = X) + P(Z = Y )P(Z < t|Z = Y )
Do`u
FZ (t) = pFX (t) + (1 p)FY (t)

(3.10)

On dit que la distribution de Z est un melange de la distribution de X et de la distribution


de Y . On generalise aisement a` un melange de plus de deux distributions.

7.2

Melanges de distribution discr`etes


Si FX et FY sont en escalier, FZ est forcement en escalier. Z est donc une variable discr`ete
et la probabilite est repartie sur les points de discontinuite dont lensemble, ensemble des
observables de Z, est la reunion des deux ensembles dobservables de X et de Y .
En chaque point ti de discontinuite, on peut e crire :
P(ti Z ti + ) = FZ (ti + ) FZ (ti )
= p (FX (ti + ) FX (ti )) + (1 p) (FY (ti + ) FY (ti ))
= pP(ti X < ti + ) + (1 p)P(ti Y < ti + )
si  0+ , on obtient :
P(Z = ti ) = pP(X = ti ) + (1 p)P(Y = ti )
Relation que lon peut obtenir directement a` partir de levenement (Z = ti ) = (Z =
X Z = ti ) (Z = Y Z = ti ). On deduit en particulier :
X
X
X
E(Z) =
ti P(Z = ti ) = p
ti P(X = ti ) + (1 p)
ti P(Y = ti )
i

Donc
E(Z) = pE(X) + (1 p)E(Y )
En application, se rapporter a` lexercice 3

7.3 Melange de distributions a` densite


Par derivation de la relation 3.10, on obtient dans ce cas :
fZ (t) = pfX (t) + (1 p)fY (t)
o`u fZ , fX , fY sont les densites respectives de Z, X et Y . On deduit en particulier :
Z +
Z +
Z +
E(Z) =
tfZ (t)dt = p
tfX (t)dt + (1 p)
tfY (t)dt

bar-hen.net


` DENSIT E
3. VARIABLES AL EATOIRES
A

93

et on retrouve donc :
E(Z) = pE(X) + (1 p)E(Y )
En application, se reporter aux exercices 9 et 19.

7.4

Cas intermediaire
On suppose maintenant que X a une distribution discr`ete et que Y a une distribution a`
densite. La distribution de Z peut e tre sinterpreter de la mani`ere suivante :
une partie, p, de la probabilite de est repartie sur les points de discontinuite qui
constituent lensemble des observables de X ;
lautre partie, 1 p, de la probabilite de est repartie de mani`ere continue sur lensemble non denombrable des observables de Y .
Il est aise de montrer que, sous reserve dexistence, on a toujours :
E(Z) = pE(X) + (1 p)E(Y )
puisquon peut remplacer les points de la distribution de X par leur barycentre partiel
E(X) affecte de la ponderation globale p et proceder de meme pour les points de la
distribution de Y .

bar-hen.net

94

Exercices

8 Exercices
1. Soit une variable aleatoire X, a` valeurs reelles, de fonction de repartition :

x 7 0
, si x < 0

F :
x
x/2
x 7 1 e
1 + 2 , si x 0
(a) F est-elle continue sur R ?
(b) Determiner limx+ F (x). Interpreter.
(c) Determiner la densite de probabilite de X.
(d) Determiner le mode de X.
(e) Calculer lesperance et lecart-type de X.
(f) Deduire de ce qui prec`ede les variations et le graphe de F .
(g) Calculer P(1 X < 2)
2. Soit une variable aleatoire T , a` valeurs reelles, de densite de probabilite :

t 7 0
, si t 6 [1, 1]
f:
2
t 7 (1 t ) , si t [1, 1]
(a) calculer . Construire le graphe de f .
(b) Determiner la fonction de repartition de T et construire son graphe.
(c) Calculer la probabilite de levenement |T | 12 . Representer cette probabilite
sur les deux graphes precedents.
(d) Calculer lesperance et la variance de T . Quelles est sa mediane ?
3. Soit une variable aleatoire X, a` valeurs reelles, de densite de probabilite, definie
pour n > 1 :

x 7 axn1 , si 0 x < 1, a R
f:
x 7 0
, si x 6 [0, 1[
(a) calculer a.
(b) Calculer lesperance et la variance de X.
(c) Determiner la fonction de repartition de X.
4. Soit une variable aleatoire Y , a` valeurs reelles, de densite de probabilite :



y 7 0
, si y 6  2 , 2 
f:
y 7 2 cos2 y , si y 2 , 2
(a) Calculer lesperance, lecart-type et le mode de Y
(b) Determiner la fonction de repartition de X. Quelle est la mediane de Y .
.
(c) Calculer la probabilite de levenement Y > 4
10
5. Soit une variable aleatoire X, a` valeurs reelles, de densite de probabilite :


x 7 a 4 x2 , si x [0, 2], a R
f:
x 7 0
, si x 6 [0, 2]
bar-hen.net

95

` DENSIT E
3. VARIABLES AL EATOIRES
A

(a) calculer a.
(b) Calculer lesperance, la variance et le mode de X.
(c) Determiner la fonction de repartition de X et tracer son graphe.
6. Soit une variable aleatoire X, a` valeurs reelles, de densite de probabilite :
f : x 7

2
1
, xR
(1 + x2 )2

(a) Verifier que f poss`ede les proprietes dune densite de probabilite.


(b) Calculer lesperance et lecart-type de X.
(c) Determiner la fonction de repartition de X. verifier ses proprietes.
(d) Calculer P(X 1)
7. Soit lequation differentielle
(1 + x2 )

dy
+ 4xy = 0
dx

(3.11)

Soit X une variable aleatoire, a` valeurs reelles, dont la densite de probabilite f est
solution de 3.11 sur ] 1, 1[ et nulle ailleurs.
(a) Determiner f et donner la forme de son graphe
(b) Determiner la fonction de repartition de X et donner la forme de son graphe.
(c) Calculer lesperance et la variance de X.
(d) Calculer la probabilite des e venements : X

1
2

et 12 X

1
2

8. Soit lequation differentielle


y 00 + 2y 0 = 0

(3.12)

Soit X une variable aleatoire, a` valeurs reelles, dont la fonction de repartition F


poss`ede les proprietes : (i) F est continue sur R ; F est nulle pour x 0 ; F est
solution de 3.12 pour x > 0
(a) Determiner F et tracer son graphe. Quelle est la mediane de X ?
(b) Determiner la densite de X et tracer son graphe. Quelle est le mode de X ?
(c) Calculer lesperance et la variance de X.
9. Au cours dune recolte de fruits, les varietes A et B ont e te melangees. Le poids
dun fruit de la variete A est une variable aleatoire X, de fonction densite f1 ,
de fonction de repartition F1 , desperance 1 et de variance 12 . Pour le poids
de Y dun fruit de la variete B, on a la densite f2 , la fonction de repartition F2 ,
lesperance 2 et la variance 22 .
Les fruits sont melanges dans les proportions p pour la variete A et q pour la variete
B (p + q = 1). On appelle Z la variable aleatoire e gale au poids dun fruit quelconque de la recolte.
Determiner la fonction de repartition F et la fonction densite f de Z ;
Calculer lesperance et la variance 2 de Z.
bar-hen.net

96

Exercices

10. Calculer lesperance et la variance de la variance X, a` valeurs reelles, de loi uniforme sur [a, b]. Determiner sa fonction de repartition.
11. Soit une variable aleatoire X, a` valeurs reelles, de densite de probabilite :

x 7 0
, si 0 < x
f:
x
x 7 e
, si x 0 avec R+
(a) Calculer lesperance et la variance de X.
(b) Determiner la fonction de repartition de X.
(c) Determiner le mode et la mediane de X.
(d) Pour = 12 , calculer la probabilite des e venements : (2 X < 3), (X 5),
(X < 7).
12. On consid`ere la variable aleatoire X, a` valeurs reelles, de loi N (, 2 ).
(a) Tracer le graphe de la densite de probabilite de X ; determiner sa largeur a`
mi-hauteur.
(b) Calculer lesperance et la variance de X.
(c) Determiner les nombres reels positifs, a et b, tels que :
P( a < X < + a) = 0.95 ; P( b < X < + b) = 0.99
(d) Determiner les nombre reels c et d tels que : P(X c) = P(X d) = 0.05.
13. Soit la variable aleatoire normale X, desperance 4 et de variance 4.
(a) Calculer la probabilite de levenement : (X > 6)
(b) Calculer la probabilite de levenement : (|X| > 6)
(c) Calculer la probabilite de levenement : (2 X 6)
(d) Calculer la probabilite de levenement : (1.7 X 2.82)
14. On veut transporter rapidement entre deux villes A et B, dans des conditions de
confort acceptables, 1600 voyageurs se presentant, pratiquement en meme temps,
a` la gare A. On met a` leur disposition deux trains identiques. On suppose que
chaque individu choisit au hasard lune ou lautre rame et quil na pas le temps
den changer.
Combien faut-il prevoir de places assises dans chaque rame si lon veut que la
probabilite, pour que des voyageurs soient obliges de rester debout, soit inferieure
a` 3 103 ?
15. On place un compteur Geiger devant une source de rayonnement. Le nombre dimpulsions, que lon peut enregistrer pendant une minute, est une variable aleatoire
de Poisson, dont lesperance mesure lintensite du rayonnement. Si = 10000
coups/minute, calculer la probabilite dobserver, en une minute, un nombre dimpulsions situe dans lintervalle : [9800, 10200].
16. On admet que, dans la population francaise adulte, la taille dun individu male,
choisi au hasard, est une variable aleatoire normale desperance 170 cm et decarttype 6.2 cm.
bar-hen.net


` DENSIT E
3. VARIABLES AL EATOIRES
A

97

Si on choisit au hasard 200 individus, calculer la probabilite dobtenir au moins 5


individus de taille superieure ou e gale a` 186 cm, condition pour former une e quipe
de basket valable.
17. On admettra, ce que lon peut discuter, que la duree de fonctionnement correct
dun appareil donne est une variable aleatoire normale, desperance 1500 heures,
et decart-type 300 heures.
Une revision periodique le remet compl`etement a` neuf. Au bout de combien de
temps faut-il effectuer la revision pour que la probabilite de trouver lappareil en
panne soit inferieure ou e gale a` 0.5% ?
18. Un garage contient 900 places. Si on admet que, chaque jour, le taux dabsenteisme
est de 10%, combien peut-on avoir dabonnes pour e tre pratiquement sur de ne pas
laisser de voitures dehors, un jour donne ?
19. On sinteresse a` la vitesse de deplacement de pietons, sur un parcours determine.
On admet le mod`ele suivant : la vitesse dun individu isole, choisi au hasard, est
une variable aleatoire normale
desperance 1.4 m/s et decart-type 0.4 m/s pour une femme ;
desperance 1.6 m/s et decart-type 0.4 m/s pour une homme.
La population est composee dun tiers dhommes et de deux tiers de femmes.
Soit V la vitesse dun individu isole, choisi au hasard, dont on ignore le sexe.
(a) Calculer la probabilite de levenement : (V <1.2 m/S)
(b) la vitesse dun individu a e te trouve inferieure a` 1.2m/s. Quelle est la probabilite pour quil sagisse dune femme ?
(c) Determiner lexpression explicite de la densite de V . Calculer lesperance et
lecart-type de V .
20. Une entreprise comprend 900 employes. Elle dispose dune cantine de 500 places
qui assure deux services. Si chaque employe choisit indifferemment lun ou lautre
service, quelle est la probabilite pour quun jour donne on refuse du monde a` la
cantine ?
21. On designe par P la probabilite dobserver un phenotype donne sur un individu
issu dun certain croisement. Calculer la probabilite dobserver moins de 250 individus possedant le phenotype, sur un e chantillon de 384 descendants, sous les
9
hypoth`eses : P = 34 , puis P = 16
.
22. Soit X une variable aleatoire, a` valeurs reelles, de densite de probabilite
(
x 7 0
, si x < 0
2
f:
x /2
x 7 xe
, si x 0
Determiner le mode de X et tracer le graphe de f .
Calculer lesperance et la variance de X.
Determiner la fonction de repartition de X et calculer la probabilite de levenement
(0 X < 2)

bar-hen.net

98

23.

Exercices

R +
2
(a) On pose In = 0 xn ex dx, o`u n N. On admet I0 = 2 . Calculer I1 .
Par integration par parties, trouver la relation entre In+2 et In . En deduire les
valeurs de I2 , I3 , I4 , I5 , I6 .

(b) Dans la theorie de Maxwell, la vitesse dune molecule dun gaz donne, dans
des conditions donnees, est une variable aleatoire V , dont la densite de prov2
babilite f est donnee par : f (v) = 0 pour v 0 ; f (v) = Av 2 e /a2 pour
v 0, o`u a est un param`etre positif et A un facteur de proportionnalite.
Calculer A en fonction de a. Determiner le mode de V .
Exprimer, en fonction de a et des nombres In , le moment dordre k de V .
En deduire, en fonction de a, lesperance et la variance de V .
24. La duree de vie dun composant e lectronique, choisi au hasard dans un fabrication
donnee, est une variable aleatoire T de densite :

t 7 0
, si t < 0
f:
t 7 2 tet , si t 0
o`u est un reel positif.
Calculer le mode, lesperance et la variance de T .
Determiner la fonction de repartition de la variable T .
on pose = 2 104 , t e tant exprime en heures. Calculer les probabilites
P1 de levenement (T < 500 h) et P2 de levenement (T 10000 h)
(a) En posant, pour simplifier P1 = 0.5% et P2 = 40%, calculer la probabilite
de trouver, dans un lot de 600 composants choisis independamment :
plus de 6 composants de duree de vie inferieur a` 500h ;
plus de 220 composants de duree de vie au moins e gale a` 10000h.
(b) On a melange 10 composants de fabrication caracterisee par = a et 5
composants dune fabrication caracterisee par = b. On choisit au hasard
un e lement de ce melange ; soit X sa duree de vie.
Determiner la densite de X.
Calculer lesperance et la variance de X

bar-hen.net

99

` DENSIT E
3. VARIABLES AL EATOIRES
A

9 Solutions
1.

(a) F est definie sur R. F est continue pour x < 0 et pour x > 0. Le probl`eme
de la continuite se pose en 0. On a F (0) = 1 1 = 0. De plus :

x
x
lim = 0 = F (0); lim+ = 1 lim+ e /2 1 +
= 1 1 = 0 = F (0)
x0
x0
x0
2
F est continue en zero et donc sur R
x
x
(b) limx+ F (x) = 1 limx+ e /2 limx+ e /2 X2 = 0
x
x
En effet lim
e /2 = 0+ et lim
e /2 X = 0+ (lexponentielle
x+

x+

dune fonction puissance lemporte sur toute fonction puissance)


Toute fonction de repartition poss`ede cette propriete (P() = 1)
(c) Par derivation, on obtient la densite f :

x 7 0
, si x < 0
f:
x/2 x
x 7 e
, si x 0
4
X suit une loi gamma dordre 1 et de param`etre 1/2.
x
(d) Pour x > 0 f 0 (x) = 18 e /2 (2 x).
f 0 (x) > 0 pour x < 2 ; f 0 (x) = 0 pour x = 2 ; f 0 (x) < 0 pour x > 2.
f admet donc un maximum pour x = 2. La variable aleatoire X a pour mode
2.
(e)


Z +
Z +
Z +
2
2 +
x x
x/2 x
x/2 x
E(X) =
xf (x)dx =
e
dx = e
+4
e /2 dx = 4
4
2 0
4

0
0


Z +
3 +
2
x x
x/2 x
E(X ) =
e
dx = e
+6
e /2 dx = 64 = 24
4
2 0
4
0
0

On en deduit V(X) = E(X 2 ) E2 (X) = 24 16 = 8 et donc (X) = 2 2


(f) tableau recapitulatif (f (2) 0.184, F (2) 0.264
2

x/2 x

(g) P(1 X < 2) = F (2) F (1) = 1 2e1 1 + 32 e /2 = 2e1 + 32 e /2 =


17.40%
h
i
R 2 x x/
x
x 2
On a aussi P(1 X < 2) =
e 2 dx = x e /2 e /2 = 2e1 +
1 4

3 1/2
e
2

2.

= 17.40%
(a) Pour
R + que f soit une densite il faut que soit un reel positif (f (t) 0 et
f (t)dt = 1.

i1
h
R1
t3
2
= 43 = 1 et donc
Do`u 1 (1 t )dt = t 3
1

3
4

Il est aise detudier les variations et de construire le graphe de f .


bar-hen.net

100

Solutions

(b) Soit F la fonction de repartition de T . On a F (t) = P(T < t) =


On en deduit aisement :

t 7 0

 , si t 1
t3
1
3
F :
t 7 2 + 4 t 3 , si 1 < t 1

t 7 1
, si t > 1

Rt

f (x)dx

(c)


1
P |T |
2

1/2

=
=
=

f (t)dt +

Z 1/2

f (t)dt
1/
2

Z 1
3
3
2
(1 t )dt +
(1 t2 )dt
1
4
4
1
/2


3 1
3
t
2 t
a` cause de la symetrie de la distribution
4
3 1/2


3 2 1
1
+
2 3 2 24
5
16

On pourrait e galement e crire :






1
1
P |T |
= P T
+ P (T f rac12)
2
2
 
 
1
1
+F
= 1F
2
2
 
1
= 2F
2

 
1
= 2 1F
toujours a` cause de la symetrie
2
(d) Il est clair que T a pour mode 0 et pour mediane 0
R +
R1
E(T ) = tf (t)dt = 1 34 (t t3 )dt = 0 (fonction impaire)
On en deduit
V(T ) = E(T 2 ) E2 (T ) = E(T 2 )
Z +
=
t2 f (t)dt

Z 1
3 2
=
(t t4 )dt
4
1
Z 1
3 2
= 2
(t t4 )dt (fonction paire)
0 4
bar-hen.net

101

` DENSIT E
3. VARIABLES AL EATOIRES
A


1
3 t3 t5
=

2 3
5 0
1
=
5
3. Reponses : a = n ; E(X) =

n
n+1

; V(X) =

n
(n+2)(n+1)2

x 7 0 , si x 0
x 7 xn , si 0 < x 1
F :

x 7 1 , si x > 1

4. Reponses : E(Y ) = 1 mode de Y = mediane de Y =0 (Y ) = 2


3

y 7 0
 , si y 2
1
1
sin 2x
y 7 2 + x + 2
, si 2 < y 2
F :

y 7 1
, si y > 2




4
1
4
P Y >
= 1 0.9 +
sin
0.645%
10
2
5
2x
Indications : pour le calcul des integrales, on pose cos2 x = 1+cos
; la fonction
2
2
x cos 2x sint`egre par parties. La distribution est en cloche, symetrique par rapport
a` la valeur zero.

8
8 2
5. Reponses : a = 1 ; E(X) = 3
0.8488 ; V(X) = 1 3
0.2795 ; mode de
X=0

, si x 0

x 7 0
q
2
2
x
x
1
F :
x 7 arcsin 2 + x 1 4 , si 0 < x 12

x 7 1
, si x > 2

Indications : on note que le graphe de f est un quart de cercle centre a` lorigine


et de rayon 2. On remarque que f est discontinue en zero ; ceci entrane, pour F ,
lexistence, en zero, dune derivee a` gauche et dune derivee a` droite respectivement e gales a` la limite a` gauche et a` la limite a` droite de f .

La
seule
difficult
e
de
lexercice
r
e
side
dans
le
calcul
des
int
e
grale.
On
e
crit
4 x2 dx =
q
2 1

x2
dx
4

et on effectue le changement de variable :

x
x

= sin u et u
2
2
2
2
dx
=
2
cos
udu
r
x2
1
= | cos u| = cos u
4
R
R
R2
2u
du
On a ainsi I0 = 0 4 x2 dx = 4 02 cos2 udu = 4 02 1+cos
2

R2
R
I1 = 0 x 4 x2 dx = 8 02 cos2 u sin udu = 83 [cos3 u]02
R
R
R
R2
I2 = 0 x2 4 x2 dx = 16 02 cos2 u sin2 udu = 4 02 sin2 2udu = 4 02
u = arcsin

bar-hen.net

1cos 4u
du
2

102

6.

Solutions

R +
(a) On doit avoir f (x) 0 et f (x)dx = 1. Or
R +
a` calculer 2 (1+x1 2 )2 dx.
On fait le changement de variable :

1
2
(1+x2 )2

> 0 sur R ; il reste

<u<
2
2
dx = (1 + tan2 u)du

u = arctan x x = tan u et

R +
On obtient f (x)dx =


1
sin 2u + 2
u
+
=1

R + 2

1
2 1+tan2 u du

R + 2
2

cos2 udu =

R + 2
2

1+cos 2u
du
2

(b) Sous reserve de la convergence des integrales, on a : E(X) = =


R +
, V(X) = 2 (X) = E[(X )2 ] = (X )2 f (x)dx

+
R +
1
E(X) = 1 (1+x1 2 )2 2xdx = 1 1+x
= 0.
2

Comme E(X) = = 0, on a, dans cas :


R + tan2 u
R
2
2 +2
V(X) = E(X 2 ) = 2 2 1+tan
2 u du =
2 sin udu =
2


1
sin 2u + 2
u
+
=1

R +

R + 2
2

xf (x)dx

1+cos 2u
du
2

Finalement :
E(X) = 0, (X) =

1=1

(c) Par definition, la fonction de repartition est une fonction F , definie sur R, et
telle que : F (x) = P(X < x). On a donc :
Z

2
F (x) = P(X < x) =
f (t)dt =

En posant u = arctan t, on obtient : F (x) =


2 tan u
quant que sin 2u = 1+tan
2u :


arctan x
tan u
F (x) = 1 u + 1+tan
2u

dt
, t R
(1 + t2 )2


u+


arctan x +


sin 2u arctan x
.
2
2

x
1+x2

En remar-


. Do`u :



1 1
x
F : x 7 +
arctan x +
, x R
2
1 + x2
On pet verifier
(deriv
 que F est strictement croissante
 ee positive), que limx F (x) =
1
1

1
1
+ 2 = 0 et que limx1 F (x) = 2 + 2 = 1
2


1
(d) P(X 1) = 1 P(X < 1) = 1 F (1) = 1 12 1 4 + 12 = 14 2

9.08%
7. Lequation differentielle 3.11 est du premier ordre, lineaire et homog`ene. Elle se
resout par separation des variables et admet sur ] 1, 1[, la solution generale :
x 7 (1x2 )2 , R R. Sur ]1, 1[, f est solution particuli`ere de 3.11, determinee
+
par la condition f (x)dx = 1.
bar-hen.net

103

` DENSIT E
3. VARIABLES AL EATOIRES
A

(a) On trouve facilement :



x 7 0
, si x 6] 1, 1[
F :
15
4
2
x 7 16 (x 2x + 1) , si x ] 1, 1[
ainsi que :

x 7 0
F :
x 7 21 +

x 7 1

15
16

x5
5

x3

2 3

 , si x 1
+ x , si 1 < x 1
, si x > 1

(b) E(X)= mode de X= mediane de X=0 - V(X) = 1/7



1
1
(c) P(X 1/2) = 1 F ( 1/2) = 12 15
12
+ 12 10.35% et a` cause de
16 160
la symetrie de la distribution
P( 1/2 X 1/2) = 1 2P(X 1/2) 79.30%
8. Lequation differentielle 3.12 est du premier ordre, lineaire et homog`ene. De lequation
caracteristique r(r + 2) = 0, on deduit la solution generale : x 7 A + Be2x ,
sur R, A, B. On aura donc F (x) = 0 pour x 0 et F (x) = A + Be2x pour
x > 0.
(a) Le probl`eme de la continuite de F se pose en zero. Or F (0) = 0 = limx0 F (x).
Il faut donc F (0) = 0 = limx0+ F (x) = A + B. Donc :
B = A
(b) F , fonction de repartition doit e tre non decroissante. Or pour x > 0, F 0 (x) =
2Ae2x . On doit avoir A > 0.
(c) De plus limx+ F (x) = 1 0 limx+ A Ae2x = A = 1
(d) On obtient finalement :

F :

x 7 0
, si x 0
x 7 1 e2x , si x > 0

puis la densite

f:

x 7 0
, si x 0
2x
x 7 2e
, si x > 0

F admet en zero une derivee a` gauche et une derivee a` droite. On peut choisir
arbitrairement.
(e) Mode de X = 0 ; E(X) = 12 ; V(X) =
(f) F (x) =

1
2

pour e2x =

1
2

1
4

2x = log 2. Mediane de X = 12 log 2 0.3465

9. On a F (t) = P(Z < t), t R


Or levenement (Z < t) peut secrire (Z < t) = (Z = X Z < t) (Z =
Y Z < t).
bar-hen.net

104

Solutions

Les deux e ventualites e tant incompatibles, on a :


P(Z < t) = P(Z = X Z < t) + P(Z = Y Z < t)
= P(Z = X)P(Z < t|Z = X) + P(Z = Y )P(Z < t|Z = Y )
= P(Z = X)P(Z = X) + P(Z = Y )P(Z = Y )
Finalement F (t) = pF1 (t) + qF2 (t) et par derivation f (t) = pf1 (t) + qf2 (t). On
en deduit :
Z +

E(Z ) =
t f (t)dt

Z +
=
t (pf1 (t) + qf2 (t))dt

Z +
Z +

= p
t f1 (t)dt + q
t f2 (t)dt

pE(X ) + qE(Y )
En particulier
E(Z) = pE(X) + qE(Y ) = p1 + q2
E(Z 2 ) = pE(X 2 ) + qE(Y 2 )
On sait, dautre part, que pour toute variable T
V(T ) = E(T 2 ) E2 (T )
E(T 2 ) = V(T ) + E2 (T )

(3.13)
(3.14)

Donc, dapr`es 3.14 : E(Z 2 ) = p(21 + 12 ) + q(22 + 22 )


et, dapr`es 3.13 : V(Z) = p(21 + 12 ) + q(22 + 22 ) (p1 + q2 )2
Do`u :
V(Z) =
=
=
=

p21 + q22 p2 21 q 2 22 2pq1 2 + p12 + q22


p21 (1 p) + q22 (1 q) 2pq1 2 + p12 + q22
pq(21 + 22 21 2 ) + p12 + q22
pq(1 2 )2 + p12 + q22

10. La densite de X est :




x 7 0 , si x 6 [a, b]
1
x 7 ba
, si x [a, b]

f:

E(X) =

Z
xf (x)dx =

 2 b
x
1
x
1 b 2 a2
b+a
dx =
=
=
ba
ba 2 a 2 ba
2
bar-hen.net

105

` DENSIT E
3. VARIABLES AL EATOIRES
A

+
2

E(X ) =

x f (x)dx =

 3 b
x2
1
x
1 b 3 a3
1
dx =
=
= (b2 +ab+a2 )
ba
ba 3 a 3 ba
3

Do`u, dapr`es 3.13 :


1
(b + a)2
1
V(X) = E(X 2 ) E2 (X) = (b2 + ab + a2 )
= (b a)2
3
4
12
Rt
On a F (t) = P(T < t) = f (x)dx t R. On en deduit : F (t) = 0, si t a
Ra
Rt
Rt 1
ta
F (t) = f (x)dx + a f (x)dx = 0 + a ba
dx = ba
, si a < t b
Ra
Rb
Rt
F (t) = f (x)dx + a f (x)dx + + b f (x)dx = 0 + ba
+ 0 = 1, si t > b
ba
11. La variable X suit une loi exponentielle, de param`etre
(a) On remarque que f poss`ede bien les proprietes dune densite : f (x) 0 sur
R
 x +
R +
R + x
f
(x)dx
=
e
dx
=
e
=1

0
0
(b)
Z +
Z +


1
+
x
x + 1
E(X) = int xf (x)dx =
xe dx = xe
+
ex dx =
0
0

0
Z +
Z
 2 x + 2 +
2
2
+ 2
2 x
E(X ) = int x f (x)dx =
x e dx = x e
+
xex dx =
0
0

0
1
1
2
V (X) = 2 = 2

(c) Soit F la fonction de repartition. On a


Z t
F (t) = P(X < t) =
f (x)dx = 0 si t 0

Z 0
Z t

t
=
f (x)dx +
f (x)dx = ex 0 = 1 et si t > 0

(d) La densite est nulle a` gauche de zero et decroissante a` droite de zero. (f 0 (x) <
0). Le mode de X est donc 0.
F (t) = 0.5 si et = 0.5. X a donc pour mediane t = 1 log 2 (voir exercice 7
pour = 2)
(e) Si =

1
2

:
P(2 X 3) = F (3) F (2) = e1 e
P(X 5) = 1 F (5) = e
P(X < 7) = F (7) = 1 e

bar-hen.net

5/
2

7/
2

3/
2

14.47%

8.21%
96.98%

106

Solutions

1 x
12. X a pour densite f : x 7 12 e 2 ( ) x R
Le graphe de f est symetrique par rapport a` x = .
Point dinflexion pour x = .
Donner les valeurs de + i pour i = 1, 2, 3 dans le tableau de variation.


1 x 2
On a f (x) = 1 1 pour e 2 ( ) = 1 x = 2 log 2 x = 2 log 2

2 2

Do`u la largeur a` mi-hauteur :


2

2 log 2 = 2.3548

R +
1 2
En effectuant le changement de variable z = x
et en admettant 12 e 2 z dx =

1 on trouve facilement E(X) = et V(X) = 2 .


En tenant compte de la symetrie de la distribution, en designant par Z une variable
normale centree reduite, on aura (voir table) :
P(a < X < +a) = 0.95 P(a < X) = 0.975 P(Z < a/) = 0.975 a 1.96
P( b < X < + b) = 0.99 b 2.576
P(X c) = 0.05 c 1.645
P(X d) = 0.05 d + 1.645
13. Soit Z une variable normale centree reduite, de fonction de repartition F . Si X
N (4, 22 ), on a :
(a) P((X > 6) = P(Z > 64
) = 1 P(Z 1) = 1 F (1).
2
Dans la table 11.6, on lit F (1) 0.8413
Dans la table 11.7, on lit F (1) = 12 + (1) 0.5 + .3413
Dans la table 11.8, on estime F (1) = 1 12 P(|Z| 1) 1 12 (31 +
15 1
)
0.8414
21 100
Finalement P(X > 6) = 1 0.8413 15.87%
(b) P((|X| > 6) = P(6 < X < 6) = 1 P(5 < Z < 1) = 1 (F (1)
F (5)
Dans la table 11.6, on lit F (1) 0.8413
Dans la table 11.8, on tire, F (5) = 21 P(|X| > 5) < 12 106 donc negligeable
par rapport a` F (1).
Do`u P(X > 6) = 1 0.8413 15.87%
(c) P((2 X 6) = P(1 < Z < 1) = 68.26%
(d) P((1.7 X 2.82) = P(1.15 < Z < 0.59) = P(0.59 < Z < 1.15)
(par symetrie) = F (1.15) F (0.59) = 15.25%

bar-hen.net


` DENSIT E
3. VARIABLES AL EATOIRES
A

107

14. Soit lexperience : un voyageur se presente ; deux resultats sont possibles. Il prend
la rame A ou il prend la rame B, e galement probables. On pose p = P(Il prend la rame A) =
1
.
2
Soit lexperience E : 1600 voyageurs se presentent. On lui associe la variable X :
nombre de voyageurs susceptibles de prendre le train A. En supposant lindependance
des choix, on a : X B 1600, 12 . Les conditions sont ideales pour utiliser lapproximation X N (800, 202 ).
Soit n le nombre de places assises dans une rame. Levenement a` e viter est X >
n mais aussi X < 1600 n ; ce dernier resultat entranerait 1600 X > n,
donc une saturation de la rame B.
On veut : P(X > n) + P(X < 1600 n) < 3 103 (probabilites totales).


1600n800
Si Z N (0, 1), cette inegalite e quivaut a` : P Z > n800
+P
Z
<
<
20
20

3
3 10 . Ce que lon peut e crire, puisque n est surement superieur a` 800 : P |Z| > n800
<
20
n800
3
3 10 . Cette inegalite est verifiee pour 20 > 2.97 (voir table 11.7). On en deduit
n 860
15. Soit X P(). Comme = 104 , on peut e crire : X N (1000, 1002 ). On a
donc, si Z est une variable normale centree reduite : P(9800 X 10200)
P(2 Z 2) = 2 12 (2) (voir table 11.6 ou 11.7) . Il est inutile deffectuer la
correction de continuite = 2F (2) 1 95.44%
16. Si on choisit au hasard un individu male, 2 resultats sont possibles : sa taille est
186cm ou sa taille est < 186cm, e ventualites disjointes. Si Z N (0, 1), on a :


186 170
P = P(X 186cm) = 1P(X < 186) = 1P Z <
= 1P(Z < 2.58) 0.5%
6.2
(voir table 11.7
Soit lexperience E : on choisit 200 individus males ; on peut lui associer la variable
Y : nombre dindividus de taille 186cm. On a Y B(200, 5 103 ) P(1)
(nombre dindividus e leve, et probabilite P tr`es faible).
On deduit de la table 11.4 :
P(Y 5) = 1P(Y < 5) 1(0.3679+0.3679+0.1839+0.0613+0.0153) 37 104
17. Soit T la duree de fonctionnement correct a` partir dun revision. Soit a le temps
separant deux revisions. On veut determiner a pour que : P(T < a) 0.05.
En designant par
centr
< a) =
 Z une variable normale
 ee reduite, on a : P(T a1500
a1500
a1500
P Z < 300 . La condition P Z < 300
< 0.005 est realisee pour 300 <
2.576 a 727 heures
18. Soit X la variable qui associe a` un jour le nombre de clients qui se presentent sur
les n abonnes. On admet que chaque abonne a une probabilite de 9/10 de se presenter
et que les decisions sont independantes. Dans ces conditions X B(n, 9/10). Donc
E(X) = 0.9n et V(X) = 0.09n.
Lobjectif e tant davoir plus de 900 abonnes, on a certainement : n > 900 et n 9/10 >
n 1/10 > 90. On peut donc utiliser lapproximation normale X N (0.9n, 0.09n).
bar-hen.net

108

Solutions

Il sagit de choisir n pour que P(X > 900) 0. On a e videmment zero pour
n 900. Pour envisager un benefice supplementaire, il est clair quil faut courir
un risque. En choisissant P(X > 900) 103 , et avec Z N (0, 1), on obtient :


900 0.9n

P(X > 900) = P Z >


103
0.3 n

En utilisant la table 11.8, on : 9000.9n


3.090 0.9n + 0.927 n 900 0
0.3
n

( n)2 + 1.03 n 1000 0.

Ce trinome a deux racines : 32.142 et 31.112 ; en tenantcompte du fait que n est


un nombre positif, le trinome est negatif ou nul pour n 31.112, cest-`a-dire
n 967 pour un risque de 103 .
On note queffectuer la correction de continuite consiste a` e crire ici : P(X >
900.5). On obtient alors n 31.120 et n 968.
19. On note
V1 la vitesse dun homme V1 N (1.6, 0.42 ) ;
V2 la vitesse dun homme V1 N (1.4, 0.42 ) ;
H levenement : lindividu observe est un homme ;
F levenement : lindividu observe est une femme
Z une variable normale centree reduite.
(a)
P(V < 1.2) = P(H V < 1.2) + P(F V < 1.2) e venements incompatibles
= P(H)P(V < 1.2|H) + P(F )P(V < 1.2|F )
1
2
=
P(V1 < 1.2) + P(V2 < 1.2)
3 
3 


1
1.2 1.6
2
1.2 1.6
=
P Z<
+ P Z<
3
0.4
3
0.4
1
2
=
P(Z < 1) + P(Z < 0.5)
3
3
1
2
=
0.1587 + 0.3085
3
3
25.85%
(F V <1.2)
(b) P(F |V < 1.2) = PP
0.2056
79.53%
0.2585
(V <1.2)
(c) On note F et f la fonction de repartition et la densite de V ; on utilisera les
fonctions F1 et f1 pour V1 , F2 et f2 pour V2 .
F (x) = P(V < x) = P(H V < x) + P(F V < x) = 31 F1 (x) + 23 F2 (x)
Par derivation f (x) = 31 f1 (x) + 23 f2 (x)
2
2
12 ( x1.4
21 ( x1.6
1
1
0.4 ) x R
0.4 ) + 2

e
Do`u f (x) = 13 0.4
e
3 0.4 2
2
R +
R + 1
(d) E(V ) = xf (x)dx = x( 3 f1 (x)+ 23 f2 (x))dx = 13 E(V1 )+ 23 E(V2 )
1.4667 m/s

bar-hen.net

109

` DENSIT E
3. VARIABLES AL EATOIRES
A

R +
E(V 2 ) = x2 f (x)dx = 13 E(V12 ) + 32 E(V22 ) = 13 (V(V1 ) + E2 (V1 )) +
2
(V(V2 ) + E2 (V2 ))
3
E(V 2 ) 13 (0.16 + 2.56) + 23 (0.16 + 1.96) = 2.32 m2/s2
Do`u la variance V(V ) = E(V 2 ) E2 (V ) 0.1688 et lecart-type (V )
0.41 m/s
20. Soit X la variable
 qui associe a` un jour le nombre de clients du premier service.
1
X B 900, 2 . Levenement on refuse du monde a` lun des deux services
secrit : E = (X > 500 X < 400). En utilisant lapproximation normale on
obtient P(E) 8 ou 9 104 . La correction de continuite est ici negligeable.
21. Reponses :
si P = 34 on obtient une probabilite de lordre de 3 106 ;
9
si P = 16
on obtient une probabilite de lordre de 99.98%
p
22. Reponses : Mode=1 ; E(X) = /2 ; V(X) = 2 /2.
(
t 7 0
, si t 0
2
F :
t
t 7 1 e /2 , si t > 0
P(0 X < 2) 86.466%
23. (a)
+

Z
I1 =

xe

x2


+
1
1 x2
=
dx = e
2
2
0
Z

x2

dx =
xn+1 xex dx
0
0

+
Z
1
n + 1 +
2
x2
= xn+1 e
+
xn ex dx
2
2
0
0
n+1
=
In
2

In+2 =

xn+2 e

On en deduit I0 = 2 , I2 = 4 , I4 = 3 8 , I6 = 156
et I1 = 12 = I3 , I5 = 1.
R +
R +
v2
(b) La condition f (v)dv = 1 permet de calculer A. On obtient : A v 2 e /a2 dv =
1. On int`egre par changement de variable x = av , dv = adx
Aa

x2 ex dx = Aa3 I2 = 1 A =

0
v2

a3

f 0 (v) = 0 si v 0 ; f 0 (v) = 2Ave /a2 (1 v2/a2 ) si v > 0.


f 0 (v) > 0 si 0 < v < a, f 0 (v) = 0 si v = a et f 0 (v) < 0 si v > a
Mode=a.
bar-hen.net

110

Solutions

R +
R +
R +
2
v2
E(V k ) = v k f (v)dv = A v k+2 e /a2 dv = Aak+3 0 xk+2 ex dx =
Aak+3 Ik+2
4
E(V k ) = ak Ik+2

On en deduit
2a
4
E(V ) = aI3 =

4
3
E(V 2 ) = a2 I4 = a2
2

V(V ) = E(V ) E (V ) = a
24.

3 4

(a) f est continue sur R. Pour t > 0, f 0 (t) = 2 tet (1 t). On obtient donc
le tableau de variation et le mode vaut 1
Z

E(T ) =

2 2 t

tf (t)dt =

E(T 2 ) =

t2 f (t)dt =

te
Z


+ 2
dt = t2 et 0 +

2 tet dt =

2 t3 et dt


+ 3
= t3 et 0 +

2
V(T ) =
2

2 t2 et dt =

6
2

F (t) = P(T < t) = 0 si t 0


Z t
Z t


2
x
x t
=
xe dx = xe
+
xex dx
0
0
0

t
= xex ex 0
= 1 (1 + t)et si t > 0
P1 = P(T < 500) = F (500) = 1 (1 + 0.1)e0.1 4.68 103
P2 = P(T 104 ) = 1 F (104 ) = (1 + 2)e2 40.60%
(b) Si X1 est la variable associant a` un tel e chantillon le nombre de composants
de duree de vie inferieure a` 500h, on a X1 B(600, 5 103 ) P(3)
P (X1 > 6) = 1 P(X1 6) 1 0.9664 3.36% (voir table 11.4)
Si X2 est la variable associant a` un tel e chantillon le nombre de composants
de duree de vie superieure a` 10000h, on a X1 B(600, 0.4) N (240, 122 )
bar-hen.net

111

` DENSIT E
3. VARIABLES AL EATOIRES
A

20
Si Z N (0, 1), on a : P (X2 > 220) = P(Z > 12
) = P(Z > 1.666).
Sans correction de continuite, on obtient :

P(Z >

20
) = P(Z > 1.666) = P(Z < 1.666) 0.9522
12

Avec correction de continuite, on obtient :


P(Z >

19.5
) = P(Z > 1.625) = P(Z < 1.625) 0.9479
12

(c) On determine G, fonction de repartition de X. On obtient : G(t) = P(X <


t) = P( = a X < t) + P( = b X < t) = P( = a)P(X < t| =
a) + P( = b)P(X < t| = b) = 23 Fa (t) + 13 Fb (t)
En derivant on obtient la densite : g(t) = 23 fa (t) + 13 fb (t). Donc :

t 7 0
, si t < 0
g:
2 2 at
1 2 bt
t 7 3 a te + 3 b te
, si t 0
On en deduit : E(X) = 23
meme E(X 2 ) = a42 + b22 .

bar-hen.net

R +

tfa (t)dt +

1
3

R +

tfb (t)dt =

2
3

2
a

1
b

. De

Chapitre 4
Fonction dune variable aleatoire
1

Generalites
Definition 4.1 Soit X une variable aleatoire a` valeurs reelles, associee a` un espace de
probabilite {, A, P}. Soit une fonction numerique dune variable reelle definie sur
X(). Lapplication Y = X, definie sur , est une variable aleatoire a` valeurs
reelles si elle poss`ede la propriete :
Pour tout intervalle I R, {|Y () = (X()) I} A

(4.1)

On dit alors que Y est une variable aleatoire fonction de la variable aleatoire X et on
note Y = (X)
Remarques :
1. Lorsquune experience aleatoire est associee a` une variable aleatoire X, toutes observation est traduite par un nombre reel x. La fonction permet de transformer ce
reel en y = (x) que lon consid`ere alors comme la valeur observee dune nouvelle
variable aleatoire Y .
2. La propriete 4.1 necessaire a` la definition de toute variable aleatoire (voir chapitre 2) implique que lon peut definir la loi de probabilite de Y , ce qui, a priori,
nest sans doute pas possible pour nimporte quelle fonction numerique.
Le but de ce chapitre e tant essentiellement de montrer comment, a` partir de la loi de X, on
peut deduire la loi de Y , il sera implicite, dans ce qui suit, que les fonction considerees
sont de bonnes fonctions.

1.1

Fonction dune variable discr`ete


Lorsque la variable aleatoire X est une variable discr`ete, la variable Y = (X) est, ellememe discr`ete et la determination de sa loi, a` partir de celle de X, ne presente en general
pas de difficultes.

113

114

Generalites

Exemple 4.1 Supposons que la loi de X soit donnee par le tableau suivant :
xi -2 -1 0 1 2 3
2
3
4
4
2
1
pi 16
16
16
16
16
16
1. Soit la variable Y = 2X3. Lensemble des observables de Y est {7, 5, 3, 1, +1,+3}.
y +3
La fonction : x 7 y = 2x 3 est bijective et on a : pj = P(Y = yj ) = P X = j2 .
On en deduit la loi de Y :
yj -7 -5 -3 -1 1 3
2
3
4
4
2
1
pj 16
16
16
16
16
16
2. Soit la variable Z = X 2 . Lensemble des observables de Z est {0, 1, 4, 9}
On a, pour toute observable zk strictement positive :

pk = P(Z = zk ) = P [(X = zk ) (X = zk )]

= P (X = zk ) + P (X = zk )
car les e venements sont incompatibles et on a P(Z = 0) = P(X = 0). On en deduit la
loi de Z :
zk 0 1 4 9
3
6
5
2
pk 16
16
16
16
3. Peut-on definir la variable

1.2

1
X

Fonction dune variable a` densite


Si X est une variable aleatoire de densite f , et de fonction de repartition F , on cherchera
a` determiner la fonction de repartition G de la variable Y = (X) ; cette determination
sera plus ou moins complique suivant la nature de la fonction .
Exemple 4.2 On suppose que la densite de X est :

x 7 0
, si x 0
f:
x 7 2 xex , si x > 0
o`u est un reel strictement positif. On cherche a` determiner la loi de Y = X1 .
On a G(u) = P(Y < u) = P X1 < u .
Pour u 0, il est clair que levenement X1 < u est un e venement impossible puisque
X, et donc X1 , ne peut prendre ici de valeurs negatives. On en deduit :
G(u) = , pour u 0
Pour u > 0, on a :




1
1
P
<u
= P X>
X
u

= 1P X

= 1P X <


1
u

1
distribution continue
u
bar-hen.net

115

4. F ONCTION D UNE VARIABLE AL EATOIRE

On en deduit :

 
1
G(u) = 1 F
, pour u > 0
u

Par derivation, on obtient pour u 0 : g(u) = 0 et pour u > 0 :




2

g(u) = u12 f u1 = u2 u1 e /u .
Do`u la densite de Y :

u 7 0
, si u 0
g:
2 /u
u 7 u3 e
, si u > 0
Connaissant la fonction de repartition de X :

t 7 0
, si t 0
F :
t 7 1 et (1 + t) , si t > 0
on peut e videmment expliciter :

u 7 0
 , si u 0
G:

u
u 7 1 e
1 + u , si u > 0
Exemple 4.3 Soit X une variable aleatoire de loi N (0, 1). On se propose de determiner
la loi de Y = X 2 .
On e crit G(t) = P(Y < t) = P(X 2 < t)
Il est clair que, pour t 0, G(t) = 0, puisque levenement X 2 < t est impossible : un
carre ne peut pas prendre une valeur
negative
; par derivation : g(t) = 0.
Pour t > 0,on a P(X 2< t) = P( t < X t) et, X e tant de distribution continue :
G(t) = F ( t) F ( t) ; par derivation



1
1
g(t) = f ( t) f ( t)
2 t
2 t
1
1
t
t
=
e /2 +
e /2
2 2t
2 2t
2

(on rappelle que f est une fonction paire definie sur R par f (x) =
Finalement la densite de Y est :
(
t 7 0
, si t 0
g:
t/2
1

t 7 2t e
, si t > 0

x
1 e /2 )
2

Contrairement a` lexemple precedent, F nayant pas dexpression analytique, il est impossible, ici, dexpliciter G. On notera, a` propos de cet exemple, que la loi dune variable
aleatoire definie comme le carre dune variable normale reduite est une loi classique dite
loi du chi-deux a` un degre de liberte. Les lois du chi-deux font partie des mod`eles gaussiens qui seront decrits dans les derniers chapitres de ce cours et qui sont tr`es utilisees
en statistique.

bar-hen.net

116

Un cas particulier : Y = aX + b

2 Un cas particulier : Y = aX + b
La modelisation de ce cas particulier est tr`es aise et se prete a` des developpement interessants.
Les param`etres a et b e tant reels, on suppose, bien entendu, que a est different de zero,
sinon levenement Y = b est un e venement certain.

2.1 X est une variable discr`ete


Les observables de X, rangees par valeurs croissantes, sont numerotees par un indice i
representant leur rang.
La fonction : x 7 y = ax + b, a 6= 0, est bijective ; les valeurs possibles de X et Y
sont donc associees par paires et on peut poser yi = axi + b, ce qui revient a` classer les
observables de Y par valeurs croissantes si a est positif, ou decroissantes si a est negatif
et on aura :


yi b
P(Y = yi ) = P X =
= P(X = xi )
a
La loi de Y se deduit donc aisement de celle de X (voir exemple 4.1). Interessons-nous
maintenant au calcul
P de E(Y ) et de V(Y )
On a : E(Y ) = i yi P(Y = yi ), par definition.
Or yi = axi + b et P(Y = yi ) = P(X = xi ).Donc :
X
E(Y ) =
(axi + b)P(X = xi )
i

axi P(X = xi ) +

= a

xi P(X = xi ) + b

comme

bP(X = xi )

P(X = xi )

P(X = xi ) = 1, on a :
E(Y ) = aE(X) + b

(4.2)

Dautre part :
V(Y ) =

(yi E(yi ))2 P(Y = yi )

(axi + b aE(X) b)2 P(X = xi )

= a

(xi E(xi ))2 P(X = xi )

Do`u :
V(Y ) = a2 V(X)

(4.3)

bar-hen.net

117

4. F ONCTION D UNE VARIABLE AL EATOIRE

2.2

X est une variable a` densite


On designe toujours par f et F la densite et la fonction de repartition de X et par g et G
la densite et la fonction de repartition de Y . Deux cas sont a` envisager :
a est positif : : x 7 t = ax + b est alors une fonction continue strictement croissante,

on a : G(t) = P(Y < t) = P(aX + b < t) = P(aX < t b) = P X < tb
a

do`u
On en deduit : G(t) = F tb
a


tb
1
g(t) = f
a
a
 dt
R +
R +
E(Y ) = tg(t)dt = tf tb
a
a
On pose x = tb

t
=
ax
+
b

dt
=
adx.
a
Z +
E(Y ) =
(ax + b)f (x)dx

Z +
Z +
= a
xf (x)dx + b
f (x)dx

= aE(X) + b
on retrouve bien la relation 4.2
R +
R +
V(Y ) = (t E(Y ))2 g(t)dt = (t aE(X) b)2 f
Le meme changement de variable que precedemment donne :
Z +
V(X) =
(ax aE(X))2 f (x)dx

Z +
2
= a
(x E(X))2 f (x)dx

tb
a

 dt
a

= a V(X)
on retrouve bien la relation 4.3
a est negatif : : x 7 t = ax + b est une fonction continue strictement decroissante,

tb
=
on a : G(t) = P(Y
<
t)
=
P(aX
+
b
<
t)
=
P(aX
<
t

b)
=
P
X
>
a


tb
tb
1 P X a = 1 F a (distribution continue).
On en deduit :


1
tb
g(t) = f
, (a < 0)
a
a
 dt
R +
R +
E(Y ) = tg(t)dt = tf tb
a
a
tb
Le changement de variable (x = a t = ax + b) dt = adx donne ici :
Z +
E(Y ) =
(ax + b)f (x)dx

Z +
=
(ax + b)f (x)dx

= aE(X) + b
bar-hen.net

118

Un cas particulier : Y = aX + b

on retrouve bien la relation 4.2


Z +
V(X) =
(t E(Y ))2 g(t)dt



Z +
t b dt
2
=
(t aE(X) b) f
a
a

Z +
=
(ax aE(X))2 f (x)dx

Z +
= a2
(x E(X))2 f (x)dx

= a2 V(X)
on retrouve bien la relation 4.3
Il resulte de ces deux cas que :
sous la reserve e vidente de lexistence de E(X) et de V(X), les relations 4.2 et 4.3
sont absolument generales ;
si X est une variable aleatoire de densite f , la densite g de la variable aleatoire Y =
aX + b (a 6= 0), est donnee par :


1
tb
g(t) =
f
(4.4)
|a|
a
Cette expression rend compte des deux cas a > 0 et a < 0.
Ces deux remarques permettent denoncer les theor`emes qui suivent.
Theor`eme 4.1 Soit une variable aleatoire X dont lesperance et la variance existent.
Soit la variable aleatoire Y = aX + b (a et b reels, a 6= 0). On a :
E(Y ) = E(aX + b) = aE(X) + b
et
V(Y ) = V(aX + b) = a2 V(X)
La demonstration de ce theor`eme a e te faite lorsque X est une variable discr`ete et lorsque
X est une variable a` densite.
Theor`eme 4.2 Soit X une variable aleatoire de loi N (, 2 ).
La variable aleatoire Y = aX + b (a et b reels, a 6= 0) est de loi N (a + b, a2 2 ).
Pour demontrer ce theor`eme, il suffit dappliquer la relation 4.4.
1 x 2
Si f (x) = 1 e 2 ( ) , on a en effet :
2

tb

2

a
12
1

e
g(t) =
|a| 2
1 t(a+b) 2
1
e 2 ( a )
=
|a| 2

bar-hen.net


4. F ONCTION D UNE VARIABLE AL EATOIRE

119

Exemple 4.4 Soit X une variable aleatoire de loi B(n, p). Cette variable a e te definie
comme le nombre devenements favorables que lon peut observer sur n experiences
identiques et independantes. On sait que E(X) = np et V(X) = np(1 p).
On peut e galement definir la variable aleatoire Y = Xn qui represente alors la frequence
des e venements favorables sur les n experiences. On deduit du theor`eme 4.1 :
 
1
1
X
E(Y ) = E
= E(X) =
np = p
n
n
n
 
X
1
1
p(1 p)
V(Y ) = V
= 2 V(X) =
np(1 p) =
2
n
n
n
n
Si, de plus, les conditions sont satisfaites pour que lon puisse assimiler X a` une variable
normale,
 alors on
 peut considerer, dapr`es le theor`eme 4.2, que la variable Y suit une
p(1p)
loi N p, n
.
Lutilisation de la variable Y represente un interet certain parce que la tendance centrale
de la loi de Y est p, probabilite de levenement favorable sur une experience, et que la
dispersion de Y autour de p tend vers zero lorsque n tend vers linfini.

2.3

Variable centreevariable reduite


Definition 4.2 une variable aleatoires a` valeurs dans R, est dite centree si son esperance
est e gale a` zero. Une variable aleatoire, a` valeurs dans R, est dite reduite (on dit aussi
centree et reduite) si son esperance est e gale a` zero et sa variance e gale a` un.
` toute variable aleatoire X, desperance et decart-type , on peut associer :
A
une variable aleatoire X 0 = X
une variable aleatoire X = X

La variable aleatoire X 0 est alors centree et de variance 2 . Dapr`es le theor`eme 4.1, on


a en effet :
E(X 0 ) = E(X ) = E(X) = = 0
V(X 0 ) = V(X ) = V(X) = 2
La variable aleatoire X est alors reduite puisque :


X
1

E(X ) = E
=
E(X) = = 0




2
X
1

V(X ) = V
=
V(X) = 2 = 1
2

Si, de plus, X est de loi N (, 2 ), il resulte du theor`eme 4.2 que X 0 est de loi N (0, 2 )
et que X est de loi N (0, 1).
Le passage de la variable normale X a` la variable normale reduite, introduit au chapitre 3,
peut en fait sinterpreter comme le choix dune variable X , plus commode a` manipuler,
definie a` partir de X par la relation X = X
; au lieu de raisonner sur la valeur observee

x
x de X, on raisonne sur la valeur observee de X .
Reciproquement, si X 0 est de loi N (0, 2 ), la variable X = X 0 + est de loi N (, 2 )
et si X est de loi N (0, 1), la variable X = X + est de loi N (, 2 ) .
bar-hen.net

120

Esperance de Y = (X)

3 Esperance de Y = (X)
Soit Y = (X) une variable aleatoire fonction de la variable aleatoire X.
On pose, sous reserve de la convergence de la somme ou de lintegrale :
X
(xi )P(X = xi )
E[(X)] =
i

si X est une variable discr`ete et


Z

E[(X)] =

(x)fX (x)dx

si X est une variable de densite fX .


Si E(Y ) existe, alors on :
E(Y ) = E[(X)]
Cette propriete signifie que pour calculer lesperance de Y , il nest pas necessaire de
connatre la loi de Y : celle de X suffit.
Nous avons demontre cette propriete pour la variable Y = aX + b, ce qui correspond a`
legalite : E(Y ) = aE(X) + b dans lenonce du theor`eme 4.1.
Il est relativement facile de demontrer cette propriete, de mani`ere generale, lorsque X
est
P une variable discr`ete. Il suffit dutiliser comme definition de lesperance E(Y ) =
Y ()P() (voir chapitre 2)
En regroupant tous les termes qui conduisent a` la meme valeur yj , on retrouve la definition
classique :
X
X
X
E(Y ) =
yj
P() =
yj P(Y = yj )
j

|Y ()=yj

Mais on peut e galement e crire E(Y ) = ((X())P()), expression qui donne, en


regroupant tous les termes qui conduisent a` la meme valeur xi :
X
X
X
E(Y ) =
(xi )
P() =
(xi )P(X = xi )
i

|X()=xi

On admettra cette propriete, qui sera verifiee sur des exemple, lorsque X est une variable
a` densite.
La notation E[(X)] a dej`a e te introduites dans les chapitres precedents pour definir
les param`etres descriptifs dune distribution ; on peut maintenant en donner une autre
interpretation :
le moment dordre k de la variable X est aussi lesperance de la variable Y = X k ;
la variance de la variable X est aussi lesperance de la variable Z = (X )
Exemple 4.5 (suite de lexemple 4.1)
On a determine la loi de probabilite de la variable Z = X 2 . On a :
E(Z) =

6
3
5
2
44
0+ 1+ 4+ 9=
16
16
16
16
16
bar-hen.net

121

4. F ONCTION D UNE VARIABLE AL EATOIRE

et
E(X 2 ) =

2
3
4
4
2
44
3
(2)2 + (1)2 + (0)2 + (1)2 + (2)2 + (3)2 =
16
16
16
16
16
16
16

On a bien E(Z) = E(X 2 ), ce qui nest pas un hasard puisque






X
2
4
4
1
2
3
2
E(X ) = 0 +
+
1+
+
4+ 9=
zk P(Z = zk )
16
16 16
16 16
16
k
Exemple 4.6 (suite de lexemple 4.3)
On se propose de calculer lesperance de la variable Y = X 2 e gale au carre dune
variable normale reduite.
On peut utiliser la densite de Y que lon a dej`a determine :
Z +
Z +
t
1
t

e /2 dt
E(Y ) =
tg(t)dt =
2t t

Si on effectue le changement de variable x =


Z
E(Y ) =
0

t (do`u dx = 2dtt ), on obtient :

1
x2
2x2 e /2 dx
2t

On reconnat, dans cette expression, E(X 2 ), puisque X est de loi N (0, 1). On vient
de demontrer, sur cet exemple E(Y ) = E(X 2 ), il aurait e te plus simple decrire ceci
directement. Le calcul peut se poursuivre en integrant par parties. Il est plus rapide
de remarquer que, puisque E(X) = 0 et V(X) = 1, la relation generale V(X) =
E(X 2 ) E2 (X) permet decrire E(X 2 ) = 1.
On a donc : E(Y ) = E(X 2 ) = 1
Calculons maintenant le moment dordre 2 de Y . On a :
Z +
1
x2
2
4
x4 e /2 dx
E(Y ) = E(X ) =
2

h 3
i+
2
R +
x2
x x /2
En integrant par parties, on obtient E(Y 2 ) =
e
+ 3 12 x2 e /2 dx
2
2

Puisque limx
Do`u

x
x3 e /2

= 0 : E(Y ) = 3E(X ) = 3.

V(Y ) = E(Y 2 ) E2 (Y ) = 3 1 = 2
On vient de demontrer, et ceci est un resultat qui sera utilise ulterieurement, que pour
une variable Y qui suit une loi du chi-deux a` un degre de liberte,
E(Y ) = 1 et V(Y ) = 2

bar-hen.net

122

Exercices

4 Exercices
1. Soit X une variable aleatoire de densite de probabilite :
(
x 7 0
, si x 0
1 log xb 2
f:

1
(
)
x 7 e 2 a
, si x > 0
ax 2

o`u a R+ et b R sont deux reels donnes (loi log-normale).


Determiner la densite de probabilite de la variable Y = log X
2. Soit X une variable aleatoire de densite de probabilite :

x 7 0 , si x 0
f:
x 7 ex , si x > 0
Determiner la densite de probabilite de la variable Y = 2X+3. Calculer lesperance
et la variance de Y .
3. Soit X une variable aleatoire de densite de probabilite :

x 7 0
, si x 0
f:
2
x
x 7 xe
, si x > 0
o`u R+ .
Calculer lesperance et la variance de Y = X.
Determiner la densite de probabilite de la variable Y = X et Z = X 2 .
4. Soit V une variable aleatoire de densite de probabilite :

x 7 0
, si x 0
f:
x
x 7 e
, si x > 0
o`u R+ .
(a) Calculer lesperance et la variance de V .
(b) Determiner la densite de probabilite de la variable U = 5V . Calculer son
esperance et sa variance.
(c) Determiner la densite de probabilite de la variable W = V 2 .
(d) Determiner la densite de probabilite de la variable Z =

1
V

5. Soit X une variable aleatoire a` valeurs reelles, de fonction de repartition F , continue et strictement croissante. Soit la variable aleatoire Y = F (X). Montrer que Y
est uniformement distribuee sur [0, 1].
6. Soit X une variable aleatoire de densite de probabilite :

2
x 7 15
x , si x [1, 4]
f:
x 7 0 , si x 6 [1, 4]
Determiner la densite de probabilite de la variable Y = (X 2)2 .
bar-hen.net


4. F ONCTION D UNE VARIABLE AL EATOIRE

123

7. Des resistances sont fabriquees en serie. La resistance dun e lement choisi au hasard dans la fabrication est une variable aleatoire de distribution uniforme entre 9
et 11 ohms. Determiner la densite de probabilite de la conductance C = R1 .
8. Un generateur produit une tension de la forme V = sin t. Pour quelquun qui
vient mesurer la tension V a` un instant quelconque, la mesure est une variable
aleatoire ; determiner sa densite de probabilite.
9. On observe une population de bacteries en croissance asynchrone. Soit T lage
dune bacterie choisie au hasard. On admet que la densite de probabilite de T est :

, si t 0
t 7 0
t/
1
f:
t 7 k2 , si 0 < t

t 7 0
, si t
(a) Calculer k.
(b) Calculer la probabilite pour que lage dune bacterie choisie au hasard soit
compris entre 0 et /2.
(c) On admet que la masse dune bacterie est fonction lineaire de son a ge :
m = m0 1 + t . Calculer lesperance de la masse dune bacterie choisie
au hasard.
10. Soit X une variable aleatoire de densite de probabilite :

x 7 0 , si x 6 [0, 1]
f:
x 7 2x , si x [0, 1]
Soit la variable aleatoire Y = arctan Y
(a) Calculer lesperance et la variance de Y .
(b) Determiner la fonction de repartition, puis la densite de probabilite de Y et
verifier les resultats precedents.

11. Soit X une variable aleatoire normale reduite. Ecrire


la densite de probabilite de la
X
variable Y = 2 1. Determiner la densite de probabilite de la variable Z = X 3 .
12. La probabilite pour quun individu, issu dun certain croisement presente un phenotype
donne est e gale a` 3/4. Soit X la variable aleatoire associant a` un e chantillon de
n individus,, issus du meme croisement, la proportion des individus portant ce
phenotype. Calculer n pour que lon ait
P(0.70 < X < 0.80) 0.95
13. Soit X la variable aleatoire a` valeurs reelles de densite de probabilite :

t 7 0
, si t 0
f:
1 t/2
t 7 2 e
, si t > 0

Determiner la densite de probabilite de la variable T = X.


bar-hen.net

124

Solutions

5 Solutions
1. Soit F la fonction de repartition de X. On a : F (u) = P(X < u) =
Si u 0, F (u) = 0.
R0
Ru
Si u > 0, F (u) = f (x)dx + 0 f (x)dx = intu0 f (x)dx.
Le fonction bijective

R+ R
:
u
7 log u

Ru

f (x)dx

nest pas definie pour u 0 ; cela na pas dimportance ici puisque la variable X
ne peut pas prendre de valeur dans R .
Soit G et g la fonction de repartition et la densite de la variable aleatoire Y = log X.
On a, puisque est strictement croissante et admet, pour fonction inverse 1 , la
fonction exponentielle :
t

et

f (x)dx = F (et ) , t

G(t) = P(Y < t) = P(log t) = P(0 < X < e ) =


0

On notera que et > 0 , t.


t

Par derivation, on obtient : g(t) = e f (e ) =


Do`u la densite de Y :

12
1
et a2e
te

2
log et b
a

1 tb 2
1
g : t 7 e 2 ( a ) , t, a R+ , b R
a 2

On en conclut que Y suit une loi N (b, a2 )


2. la fonction :


:

R R
u 7 2u + 3

est une bijection, strictement croissante. On a, dautre part : FX (u) = P(X < u),
do`u :
FX (u) = 0, si u 0
Ru
FX (u) = 0 ex dx = 1 eu , si u > 0 (loi exponentielle).


On a FY (t) = P(Y < t) = P(2X + 3 < t) = P X < t3
= FX t3
2
2

Par derivation, on obtient : fY (t) = 21 fX t3
.
2
Do`u la densite (voir relation 4.4) :

t 7 0
, si t 3
fY :
t3
x 7 e 2 , si t > 3
On a dautre part (theor`eme 4.1) : E(Y ) = E(2X + 3) = 2E(X) + 3 = 5 et
V(Y ) = V(2X) = 4V(X) = 4

bar-hen.net

125

4. F ONCTION D UNE VARIABLE AL EATOIRE

3. On a
Z

E(X) =

xf (x)dx =

2 2 x

xe
0


+ 2
dx = x2 ex 0 +

2 xex dx =

2
x
En effet limx+ x2 ex = 0 et x2 ex = 0 pour x = 0, int+
dx = 1.
0 xe
De meme :
Z +
Z +


3
6
2
2 3 x
3 x + 3
+
E(X ) =
x e dx = x e
2 x2 ex dx = E(X) = 2
0
0

et donc V(X) = E(X 2 ) E2 (X) =


On en deduit (voir theor`eme 4.1) :

2
2

E(Y ) = E(X) = E(X) = 2


V(Y ) = V(X) = 2 V(X) = 2
On designera, dans lexercice par FX la fonction de repartition de X. On naura
pas besoin de son expression analytique ; il est cependant facile de montrer que :

u 7 0
, si u 0
FX :
u
u 7 1 (1 + u)e
, si u > 0
On a, t R, FY (t) = P(Y < t) = P(X < t) = P(X < t/) = FX

On en deduit la densite de Y : fY (t) = 1 fX t
On obtient finalement :

t 7 0
, si t 0
fY :
t
t 7 te , si t > 0

On constate que Y suit une loi du meme type que celle de X avec = 1.
Contrairement aux exemples precedents, la fonction : x 7 x2 nest pas bijective.
On aura cependant, t R, FZ (t) = P(Z < t) = P(X 2 < t)
Pour t 0, il est clair que (X 2 < t) = FZ (t) = 0 fZ (t) = 0

2
Pour t > 0 : P(X
<
t)
=
P(
t
<
X
<
t)
=
F
(
t)

F
(
t)
X
X

t
1
2
1

fZ (t) = 2
f
(
t)
+
f
(
t)
=
te
+
0
(
t
<
0).
t X
2 t X
2 t
On peut e ventuellement verifier que E(Z) = E(X 2 ) =

6
2

4. Reponses :
(a) E(V ) =

; V(V ) =

(b) E(U ) = 5E(V ) =

1
2

; V(U ) = 25V(V ) =

fU :

bar-hen.net

25
2

t 7 0
, si xt 0
t/5
, si t > 0
t 7 5 e

126

Solutions

(c)
(
fW :

t 7 0
, si xt 0

, si t > 0
t 7 2t e

(d)

fZ :

t 7 0
, si t 0
/t
t 7 t2 e
, si t > 0

5. On designe par G et g la fonction de repartition et la densite de probabilite de la


variable aleatoire Y = F (X). On a t : G(t) = P(Y < t) = P(F (X) < t).
Il semble, a priori, difficile daller plus loin puisquon ne connat pas la loi de X.
Pourtant nos informations ne sont pas nulles.
Considerons :

R [0, 1]
F :
x 7 F (x) = P(X < x)
Comme toutes les fonction de repartition, F (X) crot de 0 a` 1. On peut en deduire :

P(F (X) < t) = 0 si t 0
P(F (X) < t) = 1 si t > 1
Il est, dautre part, precise dans lenonce que F est continue et strictement croissante ; F admet donc une fonction inverse F 1 definie sur ]0, 1]. On a donc, pour
0 < t 1 : G(t) = P(F (X) < t) = P(X < F 1 (t)) = F (F 1 (t)) = t.
Finalement :

t 7 0 , si t 0
t 7 t , si 0 < t 1
G:
(4.5)

t 7 1 , si t > 1
et donc


g:

t 7 0 , si t 0 ou t > 1
t 7 1 , si 0 < t 1

La variable aleatoire Y = F (X) est uniformement distribuee sur [0, 1]


6. Soit F la fonction de repartition de la variable aleatoire X. On remarque que :

Z u
, si u 1
=0
1
2
= 15 (u 1) , si 1 < t 4
F (u) =
f (x)dx :

=1
, si u > 4
On designe par G et g la fonction de repartition et la densite de probabilite de la
variable aleatoire Y = (X 2)2 . La fonction :

R R+
FX :
x 7 (x 2)2
nest pas bijective. On a cependant :
bar-hen.net

127

4. F ONCTION D UNE VARIABLE AL EATOIRE

Si t 0 G(t) = P(Y < t) = 0

Si t >
0 G(t) = P(Y
< t) = P(X
2)2 < t) = P(
t
<
X

2
<
t) =

P(2 t < X < 2 + t) = FX (2 + t) FX (2 t)

Il faut discuter, en fonction de t, les expressions de FX (2 + t) et de FX (2 t),


quil faut choisir selon les e quations 4.5

2
+
t 1
, impossible

FX (2 + t) 1 <
2 + t 4 , si 0 < t 4

2+ t>4
, si t > 4

, si t 1
2 t 1
FX (2 t) 1 <
2 t 4 , si 0 < t 1

2 t>4
, impossible
On en deduit, pour t > 0 :

1
8
1
Si 0 < t < 1 , G(t) = [(2 + t)2 1] [(2 t)2 1] =
t
15
15
15

1
Si 1 t 4 , G(t) = [(2 + t)2 1] 0
15
Si t > , G(t) = 1 0
Do`u la densite :

t 7 0

4
1
t
7 15
t


g:
1
2

+
1
t

15
t

t 7 1

, si t 0
, si 0 < t 1
, si 1 < t 4
, si t > 4

7. Soient f et F la densite et la fonction de repartition de R, g et G celles de C. On


a:

t 7 0 , si t 6 [9, 11]
f:
t 7 12 , si t [9, 11]

, si u < 9
u 7 0
u 7 12 (u 9) , si 9 u 11
F :

u 7 1
, si u > 11
La fonction
 1 1

[9, 11] 11
,9
:
1
x
7 x
qui permet de definir C a` partir de R est ici continue et strictement decroissante ; il
sagit encore dune bijection.
soit G(t) = P(C < t). Il est clair que P(C < t) = 0 si t 1/11 etque P(C < t) = 1
si t > 1/9. Pour 1/11 < t 1/9, on a : P(C < t) = P R1 < t = P R > 1t =
1 F 1t .
Par derivation, on obtient la densite :

t 7 0 , si t 6 [9, 11]
g:
t 7 2t12 , si t [9, 11]
bar-hen.net

128

Solutions

8. Exercice difficile. La variable T instant


o`u on fait la mesure sera consideree

comme uniformement distribuee sur , . On tracera le graphe de sin t en
fonction de t pour retrouver les e venements e quivalents a` V < u.
1
Reponses : fV (u) = 1u
2 , si 1 < u < 1 ; fV (u) = 0 sinon.
t

9. On notera que 21 / = 2 2 / = 2e ln 2
Reponses :
ln 2
;

R /
t
2 ln2 0 2 e ln 2 dt

(a) k =
(b)

(c) E(M ) = m0 +
10.


=2 1

m0
E(T )

2
2

58.6%

m0
ln 2

(a) On peut e crire


Z

E(Y ) = E(arctan X) =

1
= x2 arctan x 0

=
[x arctan x]10
4

=
1
2
2

=
=
=
=

arctan xf (x)dx =
2x arctan xdx
0
Z 1 2

x +11
x2
dx =
dx
2
1+x
4
1 + x2
0

+
2

2x(arctan x)2 dx

0
Z 1 2
Z 1
2
 2

arctan
x

x +11
2 1
2
dx
=

2
arctan xdx
x (arctan x) 0
2x
1 + x2
16
1 + x2
0
0
Z 1
Z 1
2
2 arctan x
2
arctan xdx +
dx [x arctan x]10
2
16
1+x
0
Z 10
2

x
2[x arctan x]10 + 2
dx + [(arctan x)2 ]10
2
16
1
+
x
0
2
2
+ [log(1 + x2 )]10 +
16 2
16
2
+ log 2
8
2

E(Y ) = E((arctan X) ) =
=

(arctan x) f (x)dx =

2
2

2
+log 2 + 1 = +log 2 1
8 2
4
2
8
(b) On designe par f et F la densite et la fonction de repartition de X et par g et
G celles de Y . On a :

x 7 0 , si x 0
x 7 x2 , si 0 < x 1
F :

x 7 1 , si x > 1
V (Y ) = E(Y 2 )E2 (Y ) =

bar-hen.net

129

4. F ONCTION D UNE VARIABLE AL EATOIRE

la fonction



R 2 , 2
x 7 arctan x


:

est une fonction bijective, continue et strictement croissante. On peut donc


e crire :
G(t) = P(Y < t) = P(arctan X < t) = P(X < tan t)


do`u G(t) = F (tan t), t 2 , 2

, si t 0 en fait 2 < t 0 mais arctan


t 7 0
 X  2 impossible

2
t 7 tan t , si 0 < t 4 X( =]0, 1] Y () = 0, 4
G:

t 7 1
, si t > 4 en fait 4 < t < 2 mais arctan X < 2 est certain

g:

t 7 0
, si t 0 ou t >
2
t 7 2 tan t(1 + tan t) , si 0 < t 4

(c) Il est facile de verifier


R /
R /
R /

E(Y ) = 0 4 t2 tan t(1+tan2 t)dt = 0 4 td(tan2 t) = [t tan2 t]0 /4 0 4 tan2 tdt =


R /

0 4 (tan2 t + 1 1)dt = 4 [tan t t]0 /4 = 2 1


4
11. Reponses : Y N (1, 1/4) ; fZ (t) =

1
1
e 2
3
3 2 t2

t2

, t 6= 0.

12. Reponse : n 289


13. Reponse :
(
fT :

bar-hen.net

u 7 0
u 7

u2
ue /2

, si u 0
, si u > 0

Chapitre 5
Tests dhypoth`eses
1

Problematique
Si un experimentateur place des animaux ou des plantes dans certaines conditions particuli`eres, cest quil a certainement fait lhypoth`ese prealable que ces conditions doivent
avoir une influence sur la taille ou la vitesse de developpement, ou la forme, de ces animaux ou de ces plantes. De meme si un e cologue observe dans une region donnee un
micro climat et/ou une zone dont la pedologie ou lhydrologie diff`ere sensiblement du
reste de cette region, il sattend a` ce que cet environnement particulier ait une influence
sur la taille, la croissance, etc.. des e tres vivants qui y habitent.
Pour demontrer linfluence de lenvironnement ou des conditions cree s par lexperimentateur,
on effectue generalement des mesures sur les e tres vivants e tudies. En general on ne peut
mesurer quun nombre limite dunites experimentales.
Le principe du test statistique consiste a` supposer que ces conditions nont pas dinfluence, ce sera lhypoth`ese privilegiee (appelee H0 ), et a` voir si les mesures faites auraient pu arriver par le simple jeu du hasard. Si la probabilite dobserver de telles
mesures est trop faible on rejettera H0 au profit dune hypoth`ese alternative (appelee H1 )
qui formulera en termes precis linfluence e tudiee.
Exemple 5.1 La mediane des tailles des francais (ages de plus de 18 ans) est de 170 cm.
On aimerait savoir si cest aussi le cas parmi les e tudiants de la faculte Saint Jerome.
Pour cela cela on mesure la taille dun e chantillon de n e tudiants.

1.1

Hypoth`ese
Construire un test de lhypoth`ese nulle H0 contre lhypoth`ese alternative H1 , cest e tablir
un crit`ere de decision permettant de choisir entre lhypoth`ese H0 et H1 .
H0 hypoth`ese privilegiee
H0 est lhypoth`ese privilegiee : cest celle que lon garde si le resultat de lexperience
nest par clair. On dit que le test dhypoth`ese est conservatif car il conserve H0 sauf si

131

132

Niveau et puissance

les donnees conduisent a` la rejeter. En ce sens il y a une analogie entre un test dhypoth`ese et un proc`es : tout suspect est presume innocent et laccusation doit apporter la
preuve de sa culpabilite avant que la justice decide de le condamner. Cette preuve doit
de plus sappuyer sur des e lements materiels, comme le test qui utilise les donnees pour
rejeter lhypoth`ese. Quand on accepte H0 , on ne prouve pas quelle est vraie, on accepte
de conserver H0 parce quon a pas pu accumuler suffisamment de preuves contre elle.
Accepter H0 cest acquitter faute de preuve. Dans lexemple 5.1, on a H0 : la mediane
des tailles des e tudiants est de 170 cm.
On appelle hypoth`ese alternative, que lon note H1 , une hypoth`ese differente de H0 . On
dit que lon test H0 contre H1 .
Dans ce qui suit est un param`etre relatif a` une population, donc inconnu. Dans lexemple 5.1,
est la mediane.
Differents cas sont possibles pour le couple (H0 , H1 ) :
Hypoth`eses simples :
H0 : = 0 et H1 : = 1
Par exemple H1 : = 180cm pour lexemple 5.1
H0 simple et test bilateral
H0 : = 0 et H1 : 6= 0
Par exemple H1 : 6= 170cm pour lexemple 5.1
H0 composite et test unilateral :
H0 : 0 et H1 : > 0
H0 composite et test bilateral :
H0 : 1 2 et H1 : { > 2 } { < 1 }

Niveau et puissance
On determine la loi de la variable aleatoire detude sous H0 et sous H1 . Lensemble des
valeurs observees pour lesquelles lhypoth`ese nulle H0 est admissible forme la region
dacceptation A ou de non-rejet de H0 et les autres valeurs constituent la region de rejet

ou domaine de rejet R ou region critique. Evidemment


le type de test (unilateral ou
bilateral) affecte la forme de la region dacceptation A et de la zone de rejet R.
Le hasard de lechantillonnage peut fausser les conclusions. Quatre situations doivent
e tre envisagees :
lacceptation de lhypoth`ese nulle alors quelle est vraie ;
le rejet de lhypoth`ese nulle alors quelle est vraie ;
lacceptation de lhypoth`ese nulle alors quelle est fausse ;
le rejet de lhypoth`ese nulle alors quelle est fausse.
Dans le premier et le dernier cas, la conclusion obtenue est correcte, mais non dans les
deux cas intermediaires.
bar-hen.net

133

5. T ESTS D HYPOTH E` SES

Lerreur qui consiste a` rejeter une hypoth`ese vraie est appelee erreur de premi`ere esp`ece.
Si H0 est simple, la probabilite de rejeter a` tort H0 vaut
= PH0 (Z R)
Lerreur commise en acceptant une hypoth`ese fausse est lerreur de seconde esp`ece. Si
H1 est simple, la probabilite de rejeter a` tort H1 vaut
= PH1 (Z A)
En resume, nous avons le tableau suivant :
Realite
Decision

H0
H1

H0
H1
OK
risque de 2e` me esp`ece
risque de 1e` re esp`ece
OK

Pratiquement, on se donne une limite superieure du risque de premi`ere esp`ece, le plus


souvent 5% (significatif), 1% (tr`es significatif) ou l pour mille (hautement significatif).
Cette limite constitue aussi le niveau de signification du test et permet de definir la condition de rejet de lhypoth`ese nulle. Si lhypoth`ese est composite, on choisit le domaine de
rejet de H0 de mani`ere a` ce que = max{PH0 (Z R)} . On rejette alors lhypoth`ese
nulle au niveau de signification nominal choisi (par exemple 0.05) si (et seulement si)
le niveau de signification reel est inferieur ou e gal au niveau de signification nominal
(p = 0.003 < 0.05, rejet dH0 ). Cette attitude est bien sur conservatrice.
Le risque de premi`ere esp`ece e tant donne, on peut sefforcer de calculer le risque de
deuxi`eme esp`ece, grace a` la notion de puissance de test (P = 1 ). La puissance dun
test mesure dans un certain sens la capacite du test a` differencier la valeur dechantillonnage
de celle de la population. Plus lechantillon est grand, plus les estimateurs des param`etres
de la population a` e tudier sont precis et plus le test dhypoth`eses fonde sur ces estimateurs
devient discriminatoire. En effet, plus lechantillon est grand, plus il devient improbable
quune difference observee entre lestimateur et la valeur hypothetique soit uniquement
attribuable au hasard de lechantillonnage. On peut, au contraire penser a` juste raison
quil existe une difference reelle et donc rejeter lhypoth`ese de depart. La performance
dun test est meilleure si la taille de lechantillon est grande.
Un bon test poss`ede des risques de premi`ere et de deuxi`eme esp`ece faibles. Attention ces
risques ne sont pas independants. Cest le principe du vendeur doranges : imaginons un
vendeur qui vend des oranges avec pepins (bon marche) et des oranges sans pepins (plus
cher). Son risque est de vendre peu cher des oranges sans pepins ; alors que le risque du
consommateur est dacheter cher des oranges avec pepins.

Strategie dun test dhypoth`ese


Construire un test de lhypoth`ese nulle H0 contre lhypoth`ese alternative H1 , cest e tablir
un crit`ere de decision permettant de choisir entre lhypoth`ese H0 et H1 . Pour cela, il faut :
bar-hen.net

134

Tests non parametriques

Preciser les deux hypoth`eses H0 et H1 . Quelle est lhypoth`ese nulle ? Quelle est lhypoth`ese alternative ?

Etablir
un protocole experimental et lui associer une variable aleatoire Z dont la loi
e volue entre H0 et H1 mais dont la valeur observee z0 sera parfaitement connue apr`es
realisation de lexperience.
Determiner la loi de Z sous H0 et la loi de Z sous H1 . En deduire le type de test
(unilateral, bilateral) cest-`a-dire la position du domaine de rejet R et du domaine
dacceptation A de H0 .
Choisir le niveau du test. En deduire precisement les domaines dacceptation et de
rejet de H0 .
Tout cela e tant fait, la decision ne depend plus que de la valeur observee z0 de Z.

Tests non parametriques


Un test dhypoth`ese est dit parametrique lorsque :
la question que lon se pose au depart concerne une variable aleatoire X (eventuellement
lindicatrice dun e venement).
lhypoth`ese H0 est : X L0 (0 I) o`u L0 est une loi de type donne et 0 un
param`etre dont la valeur appartient a` I.
lhypoth`ese H1 est : X L1 (1 J) o`u L1 est une loi de type donne et 1 un
param`etre dont la valeur appartient a` J.
Cette definition assez generale signifie que lon connat les lois de la population a` un param`etre pr`es (que lon veut tester). Le cas gaussien qui est central sera traite au chapitre 9.
Dans tous les autres cas (lune au moins des trois conditions nest pas realisee), le test
est dit non-parametrique. Un test parametrique requiert un mod`ele a` fortes contraintes
(par exemple normalite des distributions, e galite des variances) pour lequel les mesures
doivent avoir e te realisees dans une e chelle au moins dintervalle. Ces hypoth`eses sont
dautant plus difficiles a` verifier que les effectifs e tudies sont plus reduits.
Un test non parametrique est un test dont le mod`ele ne precise pas les conditions que
doivent remplir les param`etres de la population dont a e te extrait lechantillon. Cependant certaines conditions dapplication doivent e tre verifiees. Les e chantillons consideres
doivent e tre aleatoires (lorsque tous les individus ont la meme probabilite de faire partie de lechantillon) et simples (tous les individus qui doivent former lechantillon sont
preleves independamment les uns des autres), et e ventuellement independants les uns
des autres. Les variables aleatoires prises en consideration sont generalement supposees
continues.
Avantages des tests non parametriques
Leur emploi se justifie lorsque les conditions dapplications des autres methodes ne sont
pas satisfaites, meme apr`es deventuelles transformation de variables.
Les probabilites des resultats de la plupart des tests non parametriques sont des probabilites exactes quelle que soit la forme de la distribution de la population dont est tire
lechantillon.
bar-hen.net

5. T ESTS D HYPOTH E` SES

135

Pour des e chantillons de taille tr`es faible jusqu`a N = 6, la seule possibilite est lutilisation dun test non parametrique, sauf si la nature exacte de la distribution de la population
est precisement connue. Ceci permet une diminution du cout ou du temps necessaire a` la
collecte des informations.
Il existe des tests non parametriques permettant de traiter des e chantillons composes a`
partir dobservations provenant de populations differentes. De telles donnees ne peuvent
e tre traitees par les tests parametriques sans faire des hypoth`eses irrealistes.
Seuls des tests non parametriques existent qui permettent le traitement de donnees qualitatives : soit exprimees en rangs ou en plus ou moins (echelle ordinale), soit nominales.
Les tests non parametriques sont plus facile a` apprendre et a` appliquer que les tests parametriques. Leur relative simplicite resulte souvent du remplacement des valeurs observees soit par des variables alternatives, indiquant lappartenance a` lune ou a` lautre
classe dobservation, soit par les rangs, cest-`a-dire les numeros dordre des valeurs observees rangees par ordre croissant. Cest ainsi que la mediane est generalement preferee
a` la moyenne, comme param`etre de position.
Desavantages des tests non parametriques
Les tests parametriques, quand leurs conditions sont remplies, sont plus puissants que les
tests non parametriques.
Un second inconvenient reside dans la difficulte a trouver la description des tests et de
leurs tables de valeurs significatives, surtout en langue francaise. Heureusement, les niveaux de significativite sont donnes directement par les logiciels statistiques courants.
On choisira les tests appropries en fonction du type de mesure, de la forme de la distribution de frequences et du nombre dobservations dont on dispose.

5
5.1

Quelques applications pratiques des methodes de statistique


non parametrique
Cas dun e chantillon isole
Des tests permettent de verifier si un e chantillon observe peut e tre considere comme extrait dune population donnee (Test dajustement). Ces tests peuvent permettre de repondre
aux questions suivantes :
Y a t-il une difference significative de localisation (tendance centrale) entre lechantillon
et la population ?
Y a t-il une difference significative entre les frequences observees et les frequences
attendues sur la base dun principe ?
Y a t-il une difference significative entre des proportions observees et des proportions
esperees ?
Est-il raisonnable de penser que cet e chantillon a e te tire dune population dune forme
particuli`ere ?
Est-il raisonnable de penser que cet e chantillon est un e chantillon dune certaine population connue ?
bar-hen.net

136

Quelques applications pratiques des methodes de statistique non parametrique

5.2 Un test dajustement : le test binomial


Il y a des populations o`u seulement deux classes sont distinguees : male et femelle ; lettre
et illettre... Dans un tel cas, toutes les observations de cette population tomberont dans
lune ou lautre classe. Pour toutes ces populations, si nous connaissons la proportion des
cas dune classe (P ), nous connaissons celle de lautre classe (1 P = Q). Ces proportions sont fixees pour une population donnee. Cependant, ces proportions exactes ne se
retrouverons pas dans un e chantillon preleve au hasard dans cette population. De telles
differences entre les valeurs observees et celles de la population sont dues au processus
dechantillonnage. Bien entendu, de faibles differences sont plus probables que de fortes
differences.
Le test binomial nous permet de dire si il est raisonnable de penser que les proportions
(ou frequences) observees dans notre e chantillon proviennent dune population ayant une
valeur donnee de P .
Methode
La loi binomiale ne depend que dun param`etre, la probabilite p de levenement favorable. La probabilite dobtenir x objets dans une categorie et N x dans lautre est
donnee par la formule :
P(X = x) =

N!
P x QN x
x!(N x)!

o`u N est le nombre dobservations ; P la proportion de cas attendus dans une categorie
et Q = 1 P la proportion de cas attendus dans lautre categorie.
Nous pouvons alors repondre a` la question suivante : quelle est la probabilite exacte
dobtenir les valeurs observees. Mais le plus souvent nous posons la question : Quelle est
la probabilite dobtenir les valeurs observees ou des valeurs encore plus extremes ? La
distribution dechantillonnage est alors
P(X x) =

x
X
j=0

N!
P j QN j
j!(N j)!

(5.1)

Exemple 5.2 Quelle est la probabilite dobtenir deux six ou moins de deux six apr`es cinq
jets dun de non pipe ?
On a N = 5 (le nombre de jets) x = 2 (le nombre de six) P = 1/6 (proportion de six
attendue) Q = 5/6
Soit p(i) la probabilite dobtenir i six ; On a
5! 1 0 5 5
P(X = 0) = 0!5!
( /6) ( /6) = 1 1 0.40 = 0.40
5! 1 1 5 4
P(X = 1) = 1!5! ( /6) ( /6) = 5 0.1666 0.4822 = 0.40
5! 1 2 5 3
( /6) ( /6) = 10 0.0277 0.578 = 0.16
P(X = 2) = 2!5!
Et donc :
P(X 2) = P(X = 0) + P(X = 1) + P(X = 2) = 0.40 + 0.40 + 0.16 = 0.96
La probabilite dobtenir sous H0 deux six ou moins lorsquun de non pipe est lance cinq
fois est p = 0.96.
bar-hen.net

137

5. T ESTS D HYPOTH E` SES

Petits e chantillons
Dans le cas dun e chantillon a` deux classes, une situation commune est celle o`u P =
1/ . Lorsque leffectif est inf
erieur a` 10, la table 11.3 donne les probabilites associees a`
2
diverses valeurs de x (la plus petite des frequences observees) pour differents effectifs
N.
Exemple 5.3 Dans une e tude des effets du stress, on enseigne a` 18 e tudiants deux methodes
differentes de faire un noeud. La moitie des sujets (choisie au hasard dans le groupe de
18) apprend dabord la methode A, puis la methode B. Lautre moitie apprend en premier la methode B, puis la methode A. Apr`es avoir subi un examen de quatre heures,
on demande a` chaque sujet de faire le noeud. Lhypoth`ese est que le stress induit une
regression, cest-`a-dire, que les sujets utiliseront la premi`ere methode apprise. Chaque
sujet est categorise suivant quil utilise la premi`ere methode apprise ou la seconde apr`es
le stress.
Hypoth`ese nulle H0 : p1 = p2 = 1/2
Il ny a pas de difference entre la probabilite dutiliser la premi`ere methode apprise (p1 )
et celle dutiliser la seconde methode apprise (p2 ), apr`es le stress.
H1 : p1 > p2 le test est donc unilateral
Le test binomial est choisi car les donnees rentrent dans deux categories discr`etes et
lechantillon est unique. Lapprentissage en premier ou second des deux methodes A et B
e tant reparti au hasard, il ny a pas de raison de penser que la premi`ere methode apprise
soit preferee a` la seconde, compte tenu de H0 , et de P = Q = 1/2.
On choisit le coefficient de securite = 0.01
La region de rejet comprend toutes les valeurs de x (nombre de sujets qui ont utilise,
apr`es le stress, la seconde methode apprise) qui sont si faibles que leur probabilite associee sous H0 est e gale ou inferieure a` = 0.01. Les petites valeurs favorisent lhypoth`ese H1 . le test est donc unilateral avec region de rejet a` gauche.
Dans cette experience les resultats obtenus apr`es le stress sont les suivants :
Methode choisie
Premi`ere apprise Deuxi`eme apprise
16
2

Total
18

La probabilite associee avec x 2 est 0.0011. Attendu que cette probabilite est inferieure
a` = 0.01, nous pouvons rejeter H0 en faveur de H1 . Nous concluons que p1 > p2 ,
cest-`a-dire, les personnes soumises a` un stress utilisent la premi`ere des deux methodes
apprises.
Lorsque N saccrot, la distribution binomiale tend vers la distribution normale. Cette
tendance rapide lorsque P est proche de 1/2 , se ralentit lorsque P est voisin de 0 ou
de 1. Donc, plus la disparite entre P et Q est importante, plus lechantillon devra e tre
important pour que lapproximation soit utile.

bar-hen.net

138

Quelques applications pratiques des methodes de statistique non parametrique

5.3 Test des signes


Soit une variable aleatoire T , de distribution continue. On veut tester H0 : la mediane de
T vaut a contre H1 : la mediane de T est differente de a (superieure ou inferieure)..
Si on consid`ere la variable T a, les hypoth`eses deviennent :
H0 : P(T a 0) = p =

1
1
, H1 : P(T a 0) = p 6=
2
2

Le test du signe est aussi utilise dans le cas des observations (X, Y ) appariees. On
consid`ere la variable T = X Y et on teste H0 : la mediane de T vaut 0 contre
H1 : la mediane de T est differente de 0 (positive ou negative).
Lhypoth`ese nulle peut secrire
H0 : P(T 0) = P(T 0) = 1/2
Lorsque lhypoth`ese nulle est vraie et pour N paires dobservations, le nombre de differences
positives (ou negatives) est une variable binomiale de param`etres P = Q = 1/2 et N . Le
test permet de comparer, grace a` cette distribution, le nombre observe de signes plus
(ou moins) et le nombre attendu N/2. Quand certaines differences sont nulles, les paires
dobservations correspondantes sont e cartees de lanalyse et la valeur de N est reduite en
consequence.
Lorsque N < 100, la table 11.2 donne en fonction de N et du niveau , le plus grand
entier k, tel que P(T k) pour un test unilateral ou tel que 2P(T k) pour
un test bilateral.
Le test des signes peut e tre unilateral lorsque lon predit quel signe + ou sera le
plus frequent ou bilateral lorsque les frequences des deux signes seront simplement
differentes.
Exemple 5.4
1. Vingt paires sont observees ; 16 presentent une difference positive et les 4 autres une
differences negative. Donc N = 20 et k = 16.
Si H1 predit que les signes + sont les plus frequents, on observera moins de valeurs
negatives sous H1 : le test est unilateral et la region de rejet de H0 est a` droite. La
Table 11.2 rev`ele que le domaine de rejet de H0 , au seuil 1% est k = {15, 16, 17, 18, 19, 20} ;
on peut aussi dire que le domaine dacceptation est k = {0, 1, . . . , 13, 14} .
Si H1 predit simplement que la difference entre les frequences des deux signes est differente
(test bilateral), la Table 11.2 rev`ele que le domaine de rejet de H0 , au seuil 1% est
k = {0, 1, 2, 3, 17, 18, 19, 20}
2. Douze arbres sont mesures alors quils sont debout, par une mesure trigonometrique.
Puis les memes arbres sont mesures au sol, apr`es abattage. La premi`ere methode donnet-elle des resultats significativement trop faibles ou trop e leves ?
H0 : Il ny a pas de differences entre les mesures obtenues par la premi`ere et la seconde
methode ;
bar-hen.net

139

5. T ESTS D HYPOTH E` SES

H1 : il y a une difference significative, au seuil = 0.05.


Les hauteurs obtenues (en m`etres) sont les suivantes :
Arbres plantes Arbres abattus Differences
20.4
21.7
-1.3
25.4
26.3
-0.9
25.6
26.8
-1.2
25.6
28.1
-2.5
26.6
26.2
0.4
28.6
27.3
1.3
28.7
29.5
-0.8
29.0
32.0
-3.0
29.8
30.9
-1.1
30.5
32.3
-1.8
30.9
32.3
-1.4
31.1
31.7
-0.6
N = 12 ; nombre de differences positives : k = 2.
Le but e tant de comparer les deux methodes de mesure, il y a autant de chances davoir de
grandes valeurs que de petites valeurs sous H1 . Le test est donc bilateral. La table 11.2
rev`ele que lhypoth`ese didentite des resultats obtenus par les deux methodes de mesure
doit e tre rejetee au seuil de signification 0.05.
Lorsque N > 90, on peut utiliser lapproximation normale de la loi binomiale en faisant
intervenir une correction de continuite. Il suffit de calculer la valeur
z=

(x 0.5) 1/2N

1
N
2

(5.2)

o`u x + 0.5 est utilise lorsque x < 1/2N et x 0.5 lorsque x > 1/2N . La signification dun
tel z peut e tre determinee par reference a` la table de la loi normale.
Exemple 5.5
1. Si lon reprend lexemple de comparaison des mesures des arbres, lapproximation normale donnerait :
3.5
(2 + 0.5) 6

z=
=
= 2.02
1.7320508
0.5 12
La table 1 rev`ele que pour z = 2.02, la probabilite bilaterale associee est (1 0.97831)
2 = 0.04438. Cette valeur conduirait a` rejeter lhypoth`ese nulle au seuil 0.05. Bien que
les e chantillons ne contiennent chacun que douze individus, lapproximation est dej`a tr`es
satisfaisante car la valeur exacte est p = 0.038.
2. Supposons quun chercheur veuille determiner si la vision dun film sur la delinquance
juvenile change les opinions des membres dune communaute sur la severite des sanctions a` donner a` des delinquants juveniles. Il extrait un e chantillon aleatoire de 100
bar-hen.net

140

Quelques applications pratiques des methodes de statistique non parametrique

adultes de la communaute. Chaque sujet sera son propre controle. Il leur demande
de prendre position sur la severite plus ou moins grande des punitions a` infliger aux
delinquants juveniles. Il leur presente ensuite le film et reit`ere sa question apr`es.
H0 : le film na pas deffet sur lopinion des sujets ;
H1 : le film a un effet systematique.
Le test des signes est choisi pour cette e tude portant sur deux groupes apparies et dont les
mesures sont realisees dans lechelle ordinale. Les differences pourront e tre representees
par des plus ou des moins.
Soit = 0.01 ; N = le nombre de sujets qui changent dopinion, quel quen soit le sens.
N > 90 donc z est calcule avec la formule 5.2 et les tables de la loi normale donnent la
probabilite associee aux valeurs aussi extremes que le z obtenu.
Comme H1 ne predit pas la direction des differences, la region de rejet est bilaterale.
Les resultats de cette e tude fictive sont les suivants :

Plus
Opinion apr`es le film Moins

Opinion avant le film


Moins
Plus
59
7
8
26

Ces donnees montrent que 15 adultes (8 + 7) nont pas e te affectes par la vision du film
et 85 lont e te. Si le film na pas deffet systematique, nous nous attendrions a` ce que a`
peu pr`es la moitie de ceux qui ont modifie leur jugement entre avant et apr`es a change de
plus a` moins et a` peu pr`es la moitie a change de moins a` plus. Soit 42.5 sujets auraient
modifie leur jugement dans un sens ou dans lautre.
x = 26 ; N = 85 donc x < 1/2N

z=

16
(26 + 0.5) 42.5

=
= 3.47
4.609772
0.5 85

Au seuil 1%, nous pouvons rejeter lhypoth`ese nulle. Nous pouvons conclure, dans cette
e tude fictive, que la vision du film a eut un effet significatif sur lopinion des adultes
concernant la severite des peines a` infliger aux delinquants juveniles.

5.4

Test des rangs applique au cas dechantillons apparies (Wilcoxon)


Le test precedent nutilise que linformation sur la direction des differences entre paires.
Si nous pouvons prendre en compte en plus la grandeur des differences, un test plus
puissant peut e tre utilise. Le test de Wilcoxon donne plus de poids a` une paire qui montre
une large difference entre les deux conditions qu`a une paire ayant une faible difference.
Cela implique que lon puisse dire quel membre dune paire est plus grand que lautre
(donner le signe de la difference), mais aussi que lon puisse ranger les differences en
ordre croissant.
bar-hen.net

5. T ESTS D HYPOTH E` SES

141

Methode
di = difference entre chaque paire, representant la difference entre les scores apparies
obtenus lors des deux traitements. Chaque paire a un di .
Ranger tous les di sans tenir compte de leur signe. Dans ce cas, lorsque lon range
les di , un di de 1 est affecte dun rang inferieur a` celui dun di de 2 ou +2. Puis
reaffecter a` chaque rang le signe de la difference.
Si les traitements A et B sont e quivalents, donc si H0 est vraie, la somme des rangs
ayant un signe positif et celle des rangs ayant un signe negatif devraient e tre a` peu pr`es
e gales. Mais si la somme des rangs de signes positifs est tr`es differente de celle des
rangs de signes negatifs, nous en deduirons que le traitement A diff`ere du traitement
B, et rejetterons lhypoth`ese nulle. Donc, il y a rejet dH0 que la somme des rangs de
signe negatif ou que celle des rangs de signe positif soit faible.
Il est possible que les deux scores dune quelconque paire soient e gaux. Il ny a pas
de difference observee entre les deux traitements pour cette paire (d = 0). De telles
paires sont abandonnees. N est alors e gal au nombre de paires dont la difference entre
les traitements nest pas nulle. Mais deux ou plus des differences observees entre paires
peuvent e tre e gales entre elles. On donne alors le meme rang a` ces valeurs liees. Le
rang affecte est la moyenne des rangs quauraient eu les diverses valeurs si elles avaient
differe. Ainsi, trois des paires observees presentent les differences suivantes : 1, 1 et
+1. Chaque paire aura le rang 2, car 1+2+3
= 2. La difference suivante aura alors le rang
3
4, puisque les rangs 1, 2, et 3 ont dej`a e te utilises.
Petits e chantillons
T = la somme des rangs du signe observe le moins frequent. La table 11.16 donne
les valeurs critiques de T et leurs niveaux de signification associes pour N < 25. Si
le T observe est e gal ou inferieur a` la valeur donnee dans la table pour un niveau de
signification et pour le nombre de differences non nulles N , lhypoth`ese nulle peut e tre
rejetee a` ce niveau de signification.
Exemple 5.6 Un psychologue de lenfance veut tester leffet de lassistance a` lecole
maternelle sur la comprehension sociale des enfants. Il estime cette comprehension a`
partir des reponses que les enfants donnent a` une serie de questions portant sur des
images representant diverses situations sociales. Chaque enfant obtient ainsi un score
compris entre 0 et 100. Le psychologue ne peut pas affirmer que les differences observees
entre scores sont numeriquement exactes (il ne peut pas dire quun score de 60 est le
double dun score de 30, ni que la difference entre 60 et 40 est exactement le double
de la difference entre 40 et 30). Cependant, il pense que les scores sont suffisamment
precis pour quil puisse les ranger selon leur valeur absolue. Pour tester leffet de lassistance a` lecole maternelle sur la comprehension sociale des enfants, il utilise 8 paires
de jumeaux. Lun des jumeaux est envoye a` lecole, alors que lautre reste a` la maison
pendant un trimestre. Laffectation se faisant au hasard. A la fin du trimestre, il estime la
comprehension sociale de chacun des enfants.
Lhypoth`ese nulle : il ny pas de difference entre la comprehension sociale des enfants
restes a` la maison et celle des enfants ayant suivi lecole.
bar-hen.net

142

Quelques applications pratiques des methodes de statistique non parametrique

Les resultats sont donnes dans le tableau ci-dessous.


Paires
a
b
c
d
e
f
g
h

Score enfants
scolarises
82
69
73
43
58
56
76
65

Score enfants d Rang de d


Non scolarise
63
19
7
42
27
8
74
1
1
37
6
4
51
7
5
43
13
6
80
4
3
62
3
2

Rang avec le signe


le frequent

3
T =4

La table 11.16 montre que pour N = 8, un T = 4 nous permet de rejeter lhypoth`ese


nulle au seuil 0.05 pour un test bilateral. Par consequent, nous conclurions, dans cette
e tude fictive, que lexperience de lecole affecte la comprehension sociale des enfants.
Ces donnees sont aussi traitables par le test des signes. Dans ce cas, x = 2 et N = 8, la
table 11.2 montre que nous ne pourrions pas rejeter H0 au seuil 0.05.
Grands e chantillons
Lorsque N est superieur a` 25, il peut e tre demontre que la somme des rangs T est pratiquement normale et que lon peut calculer :
T
z=p

N (N +1)/
4

N(N+1)(2N+1)/
24

(5.3)

et se referer a` aux tables de la loi normale


Pour montrer la precision de lapproximation, nous pouvons traiter les donnees precedentes
N = 8, T = 4, dans ce cas z = 1.96
Pour z = 1.96, p = 0.05, cest-`a-dire la meme probabilite quen utilisant la table des
valeurs critiques de T .

5.5

Test des rangs applique au cas des e chantillons independants (Mann-Whitney)


On consid`ere un premier ensemble (X1 , X2 , . . . , Xn ) de n variables aleatoires independantes
et de meme loi LX (on dit quil sagit dun n-echantillon). On consid`ere un deuxi`eme ensemble (Y1 , Y2 , . . . , Yp ), independant du precedent, de p variables aleatoires independantes
et de meme loi LY .
On choisit les notations pour que n p.
On veut tester :
H0 : les variables X et Y ont meme loi (LX = LY )
contre

bar-hen.net

143

5. T ESTS D HYPOTH E` SES

H1 : la loi LX est plus e talee a` droite ou a` gauche ou des deux cotes par rapport a` la loi
de LY .
On envisage le classement des n + p observations par valeurs croissantes : si lon dispose
dun groupe experimental de 3 cas (p) et dun groupe controle de 4 cas (n) et que les
observations sont les suivantes :
Observations E
Observations C

9
6

11
8

15
10

13

Nous rangeons les observations en ordre croissant en conservant lidentite de chacune


dentre-elles.
6
C

8
C

9
E

10
C

11
E

13
C

15
E

Maintenant considerons le groupe E et calculons le nombre dobservations C qui prec`edent


chacune de celle du groupe E. Pour lobservation 9 de E, deux observations de C prec`edent ;
pour lobservation 11 de E, trois C prec`edent ; pour lobservation 15 de E, quatre C
prec`edent. Donc U = 2 + 3 + 4 = 9.
Le principe du test consiste a` rejeter lhypoth`ese didentite des deux distributions lorsque
la valeur observee U , secarte trop de la valeur attendue correspondante. Pour des e chantillons
tr`es petits (3 < n < 8), on dispose de tables qui donnent la probabilite exacte dobtenir
tout U aussi extreme que celui qui est observe . Il suffit alors de connatre p (la taille
du plus petit e chantillon), n et U et de se reporter a` la table 11.15 pour la valeur de
lechantillon n. Les probabilites donnees dans ces tables sont unilaterales. Pour un test
bilateral, il faut doubler la valeur de la table.
Dans notre exemple : p = 3, n = 4, U = 9, nous consultons la table 11.15 pour n = 4,
mais la valeur observee de U napparat pas dans la table. Par contre, si nous avions
calcule le nombre dobservations E qui prec`edent celle du groupe C, le U obtenu serait
e gal a` 0 + 0 + 1 + 2 = 3. Cette valeur se trouve dans la table. Il est toujours possible de
rechercher le plus petit U observe par la formule
U = np U 0

(5.4)

La probabilite unilaterale dobtenir un U 3 est p = 0.200. Lorsque la taille de n


et p augmentent la methode de comptage decrite devient rapidement inutilisable et une
methode alternative rend ce calcul plus aise.
U = np +

n(n + 1)
R1
2

(5.5)

ou de facon e quivalente
p(p + 1)
R2
(5.6)
2
o`u R1 = somme des rangs assignes a` lechantillon le plus petit (n) et R2 = somme des
rangs assignes a` lautre e chantillon.
U = np +

bar-hen.net

144

Quelques applications pratiques des methodes de statistique non parametrique

Exemple 5.7 Cinq rats sont entranes a` imiter un rat leader dans un labyrinthe en T,
pour atteindre une source de nourriture. Puis ces rats sont ensuite transferes dans une
situation o`u par imitation dun rat leader, ils apprennent a` e viter un choc e lectrique. Leur
comportement dans cette situation est compare a` celui de rats nayant pas e te entranes a`
suivre un leader. La comparaison se fait en terme de nombre dessais necessaire a` chaque
rat pour obtenir 10 reponses devitement lors de 10 essais. On fait lhypoth`ese que les
5 rats prealablement conditionnes a` imiter un congen`ere reussiront plus rapidement que
les autres a` e viter les chocs.
Soit = 0.05 ; n = 4 rats temoins et p = 5 rats experimentaux. Les resultats sont les
suivants :
Exp
78
64
75
45
82

Rang
Temoins
Rang
7
110
9
4
70
5
6
53
3
1
51
2
8
R2 = 26
R1 = 19

donc en appliquant la formule 5.6, nous avons U = 4 5 + 5(5+1)


26 = 9
2
La probabilite dobtenir un U 9 dans ces conditions est p = 0.452 (Table 11.15,
p = 5).
Les donnees ne supportent pas lhypoth`ese selon laquelle un entranement a` limitation
prealable est generalise a` dautres situations.

Echantillons
dont n2 est compris entre 9 et 20
La table 11.15 nest plus utilisable lorsque p devient superieur a` 8. Mais on peut alors
faire usage de la table 11.13pour les e chantillons dont la taille p est comprise entre 9 et
20 et n 20. Cette table 11.13 donne les valeurs critiques de U a` differents niveaux de
signification. Ainsi, lorsque la valeur du U observe est inferieur ou e gale a` celle de la
table, H0 peut e tre rejetee au niveau de signification correspondant.
Grands e chantillons (p > 20)
Quand la taille de n et de p augmente, la distribution de U sapproche de la distribution
normale. Lapproximation normale se calcule de la facon suivante :
U
z=q

np
2

(5.7)

np(n+p1)
12

Exemple 5.8 Dans des societes humaines a` culture non e crite, les ethnologues peuvent
classer ces societes en fonction du degre danxiete presente par les enfants a` la suite
de la socialisation (ce classement va de 6 a` 17). Il est aussi possible de distinguer deux
groupes suivant que ces societes disposent dexplications orales de la maladie ou non.

bar-hen.net

145

5. T ESTS D HYPOTH E` SES

Explic. absente
Lapp
Chamorro
Samoan
Arapesh
Balinese
Hopi
Tanala
Paiute
Chenchu
Teton
Flathead
Papago
Venda
Warrau
Wogeo
Ontong-Javanese

Estim. anxiete
13
12
12
10
10
10
10
9
8
8
7
7
7
7
7
6

Rang
Explic. presente
29.5
Marquesan
24.5
Dobuan
24.5
Baiga
16
Kwoma
16
Thonga
16
Alorese
16
Chagga
12
Navaho
9.5
Dahomean
9.5
Lesu
5
Masai
5
Lepcha
5
Maori
5
Pukapukan
5
Trobriander
1.5
Kwakiutl
R1 = 200
Manus
Chiricahua
Comanche
Siriono
Bena
Slave
Kurtachi

Estim. anxiete
17
16
15
15
15
14
14
14
13
13
13
12
12
12
12
11
11
10
10
10
8
8
6

Rang
39
38
36
36
36
33
33
33
29.5
29.5
29.5
24.5
23.5
24.5
24.5
20.5
20.5
16
16
16
9.5
9.5
1.5
R2 = 580

Noter que les valeurs danxiete qui sont ex-aequo, o`u quelles se presentent, sont affectees dun rang e gal a` la moyenne des rangs revenant normalement a` ces differentes
valeurs.
Nous calculons la valeur de U par la formule 5.5 : U = 16 23 + 16(16+1)
200 = 304.
2
Nous substituons la valeur de U dans la formule 5.7 pour calculer
z=q

304

1623
2

= 3.43

1623(16+23+1)
12

La reference a` la table de la loi normale rev`ele que z e gal ou superieur a` 3,.43 a une
probabilite unilaterale de p < 0.0003. Comme ce p est inferieur a` = 0.01, nous
pouvons rejeter H0 . Nous concluons que les societes a` explications orales de la maladie
ont une socialisation de lanxiete superieure aux autres societes.
Probl`eme des ex-aequo
Lorsque deux ou plus dobservations du meme groupe ont des valeurs e gales, la valeur
de U nest pas affectee. Par contre, si des valeurs identiques se presentent dans les deux
e chantillons, la valeur du U est affectee. Bien que cet effet soit souvent negligeable,
bar-hen.net

146

Quelques applications pratiques des methodes de statistique non parametrique

une correction pour les ex-aequo existe. La formule corrigee pour les ex-aequo est la
suivante :
N np
2
(5.8)
z=q

np
N 3 N

T
N (N 1)
12
3

o`u N = n + p et T = t 12t ; t est le nombre dex-aequo pour un rang donne.


Pour les donnees precedentes n + p = 16 + 23 = 39 = N , nous observons les ex-aequo
suivants :
2 pour 6 ; 5 pour 7 ; 4 pour 8 ; 7 pour 10 ; 2 pour 11 ; 6 pour 12 ; 4 pour 13 ; 3 pour 14 ; 3
pour 15.
T = 0.5 + 10.0 + 5.0 + 28.0 + 0.5 + 17.5 + 5.0 + 2.0 + 2.0 = 70.5
Lutilisation de ces valeurs dans la formule 5.8 donne :
z=q

304
1623
39(391)

1623
2

393 39
12

 = 3.45
70.5

Cet exemple confirme que les ex-aequo ont un effet negligeable sur la valeur du z. Aussi
la correction peut netre faite que lorsque le nombre dex-aequo est tr`es important o`u
lorsque la valeur du z obtenue sans correction est voisine de la signification au seuil
choisi.

bar-hen.net

147

5. T ESTS D HYPOTH E` SES

6 Exercices
1. Un directeur de laboratoire pharmaceutique refuse la mise en fabrication dun nouveau vaccin propose par un des chercheurs du laboratoire. Il invoque pour cela
les resultats statistiques peu concluants obtenus suite aux tests : le vaccin propose
nest pas significativement plus efficace que celui utilise actuellement. Les frais
supplementaires entranes pour le produire ne sont donc pas justifies.
(a) Soient H0 et H1 les hypoth`eses possible :
H0 : le vaccin propose nest pas plus efficace que celui dej`a en production ;
H1 : le vaccin propose est plus efficace que celui dej`a en production.
Quels sont les deux types derreurs que le directeur pourrait commettre relativement a` ces deux hypoth`eses ?
(b) En prenant la decision de ne pas mettre en fabrication le vaccin propose,
lequel des deux types derreur le directeur a-t-il tente de controler ?
2. Soit une experience E a` laquelle est associee une variable aleatoire Z de fonction
de repartition continue et strictement croissante. On realise quatorze experiences
independantes et identiques a` E qui donnent les resultats suivant :
4.65
4.85

4.86
5.28

4.40
5.75

3.20
5.35

5.17
6.33

4.60
2.69

4.18
3.95

Peut-on accepter lhypoth`ese : la mediane est e gale a` 5 ?


` une experience E est associee une variable aleatoire X de fonction de repartition
3. A
continue et strictement croissante. Construire, au niveau 5%, un test de lhypoth`ese
H0 : la mediane de X est nulle. contre lhypoth`ese H1 : la mediane de X est
negative, a` partir de n experiences independantes et identiques a` E,
(a) lorsque n = 14 ;
(b) lorsque n = 196.
4. Soit T le resultat possible dune experience aleatoire E. T est une variable aleatoire
a` densite.
Soit {X1 , X2 , . . . , Xn } un ensemble de n variables aleatoires independantes et de
meme loi que T . Cet ensemble represente les resultats possibles dune suite finie
de n experiences independantes et identiques a` E.
Les quatorze premi`eres experiences ont donne les resultats suivants :
-0.35
+0.35

-0.15
+0.17

-0.14
+1.33

+0.28 -0.60
-0.40 -2.31

+0.75 -1.80
-0.82 -1.05

Peut-on accepter lhypoth`ese : la densite de T est symetrique par rapport a` zero ?


5. Pour une maladie donnee, les traitements habituels donnent au malade une chance
sur deux de guerison. Un nouveau traitement est applique a` 11 malades. Construire
un test permettant de decider si le nouveau traitement est plus efficace que les
` votre avis, quelle critique peut-on faire a` ce test ?
anciens. A
bar-hen.net

148

Exercices

6. On designe par p la probabilite dobserver un phenotype donne sur un individu issu


dun certain croisement.
9
9
Pour tester lhypoth`ese p = 16
contre lhypoth`ese p = 15
, on proc`ede ainsi : on
observe 2400 individus issus du croisement en question ; si le nombre dindividus
presentant le phenotype est inferieur ou e gal a` 1395, on choisit 9/16, dans le cas
contraire, on choisit 9/15. Justifier le principe de ce test ; calculer son niveau et sa
puissance.
7. On soupconne que les conditions de travail, dans une entreprise donnee, entranent
une e levation progressive du taux de glucose dans le sang. Le tableau ci-dessous
donne, pour un groupe de quatorze employes, les valeurs de ce taux (en g/l) observees a` lembauche (X) et apr`es six mois de travail (Y ).
Employe
Taux X
Taux Y

A
0.88
1.10

B
0.85
0.84

C
0.94
1.02

D
0.96
1.06

E
1.19
1.07

F
0.96
1.16

G
0.92
0.88

H
0.90
1.18

I
0.76
0.89

J
0.94
1.10

K
1.05
0.96

L
1.01
1.16

M
0.96
1.19

N
0.94
0.89

Que peut-on conclure ?


On presentera deux interpretations differentes en precisant dans les deux cas :
les hypoth`eses testees et la variable choisie ;
la construction du test ;
le niveau exact du test.
8. On a mesure sur Dunaliella Marina, la quantite dazote proteique par cellule, a` la
meme date et dans des conditions experimentales identiques, sur une culture temoin
et sur une culture prealablement irradiee. On pense que lirradiation favorise un
developpement anormal des cellules. Interpreter les resultats (y 104 )
Culture temoin : 1.65 ; 2.00 ; 1.69 ; 2.20 ; 2.13 ; 1.66 ; 2.30 ; 1.87 ; 1.74 ; 1.97
Culture irradiee : 2.29 ; 2.57 ; 2.66 ; 2.45 ; 2.97 ; 2.27 ; 1.76 ; 2.74 ; 2.36
9. Les apiculteurs du Texas sinqui`etent de la progression des abeilles africaines (killer
bees), plus agressives mais moins productives que les abeilles domestiques. Les
pouvoirs publics sont prets a` donner des fonds pour combattre ce phenom`ene si
on peut demontrer que la proportion dabeilles africaines a augmente de mani`ere
significative ces derni`eres annees.
Les donnees sont recoltees a` laide de pi`eges repartis sur le territoire texan. Des
specialistes identifient les abeilles capturees et les denombrent, ce qui permet dassocier a` chaque pi`ege la proportion dabeilles africaines que lon a observe. Deux
series de donnees ont ainsi e te obtenues ; lune en 1980, lautre en 1990.
Pi`ege
1
2
3
4
5
6
7
8
9
% en 1980 0.330 0.146 0.518 0.339 0.693 0.249 0.438 0.695 0.135
% en 1990 0.360 0.177 0.524 0.447 0.140 0.392 0.534 0.263 0.157
En labsence de toute information sur la mani`ere dont on a reparti les pi`eges en
1980 et en 1990, que peut-on conclure, au niveau 5%, avec un test sur la somme
des rangs ? Pensez-vous que ce test soit applicable ?
En fait, les pi`eges ont e te localises aux memes endroits en 1980 et 1990 ? Que
peut-on conclure avec un test du signe, au niveau 5% puis au niveau 5.5% ?
bar-hen.net

10
0.388
0.566

5. T ESTS D HYPOTH E` SES

149

10. On desire savoir si une certaine variete de ble a, dans une region A, un rendement
superieur a` celui quelle a dans une region B. Pour cela, on dispose de resultats,
exprimes en quintaux par hectare, obtenus sur seize parcelles differentes et ainsi
repartis :
Region A 48.0 48.2 50.3 53.5 54.6 56.4 57.8 58.5 60.5
Region B 44.2 46.3 48.3 48.5 50.5 51.2 55.4
La reponse sappuiera sur un test construit au niveau 2.5%, en labsence de toute
hypoth`ese sur le type de loi suivie par le rendement dune parcelle.

bar-hen.net

150

Solutions

7 Solutions
1.
2. On fait un test du signe.
On note Z1 , . . . , Z14 les resultats des 14 experiences. Les Zi sont de meme loi que
Z.
On teste :
H0 : la mediane de Z est 5 : P(Z 5) = 1/2
contre H1 : la mediane de Z est differente de 5 : P(Z 5) 6= 1/2
On utilise la variable V : nombre de fois o`u Zi 5 parmi les 14 valeurs.
sous H0 , Z B(14, 21 ).
Sous H1 , Z B(14, p).
Donc, sous H1 , V prend des valeurs plus grandes ou plus petites que sous H0 . Dans
la table 11.2, au niveau 5%, on rejette H0 si V 2 ou V 12, la region de rejet
est donc RH0 = {0, 1, 2} {12, 13, 14}.
Parmi les 14 valeurs observees ici, 5 sont au dessus de 5 : v0 = 5 6 RH0 . Donc on
ne rejette pas H0 : la mediane de Z est 5.
3. On va traduire H0 et H1 sous les formes e quivalentes :
H0 : P(X 0) = 12
H1 : P(X 0) < 12
Aux n experiences, on associe la variable Z = le nombre de valeurs positives de X
que lon peut observer. Il est clair que :
sous H0 , Z B(n, 21 ).
Sous H1 , Z B(n, p < 12 ).
On construira donc, a` partir de Z un test unilateral avec domaine de rejet de H0 a`
gauche. Il sagit dun test du signe.
Si n = 14, au niveau = 5%, on peut separer lensemble des observables (table
du signe) :
Domaine de rejet de H0 : {0, 1, 2, 3}, cest-`a-dire domaine dacceptation de H0 :
{4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14}
Donc si on observe z {0, 1, 2, 3} on choisit H0 , et,
si on observe z {4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14} on choisit H1
Si n = 196, on peut considerer que, sous H0 , Z N (98, 49). (On note que
98 > 10). Pour la variable Z , de loi N (0, 1), cest la valeur 1.645 qui separe
le domaine de rejet du domaine dacceptation de H
0.
Pour la variable Z, ce sera la valeur 98 1.645 49 = 86.485
Do`u un test, au niveau de 5% : si on observe une valeur z 86, on rejette H0
et si on observe z 87, on conserve H0 .
On peut verifier que le niveau de ce test est tr`es proche de 5% car il correspond,
avec la correction de continuite a` la valeur z = 86.598
1.643
7
4. On va tester lhypoth`ese H0 : la loi de T est symetrique par rapport a` zero contre
lhypoth`ese H1 : la loi de T nest pas symetrique par rapport a` zero.
bar-hen.net

151

5. T ESTS D HYPOTH E` SES

Pour cela on classe les 14 valeurs Xi par valeur absolue croissante et on consid`ere
la variable aleatoire U1 representant la somme des rangs des valeurs positives que
lon est susceptible dobserver.
Sous H0 , la loi de U1 est en cloche symetrique sur {0, 1, 2, . . . , 104, 105}.
Sous H1 , la loi de U1 se deforme vers la droite ou la gauche de {0, 1, 2, . . . , 104, 105}.
On construit un test bilateral.
An niveau 5%, le domaine dacceptation de H0 est lensemble des entiers : {22, 23, . . . , 82, 83}
(test signe et rang).
Les observations rangees par valeur absolue croissante :
Rang
valeurs

1
0.14

2
0.15

3
+0.17

4
+0.28

5
0.35

6
+0.35

7
0.40

8
0.60

9
+0.75

10
0.82

11
1.05

12
+1.33

13
1.80

conduisent a` la valeur u1 = 33.5 (deux ex-aequo)


On accepte donc H0 (cela ne change rien si on choisit u1 = 33 ou u1 = 34).
5. Soit p la probabilite de guerison dun malade avec le nouveau traitement.
On veut tester :
H0 : p =

1
2

(pas de changement)

1
2

(amelioration)

contre
H1 : p >

Pour cela on choisit la statistique X = nombre de guerisons que lon peut observer
sur 11 malades traites.
Sous H0 : X B(11, 1/2) (loi en cloche symetrique. Sous H1 , le mode est deplace
a` droite. On a donc un test unilateral avec domaine de rejet de H0 a` droite.
Au niveau 5% (voir table 11.2)
Domaine de rejet de H0 : {9, 10, 11}
Domaine dacceptation de H0 : {0, 1, 2, . . . , 7, 8}
Le calcul exact de donne = 1+11+55
3.27%.
2048
Critique : compte tenu du faible nombre dessais (11), la courbe de puissance du
test, representative de (p) = P(X 9), ne va pas crotre tr`es vite (p > 12 ). Seules
les ameliorations (p 0.9) seront detectees a` coup sur par u tel test.
6. Soit X la variable aleatoire qui represente le nombre de porteurs de phenotype que
lon peut observer sur 2400 individus.

9
Sous H0 : X B 2400, 16

9
Sous H1 : X B 2400, 15
En fait, compte tenu de la taille de lechantillon, on peut considerer que lapproximation de la loi binomiale par une loi normale est excellente (2400 9/16 > 1000)
donc :
sous H0 : X N (1350, 24.302 )
sous H1 : X N (1440, 242 )
bar-hen.net

14
2.31

152

Solutions

Les deux distributions sont bien separees.


Il est clair que lon est amene a` construire un test unilateral avec domaine de rejet
de H0 a` droite. La valeur 1395, situee entre les deux modes peut parfaitement e tre
choisie pour separer le domaine dacceptation de H0 du domaine de rejet de H0 .
Est-ce un bon test ? Calculons son niveau et sa puissance .


1395 1350

= PH0 (X 1395) = P X
= P(X 1.852) 3.2%
24.3


1395 1440

= PH1 (X 1395) = P X
= P(X 1.875) 96.96%
24
Il sagit dun tr`es bon test dont les risques de premi`ere et de deuxi`eme esp`ece sont
pratiquement e gaux et inferieurs a` 5%
7.
(a) On va tester :
H0 : la mediane de Y X vaut zero P(Y X 0) =

1
2

contre
H1 : la mediane de Y X est positive P(Y X 0) >

1
2

Pour cela, on utilise le test du signe.


Soit V la variable aleatoire qui represente le nombre decarts (Y X) positifs
que lon peut observer sur 14 individus.
V () = {0, 1, 2, 3, . . . , 8, 9, 10, 11, 12, 13, 14}

Sous H0 : V B 14, 12 , distribution en cloche symetrique.

Sous H1 : V B 14, p > 12 , distribution deplacee, par rapport a` la precedente,
vers la droite de V ().
Do`u un test unilateral avec domaine de rejet de H0 a` droite.
Au niveau 5% (voir table 11.2), on a :
Domaine de rejet de H0 : {11, 12, 13, 14}
Domaine dacceptation de H0 : {0, 1, 2, . . . , 8, 9, 10}
On peut preciser le niveau reel de ce test.
 14

1
11
12
13
14
= PH0 (V {11, 12, 13, 14}) =
C14
+ C14
+ C14
+ C14
2.87%
2
Notons que si lon choisissait comme domaine de rejet {10, 11, 12, 13, 14}
le niveau de test deviendrait 8.98% que lon peut considerer comme un
risque plus e leve.
Dans lechantillon, on a observe 9 valeurs positives, soit v0 = 9. Lhypoth`ese
H0 est donc choisie : on peut considerer que la mediane de Y X est nulle.
bar-hen.net

153

5. T ESTS D HYPOTH E` SES

(b) On peut e galement construire un test de


H0 : la loi de Y X est symetrique par rapport a` zero
contre
H1 : la loi de Y X est plus e talee vers les valeurs positives.
Pour cela, on va classer les 14 observations de Y X par valeurs absolues
croissantes et on utilise la variable T+ = somme des rangs des observations
positives et on construit un test de Wilcoxon (section 5.4).
T+ () = {0, 1, 2, 3, . . . , 102, 103, 104, 105}
Sous H0 , T+ a une distribution en cloche et symetrique sur lensemble des
observables.
Sous H1 , on ne sait rien sur la loi de T+ mais il est clair que les observations
positives ayant tendance a` prendre des valeurs (absolues) e levees donc des
rangs e leves, on observe une valeur de T+ sur la droite de T+ ().
On construit donc un test unilateral avec domaine de rejet de H0 a` droite.
Au niveau 5% (voir table 11.14), on obtient :
Domaine de rejet de H0 : {79, 80, 81, . . . , 104, 105}
Domaine dacceptation de H0 : {0, 1, 2, . . . , 76, 77, 78}
Effectuons le classement des 14 observations :
Rang
Y X
Patient

1
0.01
B

2
0.04
G

3
0.05
N

4
0.08
C

5
0.09
K

6
+0.10
D

7
0.12
E

8
+0.13
I

9
+0.15
L

10
0.16
J

11
+0.20
F

12
+0.22
A

On a donc observe la valeur T+ = 87.


Lhypoth`ese H0 est donc rejetee. Le test signe et rang montre que, dans lentreprise, le taux de glucose sanguin a tendance a` augmenter.
8. Soit X le resultat dun dosage effectue sur une culture temoin. Soit Y le resultat
dun dosage effectue sur une culture irradiee.
On teste lhypoth`ese H0 : X et Y ont meme loi. contre lhypoth`ese H1 : Y a
tendance a` prendre des valeurs plus e levees que celles de X.
On va classer, par valeurs croissantes, lensemble des observations et on va choisir
la variable W definie comme la somme des rangs des observations faites sur les
cultures irradiees. W () = {45, 46, . . . , 134, 135}. Sous H0 , W a une distribution
en cloche symetrique. Sous H1 , W prendra de preference, des valeurs plus proches
de 135. On construit donc un test unilateral avec un domaine de rejet de H0 a` droite.
Au niveau 5% (4.7%) (table X, test de la somme des rangs) :
Domaine de rejet de H0 : {111, 112, . . . , 134, 135}
Domaine dacceptation de H0 : {45, 46, , . . . , 109, 110}
On a observe W0 = 127, on choisit donc H1 : la quantite dazote proteique par
cellule a tendance a` e tre plus e levee sur les cultures irradiees.

bar-hen.net

13
+.23
M

14
+0.28
H

154

Solutions

9.
Pi`ege
1980
1990

1
0.330 (8)
0.360 (10)

2
0.146 (3)
0.177 (5)

3
0.518 (15)
0.524 (16)

4
0.339 (9)
0.447 (14)

5
0.693 (19)
0.140 (2)

6
0.249 (6)
0.392 (12)

7
0.438 (13)
0.534 (17)

8
0.695 (20)
0.263 (7)

9
0.135 (1)
0.157 (4)

10
0.388 (11)
0.566 (18)

On consid`ere un ensemble (X1 , X2 , . . . , X10 ) de variables aleatoires representant


les proportions dabeilles africaines observables sur 10 pi`eges en 1980. Ces variables sont supposees independantes et de meme loi LX . Un deuxi`eme ensemble
(Y1 , Y2 , . . . , Y10 ) represente la proportion dabeilles africaines independantes et
de meme loi LY . Les deux ensembles sont independants.
On veut tester H0 : les variables Xi et Yj ont meme loi (LY = LX ) contre H1 :
les variables Yj ont tendance a` prendre des valeurs plus e levees que celles des
Xi .
On choisit la variable W associant aux 20 resultats possibles, ranges par valeurs croissantes, la somme des rangs des resultats obtenus en 1990. W () =
{55, 56, . . . , 153, 154, 155}.
Sous H0 , W a une distribution symetrique, en cloche. Sous H1 , W aura tendance a` prendre des valeurs plus e levees, cest-`a-dire vers la droite de W ().
On construit donc un test unilateral avec domaine de rejet de H0 a` droite. Au
niveau 5%, on obtient (table X) :
Domaine de rejet de H0 : {127, 128, . . . , 154, 155}
Domaine dacceptation de H0 : {55, 56, , . . . , 125, 126}
(somme des rangs entre parenth`eses dans le tableau)
On a observe W0 = 105, on choisit donc H0 et on conclut que la proportion
dabeilles africaines nest pas en augmentation.
La dispersion des resultats favorisent leur interclassement. Il nest donc pas
e tonnant de trouver un resultat non significatif. On peut cependant faire une
critique de fond : la variable proportion observable dans un pi`ege a une loi qui
depend du nombre n dinsectes captures dans le pi`ege. Il est e vident que n varie
dun pi`ege a` lautre et donc que les variables Xi ne peuvent pas avoir la meme
loi LX . Il en est de meme pour les Yj .

Pi`ege
1
2
3
4
5
6
7
8
9
% en 1980 0.330 0.146 0.518 0.339 0.693 0.249 0.438 0.695 0.135
% en 1990 0.360 0.177 0.524 0.447 0.140 0.392 0.534 0.263 0.157
Difference
+
+
+
+
+
+
+
Les observations sont maintenant appariees. On peut alors porter son attention,
pour un lieu i, sur la variable Zi = Yi Xi qui represente la variation de la
proportion des abeilles africaines. Est-elle stable ? Est-elle en augmentation ? Le
test du signe va permettre de tester : H0 : la mediane des Zi est nulle p =
P(Zi 0) = 1/2 contre H1 : la mediane des Zi est positive p = P(Zi
0) > 1/2
On choisit la variable V representant le nombre decarts positifs que lon peut
observer sur 10 stations differents. Il est clair que V () = {0, 1, 2, . . . , 9, 10} et
que V B(10, p).
Sous H0 : V B(10, 1/2) distribution en cloche symetrique.
bar-hen.net

10
0.388
0.566
+

5. T ESTS D HYPOTH E` SES

155

Sous H1 : V B(10, p > 1/2) distribution en cloche ou en J mais dissymetrique


avec le mode a` droite.
On construit donc un test unilateral avec domaine de rejet a` droite. Sachant que,
sous H0 : P(V = 10) = 1/1024, P(V = 9) = 10/1024, P(V = 8) = 45/1024,
on a
Au niveau 5% (en fait 11/1024 1.07%) le domaine de rejet {9, 10}.
Au niveau 5.5% (en fait 56/1024 5.47%) le domaine de rejet {8, 9, 10}.
Comme z = 8 et compte-tenu des niveaux reels, on peut conclure a` la progression des abeilles africaines.
10. On peut tester lhypoth`ese H0 : les variables Xi et Yj ont meme loi contre lhypoth`ese H1 : les variables Xi ont tendance a` prendre des valeurs plus grandes que
celles des Yj .
Soit W la variable aleatoire associant aux 16 resultats possibles, ranges par valeurs
croissantes, la somme des rangs des 7 resultats de B. W est a` valeurs enti`eres sur
{28, 29,. . .,90,91}. Sous H0 , W a une distribution en cloche, symetrique. Sous
H1 , W aura tendance a` prendre des valeurs situees a` gauche de la distribution.
Do`u un test unilateral qui admet, au niveau 2.5%, pour domaine de rejet H0 :
{28, 29, . . . , 40, 41}
les 16 observations sont ranges par valeurs croissantes :
y 1 , y 2 , x 1 , x 2 , y 3 , y 4 , x 3 , y 5 , y 6 , x 4 , x 5 , y7 , x 6 , x 7 , x 8 , x 9
On en deduit W = 43 . Les rendements sont les memes.

bar-hen.net

Chapitre 6
Variables aleatoires a` valeurs dans R2
1

Introduction
Definition 6.1 Soit un espace de probabilite {, A, P} associe a` une experience aleatoire
E. On appelle variable aleatoire a` valeurs dans R2 une application, notee (X, Y ), de
dans R2 , qui permet dassocier a` tout e venement e lementaire un e lement (X(), Y ())
de R2 et qui poss`ede la propriete :
pour tout couple dintervalles I et J de R, { tel que [X() I Y () J]} A
(6.1)
Cette definition conduit a` plusieurs commentaires :
1. une variable aleatoires a` valeurs dans R2 permet de traduire toute observation par
un doublet ordonne de reels. Si par exemple, a` lexperience qui consiste a` choisir
un individu dans une population, on associe la taille et le poids de cet individu,
il est clair que le choix dun individu donne implique lobservation de deux reels
donnes.
2. La propriete 6.1 signifie que levenement contenant tous les e venement e lementaires
qui ont une image dans le domaine I J (I et J e ventuellement reduits a` un point)
fait partie de la tribu A et, puisque lespace {, A} est probabilise, poss`ede une
probabilite. On notera desormais cet e venement (X I Y J) ou [(X, Y )
I J] et on e crira :
P({|[X() I Y () J]}) = P(X I Y J)
La definition dune variable aleatoire a` valeurs dans R2 , implique donc lattribution
dune probabilite a` tout pave I J, en identifiant ce domaine a` levenement dont
il est limage.
3. Soit (X, Y ) une variable aleatoire a` valeurs dans R2 . Il est clair que lapplication
de dans R qui, a` tout e venement e lementaire , associe le premier reel X()
definit une variable aleatoire X puisque, pour tout intervalle I, on peut e crire :
P(X I) = P(X I Y R)
157

(6.2)

158

Introduction

On definit, de meme, la variable aleatoire Y . Cest la raison pour laquelle, le plus


souvent, on dit que (X, Y ) est un couple de variables aleatoires a` valeurs dans
R. Certains auteurs qualifient ces variables de simultanees, ce qui signifie quune
meme experience permet dobserver une valeur pour chacune des variables
4. On
 peut
 signaler, pour terminer, que lon parle e galement de vecteur aleatoire
X
au lieu de variable aleatoire (X, Y ).
Y

1.1

Loi de probabilite
La loi de probabilite dun couple (X, Y ) de variables aleatoires a` valeurs dans R est
lapplication qui permet dassocier a` tout couple dintervalles I et J, de R, la probabilite
de levenement (X I Y J).

1.2

Fonction de repartition
Si (X, Y ) est un couple de variables aleatoires a` valeurs dans R, il resulte de la definition
dun tel couple, quil existe, en particulier, une fonction F , telle que :
 2
R
[0, 1]
F :
(x, y) 7 F (x, y) = P(X < x Y < y)
Cette fonction sappelle la fonction de repartition du couple (X, Y ).
On admettra que la fonction de repartition poss`ede les proprietes suivantes, que lon peut
aisement justifier :
1. F est une fonction croissante au sens large, relativement a` chacune des variables x
et y :
F (a, y) F (b, y) ,
F (x, c) F (x, d) ,

si a < b, y R
si c < d, x R

2.
lim F (x, y) = lim F (x, y) = P() = 0+

lim F (x, y) = P() = 1

x,y+

3. Pour a < b et c < d


P(X [a, b[Y [c, d[) = F (b, d) F (a, d) F (b, c) + F (a, c)

(6.3)

On a en effet :
P(a X < b c Y < d) = P(X < b Y < d) P(X < a Y < d)
P(X < b Y < c) + P(X < a Y < c)
bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

159

4. En tout point (x, y) de R2 , F est continue a` gauche relativement a` chacune des


variables x et y :
lim F (x , y) = lim+ F (x, y ) = F (x, y)

0+

0

On a, par exemple :
lim [F (x, y) F (x , y)] =

0+

lim P(x  X < x Y < y)

0+

= P() = 0+
La fonction de repartition F definit compl`etement la loi de probabilite du couple (X, Y ).
Elle permet en effet dattribuer une probabilite a` tout pave semi-ouvert (voir equation 6.3) ;
comme dans le cas des variables aleatoires a` valeurs dans R, letude des discontinuites
de F permet douvrir, ou de fermer, ces paves a` volonte.
Dans la pratique, on ne rencontrera que deux types de variables aleatoires a` valeurs dans
R2 . Les lois de probabilites correspondantes seront, heureusement, definies plus simplement.

1.3

Les couples de variables discr`etes


Lorsque la probabilite de , e gale a` 1, est enti`erement repartie sur un ensemble denombrable
de points de R2 , on dit que le couple (X, Y ) est un couple de variables aleatoires discr`etes ;
il est, en effet, clair que lensemble E1 = {x1 , x2 , . . . , xn , . . . , } des observables de X
est denombrable et quil en est de meme pour E2 = {y1 , y2 , . . . , yp , . . .} des observables
de Y .
La loi de probabilite du couple (X, Y ) est alors parfaitement definie par lapplication :

E1 E2 [0, 1]
P:
(xi , yj ) 7 P(X = xi Y = yj ) = Pij
puisque la probabilite dun e venement (X I Y J) est e gale a` la somme des probabilites des points de E1 E2 situes a` linterieur du domaine I J, seules e ventualites mutuellement incompatibles realisant levenement. On peut, dailleurs, proceder de meme
pour tout domaine, quelle que soit sa forme.
Tout point nappartenant pas a` E1 E2 et tout domaine ne contenant aucun point de
E1 E2 ont, e videmment, une probabilite nulle. Les probabilites Pij definissant la loi du
couple verifient, bien entendu, la relation :
XX
(6.4)
Pij = P(X R Y R) = P() = 1
i

Exemple 6.1 Une urne contient trois boules numerotes 1,2,3. On tire successivement et
sans remise, deux boules (tirage exhaustif). On peut associer a` cette experience un couple

bar-hen.net

160

Introduction

(X, Y ) de variables aleatoires discr`etes, X representant le numero que lon peut obtenir
en premier et Y representant le numero que lon peut obtenir en second.
La loi du couple (X, Y ) est donnee par le tableau a` double entree :
X
Y
1
2
3

1
O
1/6
1/6

1/6

1/6

0
1/6

1/6

Par exemple : P(X = 1 Y = 2) = P(X = 1)P(Y = 2|X = 1) =


On peut noter, pour tout i, j {1, 2, 3} :

Pij = 61 , si i 6= j
Pij = 0 , si i = j

11
32

= 16 .

Exemple 6.2 Si, avec la meme urne, on tire, successivement et avec remise, deux boules
(tirage non exhaustif), la loi du couple (X, Y ) devient :
X
Y
1
2
3

1
1/9
1/9
1/9

2
1/9
1/9
1/9

3
1/9
1/9
1/9

Par exemple : P(X = 1 Y = 2) = P(X = 1)P(Y = 2|X = 1) =


On peut noter, pour tout i, j {1, 2, 3} :
Pij =

1.4

11
33

= 19 .

1
9

Les couples a` densite


On dit quun couple (X, Y ) de variables aleatoires a` valeurs reelles, est un couple a`
densite, sil existe une fonction numerique de deux variables reelles, g, possedant la propriete : quel que soit le domaine D, de R2 , on a
Z Z
P[(X, Y ) D] =
g(x, y)dxdy
(6.5)
D

On dit, encore, que le couple (X, Y ) est de distribution absolument continue.


Il est clair que la loi de probabilite du couple (X, Y ) est compl`etement definie par sa
densite g.
En particulier, si F est la fonction de repartition du couple (X, Y ), on a :
Z u Z v
F (u, v) = P(X < u Y < v) =
g(x, y)dxdy

bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

161

Reciproquement, on peut montrer que, en tout point (x, y) o`u g est continue, on :
2 F (x, y)
= g(x, y)
xy
La fonction densite g dun couple de variables aleatoires a` valeurs reelles est, par definition,
une fonction integrable sur R2 . Elle poss`ede les proprietes suivantes, que lon rapprochera
de celles de la densite dune variable aleatoire a` valeurs dans R :
1. g(x, y) 0, sur R2 , sauf e ventuellement en certains points. Cette condition est
indispensable pour que, pour tout domaine D, on ait P[(X, Y ) D] 0
RR
2.
g(x, y)dxdy = P[(X, Y ) R2 ] = P() = 1
R2
On note, enfin, que si dx et dy sont des infiniment petits, on a :
P(x X < x + dx y Y < y + dy) g(x, y)dxdy
quantite dite probabilite e lementaire
Exemple 6.3 Soit (X, Y ) un couple de variables aleatoires, a` valeurs reelles, de densite
de probabilite :

(x, y) 7 ex , si(x, y) D
g:
(x, y) 7 0 , si(x, y) 6 D
o`u D est defini par 0 y x
On peut verifier dans un premier temps, que la fonction g poss`ede les proprietes dune
densite de probabilite. Dune part : g(x, y) 0 sur R2 . Dautre part :
Z Z
Z Z
g(x, y)dxdy =
ex dxdy
2
R
D
Z +
Z x
x
=
e dx
dy
o
0
Z +
=
xex dx
0

+
= xex ex 0
= 1
Calculons maintenant la probabilite de levenement [(X, Y ) ], o`u est defini par :
0x+y t:
Z Z
P[(X, Y ) ] =
g(x, y)dxdy

Z Z
=
ex dxdy g(x, y) = 0 pour (x, y) 6 D
D

Z t/2
=

dy
0

bar-hen.net

Z
y

ty

ex dx

162

Introduction

Z t/2
=


et+y + ey dy


 t/
= et+y ey 02
t
= 1 2e /2 + et
La fonction de repartition F du couple (X, Y ) est definie par : F (u, v) =
on obtient (`a verifier) :

, si u 0 ou v 0
F (u, v) = 0
u
u
F (u, v) = 1 e ue , si
0uv
F :

F (u, v) = 1 ev veu , si
0vu

Ru Rv

g(x, y)dxdy,

Exemple 6.4 Soit (X, Y ) un couple de variables aleatoires, a` valeurs reelles, de densite
de probabilite
1 1 (x2 +y2 )
g : (x, y) 7
e 2
, (x, y) R2
2
La fonction g poss`ede les proprietes dune densite : g(x, y) > 0 sur R2 et
Z Z
Z +
Z +
1 x2/2
1
y2
e
e /2 dy = 1 1 = 1
g(x, y)dxdy =
dx
2
2
R2

Si est defini par : x 0, y 0, x2 + y 2 2 (quart de cercle), on a :


Z Z
P[(X, Y ) ] =
g(x, y)dxdy

Z Z
1
1
2
2
=
e 2 (x +y ) dxdy
2

On calcule cette integrale en passant en coordonnees polaires :


Z /2 Z 2
1
r2
P[(X, Y ) ] =
d
e /2 rdr
2 0
0
h
i 2
2
1
r /2
=
e
2 2
0
1
1
=
[1 e ]
4
15.80%
Si G est la fonction de repartition du couple (X, Y ), on obtient ici :
Z u Z v
G(u, v) =
g(x, y)dxdy

Z u
Z v
1
1 x2/2
y2
e
e /2 dy
=
dx
2
2

= FX (u)FX (v)
o`u X est une variable normale reduite et FX est sa fonction de repartition.
bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

163

2 Lois marginales
Comme il a dej`a e te mentionne (voir e quation 6.2), de la loi dun couple (X, Y ), on doit
toujours pouvoir deduire la loi de chacune des deux variables aleatoires X et Y . On dit
que ces deux lois de probabilite sont des lois marginales, ce qui signifie quelles ne sont
quune consequence de la loi du couple.
On va montrer comment proceder pour determiner, dans les cas usuels, les lois marginales.

2.1

Couples de variables discr`etes


Soit lapplication

P :

E1 E2 [0, 1]
(xi , yj ) 7 Pij = P(X = xi Y = yj )

qui definit la loi du couple (X, Y ) de variables discr`etes.


Il est clair que E1 est lensemble, denombrable, des observables de X. Pour chaque valeur
xi E1 , on peut alors e crire :
(X = xi ) = (X = xi Y = y1 ) (X = xi Y = y2 ) (X = xi Y = y3 )
Les differentes e ventualites e tant incompatibles, on en deduit :
X
P(X = xi ) =
P(X = xi Y = yj )
j

ou, en abrege :
Pi. =

Pij

(6.6)

On aura de meme pour tout yj E2 , ,P(Y = yj ) =


dire :
X
P.j =
Pij

P(X = xi Y = yj ), cest-`a(6.7)

Exemple 6.5 (suite de lexemple 6.1) A` partir de la loi du couple donne par le tableau,
on obtient la loi de X en additionnant les probabilites par colonne et la loi de Y en
additionnant les probabilites par ligne
X
Y
1
2
3

1
O
1/6
1/6
1/3

Et donc
bar-hen.net

2
1/6
0
1/6
1/3

3
1/6
1/6
0
1/3

1/3
1/3
1/3

164

Lois marginales

xi
Pi.

1/3

1/3

1/3

yi
P.j

1/3

1/3

1/3

Par exemple : P(Y = 2) = P(X = 1 Y = 2) + P(X = 2 Y = 2) + P(X = 3 Y =


2) = 1/6 + 0 + 1/6 = 1/3.
Exemple 6.6 (suite de lexemple 6.2) On obtient de la meme mani`ere :
X

1
1/9
1/9
1/9
1/3

Y
1
2
3

2
1/9
1/9
1/9
1/3

3
1/9
1/9
1/9
1/3

1/3
1/3
1/3

Et donc
xi
Pi.

1/3

1/3

1/3

yi
P.j

1/3

1/3

1/3

Par exemple : P(Y = 2) = P(X = 1 Y = 2) + P(X = 2 Y = 2) + P(X = 3 Y =


2) = 1/9 + 1/9 + 1/9 = 1/3.
On remarque que dans ces deux exemples, X et Y ont toujours les memes lois ; ceci
nest pas surprenant car, quelque soir le schema, chaque boule a autant de chance quune
autre de sortir au premier ou au deuxi`eme tirage, cest-`a-dire une chance sur trois. Ce
qui differencie les deux schemas, cest la mani`ere dont les observables sont appariees. Il
semble, en, particulier, relativement facile dans le deuxi`eme exemple, detablir une r`egle
pour reconstruire la loi du couple (X, Y ) a` partir de la loi de X et de la loi de Y ; ce nest
pas le cas dans le premier exemple.

2.2

Couples a` densite
Soit g la densite de probabilite dun couple (X, Y ) de variables aleatoires a` valeurs
reelles.
La loi de probabilite de X peut e tre definie par sa fonction de repartition FX . On a, en
effet :
Z Z
FX (t) = P(X < t) = P(X < t Y R) =
g(x, y)dxdy
D

o`u D est defini par x < t et y R. On a ;


Z
Z t
FX (t) =
dx

Si on pose fX (x) =
densite :

g(x, y)dy

R +

g(x, y)dy, on en deduit que X est une variable a` densite, de


Z +
g(x, y)dy, x R
fX : x 7
(6.8)

bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

De meme on a

165

fY : y 7

g(x, y)dx, y R

(6.9)

Exemple 6.7 (suite de lexemple 6.4) Ici la densite fX de la variables aleatoires est
definie, pour tout x R :
Z +
fX (x) =
g(x, y)dy

Z +
1 1 (x2 +y2 )
=
e 2
dy
2
Z
1 x2 + 1 y2
2
e 2 dy
= e
2
2

1 x2
= e 2
2
De meme, la densite fY de la variable aleatoire Y , est definie par
Z +
x2
1
fY (y) =
g(x, y)dx = e 2 y R
2

On dit que le couple (X, Y ) est un couple de variables aleatoires normales reduites. On
note quici, contrairement a` lexemple 6.3, la densite du couple est e gale au produit des
densites de X et de Y .

3 Variables independantes
Definition 6.2 Soit (X, Y ) un couple de variables aleatoires a` valeurs dans R. On dit
que les deux variables X et Y sont independantes si, pour tout couple I et J dintervalles
de R, on a la propriete :
P(X I Y J) = P(X I)P(Y J)

(6.10)

Dans tous les autres cas, on dit que les variables X et Y sont dependantes, ou liees, ou
correlees.
La definition 6.10 est remplacee, pour les couple discrets et pour les couples a` densite,
par une definition e quivalente et plus commode a` manipuler.

3.1

Couples de variables discr`etes


Soit


P:

bar-hen.net

E1 E2 [0, 1]
(xi , yj ) 7 P(X = xi Y = yj ) = Pij

166

Variables independantes

lapplication qui definit la loi du couple (X, Y ). On dit que les variables aleatoires X et
Y sont independantes si et seulement si :
P(X = xi Y = Yj ) = P(X = xi )P(Y = yj ) (xi , yj ) E1 E2

(6.11)

Il est clair que lequation 6.10 implique lequation 6.11 : il suffit de reduire le domaine
de I J au point xi , yj .
Reciproquement lequation 6.11 implique lequation 6.10. Si on consid`ere un intervalle
I contenant les observables xn , xn+1 , . . . , xn+k de X et un intervalle J contenant les
observables yp , yp+1 , . . . , yp+l de Y , on a, en effet :
P(X I Y J) =

p+l
n+k X
X

P(X = xi Y = yj )

i=n j=p

(6.11) P(X I Y J) =

p+l
n+k X
X

P(X = xi )P(Y = yj )

i=n j=p

n+k
X

P(X = xi )

i=n

p+l
X

P(X = xi )

j=p

= P(X I)P(Y J)
Si on remarque que la relation 6.10 est triviale si lun au moins des deux intervalles ne
contient aucun observable.
En abrege, la relation 6.11 peut secrire :
Pij = Pi Pj i et j

(6.12)

Exemple 6.8 (suite des exemples 6.1 et 6.2) La relation 6.12 e tant verifiee pour tout
i, j = 1, 2, 3, les variables X et Y de lexemple 6.2 sont independantes. Par contre les
variables X et Y de lexemple 6.1 ne sont pas independantes.

3.2

Couples a` densite
Soit (X, Y ) un couple de variables aleatoires a` valeurs reelles et de densite g. On designe
par fX la densite de X et par fY la densite de Y (voir e quation 6.8 et 6.9)
Les variables aleatoires Xet Y sont independantes si et seulement si :
g(x, y) = fX (x)fY (y)

(6.13)

Lindependance de X et de Y implique, en particulier, (u, v) R2 :


P(X < u Y < v) = P(X < u)P(Y < v)
bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

167

et donc :
Z

g(x, y)dxdy =

fX (x)dx

fY (y)dy

On en deduit : g(x, y) = fX (x)fY (y)


Reciproquement, si g(x, y) = fX (x)fY (y) on aura pour tout domaine I J :
Z Z
P(X I Y J) =
g(x, y)dxdy
Z ZIJ
=
fX (x)fY (y)dxdy
Z IJ
Z
=
fX (x)dx fY (y)dy
I

= P(X I)P(Y J)
La relation 6.13 est donc bien e quivalente a` la relation 6.10
Exemple 6.9 (suite de lexemple 6.3 et 6.4) Les variables X et Y de lexemple 6.4 sont
independantes puisque, sur R2 , la relation 6.13 est verifiee.
Par contre, les variables X et Y de lexemple 6.3 ne sont pas independantes.

4 Lois conditionnelles
Comme nous lavons vu, de la loi dun couple de variables aleatoires, on peut toujours
deduire la loi de chacune des deux variables. Il convient maintenant de sinteresser a` la
liaison entre ces deux variables, cest-`a-dire a` la mani`ere dont les observables sont appariees dans la loi du couple. Lindependance, ou absence de liaison, decrit une situation
particuli`ere ; les lois conditionnelles vont permettre une description plus generale de la
liaison entre deux variables.
Une loi conditionnelle donne, pour une valeur fixee de lune des variables, la loi de
probabilite de lautre. On concoit linteret des lois conditionnelles. Si par exemple, on
sinteresse a` la taille et au poids dun individu choisi au hasard dans une population
donnee, il est important de pouvoir decrire la distribution de la taille des individus de
meme poids et de suivre levolution de cette distribution en fonction du poids.

4.1

Couples de variables discr`etes


La loi du couple (X, Y ) est, dans ce cas, definie par une application

E1 E2 [0, 1]
P:
(xi , yj ) 7 P(X = xi Y = yj ) = Pij
La relation des probabilites composees permet decrire, dans tous les cas :
P(X = xi Y = yj ) = P(X = xi )P(Y = yj |X = xi )
bar-hen.net

168

Lois conditionnelles

Pour toute observable xi E1 , de probabilite non nulle, il existe donc une application :

E2 [0, 1]
P
yj 7 P(Y = yj |X = xi ) = Piji.
Cette application definit ce que lon appelle la loi conditionnelle de Y sachant que X a` la
valeur xi . Il existe autant de lois conditionnelles de Y que de valeurs de X de probabilite
non nulle.
Si on e crit : P(X = xi Y = yj ) = P(X = xi |Y = yj )P(Y = yj ), on peut definir de
meme, pout toute observable yj E2 , de probabilite non nulle, la loi conditionnelle de
X sachant que Y a` la valeur yj par lapplication
(
E1 [0, 1]
P
xi 7 P(X = xi |Y = yj ) = Pij.j
On remarque que ces applications definissent bien des lois de probabilite puisque, par
exemple :
Pij
1, (Pij 6= 0)
0 Pij P.j 0
Pij
et
X Pij
1 X
P.j
=
Pij =
=1
Pi.j
P.j i
P.j
i
Exemple 6.10 (suite de lexemple 6.1)
Lois conditionnelles de X
1
xi
P(X = xi |Y = 1) 0

1/2

1/2

xi
P(X = xi |Y = 2)

1/2

2
0

xi
P(X = xi |Y = 3)

1/2

1/2

Lois conditionnelles de Y
yi
1
P(Y = yj |X = 1) 0

1/2

1/2

1/2

yi
P(Y = yj |X = 2)

1/2

2
0

1/2

3
0

yi
P(Y = yj |X = 3)

1/2

1/2

1/6
=2)
Par exemple : P(Y = 2|X = 1) = P(X=1Y
P(X=1) = 1/3 =

3
3
0

1
2

Exemple 6.11 (suite de lexemple 6.2) Les lois conditionnelles de X ou Y peuvent e tre
determinees comme precedemment. On note que P(X = i|Y = j) = P(X = i) a par
1/9
=1)
1
exemple : P(X = 2|Y = 1) = P(X=2Y
P(Y =1) = 1/3 = 3 = P(X = 2)
Ce resultat est general :
P(X = i|Y = j) =

Pij
Pi. P.j
=
= Pi. = P(X = xi ) , yj E2
P.j
P.j

P(Y = j|X = i) =

Pij
Pi. P.j
=
= P.j = P(Y = yj ) , xi E1
Pi.
Pi.
bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

169

Dans lexemple 6.2, les variables sont independantes et les lois conditionnelles de chacune des variables nevoluent pas en fonction des valeurs prises par lautre ; dans lexemple 6.1
ces lois e voluent et les deux variables sont liees.
On notera que le passage de P(X = xi Y = yj ) a` P(X = i|Y = j) seffectue par
lintermediaire de la division par P(Y = yj ) ; ceci correspond au changement densemble
fondamental qui intervient dans toute probabilite conditionnelle et se traduit, dans le
schema, par un simple changement dechelle.

4.2

Couple a` densite
On rappelle les notations : le couple (X, Y ) a pour densite g, fX et fY sont les densites
respectives de X et de Y . On a :
P(x X < x+dxy Y < y+dy) = P(x X < x+dx)P(y Y < y+dy|x X < x+dx)
Si dx et dy tendent vers zero, on peut e crire :
P(x X < x + dx y Y < y + dy) g(x, y)dxdy
P(x X < x + dx) fX (x)dx
On en deduit :
P(y Y < y + dy|X = x)

g(x, y)
, si fX (x) 6= 0
fX (x)

Pour tout reel x tel que fX (x) 6= 0, on peut definir une fonction fY |X=x :
fY |X=x : y 7 fY |X=x (y) =

g(x, y)
fX (x)

Cette fonction sappelle la densite conditionnelle de Y sachant que X a la valeur x.


De meme, pour tout reel y tel que fY (y) 6= 0, on peut definir une fonction fX|Y =y :
fX|Y =y : x 7 fX|Y =y (x) =

g(x, y)
fY (y)

appelee densite conditionnelle de X sachant que Y a la valeur y.


On notera que ces fonctions ont bien les proprietes dune densite puisque, par exemple :
g(x, y)
0
fY (y)
Z +
Z +
1
fX|Y =y (x)dx =
g(x, y)dx
fY (y)

fY (y)
=
=1
fY (y)
fX|Y =y (x) =

bar-hen.net

170

Esperances conditionnelles et courbes de regression

On remarque au passage que cette derni`ere integrale a la valeur 1 a` cause de la division


par fY (y) ce qui correspond au changement densemble fondamental dej`a signale dans
le cas des variables discr`etes.
Les lois conditionnelles de X sont ici definies par une densite o`u la valeur y prise par Y
intervient comme un param`etre. Ces lois vont se deformer lorsque y varie ; cette e volution
est un des effets de la liaison entre les variables. Il en est de meme des lois conditionnelles
de Y qui dependront de la valeur x prise par X.
Il est clair que si X et Y sont des variables independantes les lois conditionnelles de
lune nevoluent pas en fonction des valeurs prises par lautre et que : fY |X=x = fY ;
fX|Y =y = fX a` cause de la relation 6.13
Exemple 6.12 (suite de lexemple 6.4) Les variables sont independantes et on a, ici :
1
x2
y R, fX|Y =y (x) = fX (x) = e /2 , x R
2
1
y2
y R, fY |X=x (y) = fY (y) = e /2 , x R
2
Exemple 6.13 (suite de lexemple 6.3) On peut definir la densite conditionnelle de X
sachant Y = y seulement si y 0 (fY (y) 6= 0). On a alors :
 x+y
g(x, y)
e
, si x y
fX|Y =y =
=
0
, si x < y
fY (y)
On peut aussi definir la loi conditionnelle de Y sachant X = x seulement si x > 0
(fX (x) 6= 0). On a alors :

1/x , si 0 y x
g(x, y)
fY |X=x =
=
0 , si x < y ou y < 0
fX (x)

5 Esperances conditionnelles et courbes de regression


On peut associer a` la distribution conditionnelle de Y sachant que X a la valeur x, tous
les param`etres descriptifs usuels des distributions dune variable aleatoire dans R.
En particulier, sous reserve de la convergence de la somme, ou de lintegrale correspondante, on peut lui associer une esperance. Cette esperance sappelle lesperance conditionnelle de Y sachant que X a` la valeur x et on la note E(Y |X = x).
Le point (x, E(Y |X = x) est le barycentre de la distribution de Y sachant X = x.
Lensemble de ces points sappelle la courbe de regression de lesperance conditionnelle
E(Y |X = x) ; cette courbe de regression represente donc levolution de E(Y |X = x) en
fonction de x.
On definit de meme E(X|Y = y), esperance conditionnelle de X lorsque Y a pris la valeur y, et la courbe de regression correspondante, ensemble des barycentres (E(X|Y = y), y)
des distributions conditionnelles de X.
bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

171

Les courbes de regression E(Y |X = x) et de E(X|Y = y) sont, a priori, differentes : si


lesperance de la taille dun individu de 80 kilos est de 180 centim`etres, il ny a pas de
raison que lesperance du poids dun individu de 80 kilos soit de 180 cm.
Les courbes de regression representent, dune mani`ere synthetique, un des aspects de la
liaison entre deux variables mais donnent, bien entendu, moins dinformations sur cette
liaison que lensemble des lois conditionnelles ; toutes les informations sont, par ailleurs,
contenues dans la loi du couple.
Exemple 6.14 (suite de lexemple 6.1) On a :
E(X|Y = 1) = 2.5
E(X|Y = 2) = 2
E(X|Y = 3) = 1.5

Do`u le dessin :
y 6
3
u

u
u

1
-

E(X|Y = y)

De meme
On a :
E(Y |X = 1) = 2.5
E(Y |X = 2) = 2
E(Y |X = 3) = 1.5

Exemple 6.15 (suite de lexemple 6.2)


Dans ce cas, pour tout xi , yj = 1, 2, 3, on a
1
1
1
E(X|Y = yj ) = E(Y |X = xi ) = 1 + 2 + 3 = 2
3
3
3
Do`u le dessin :

bar-hen.net

172

Esperances conditionnelles et courbes de regression

y 6
3

u
-

E(Y |X = x)

E(Y6|X = x)
3
2
1
-

Les variables e tant independantes, les lois conditionnelles nevoluent pas et les esperances
conditionnelles restent constantes. Les points representatifs sont donc situes sur une parall`ele a` laxe des x ou sur une parall`ele a` laxe des y.
Il en sera de meme dans lexemple 6.4 o`u E(X|Y = y) = 0 y R la courbe de
regression est donc parall`ele a` laxe y 0 Oy.
E(Y |X = x) = 0 x R la courbe de regression est donc parall`ele a` laxe x0 Ox.
Il convient de souligner que les lois conditionnelles peuvent e voluer, cest-`a-dire que les
variables peuvent e tre liees, tout en conservant des esperances conditionnelles constantes ;
la verticalite et lhorizontalite des courbes de regression ne signifient donc pas forcement
lindependance des variables.
Exemple 6.16 (suite de lexemple 6.3)
Pour tout y 0, on a
Z +
E(X|Y = y) =
xfX|Y =y (x)dx

Z y
Z
=
xfX|Y =y (x)dx +

xfX|Y =y (x)dx

bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

Z
= 0+

173

xex+y dx


+
= e xex ex y
= 1+y
y

Et donc la courbe de regression correspondante est une droite.


De meme, pour x > 0, on a :
Z +
E(Y |X = x) =
yfY |X=x (y)dy

Z 0
Z x
Z +
=
yfY |X=x (y)dy +
yfY |X=x (y)dy +
yfY |X=x (y)dy

0
x
Z x
1
= 0+
y dy + 0
x
 20x
1 y
=
x 2 0
x
=
2
La courbe de regression correspondante est encore une droite qui, cette fois passe par
lorigine.

Covariance et coefficient de correlation


Soit (X, Y ) un couple de variables aleatoires a` valeurs reelles. On suppose que chacune
des deux variables poss`ede une esperance et une variance, calculees a` partir des lois
marginales, par exemple, et on pose :
2
E(X) = X ; E(Y ) = Y ; V(Y ) = X
; V(Y ) = Y2

6.1

Definition
On appelle covariance des variables X et Y et on note Cov(X, Y ), XY ou plus generalement
E[(X x )(Y Y )], le nombre, sil existe, defini par :
XX
XY =
(xi X )(yj Y )Pij , si les variables sont discr`etes
i

Z Z
(x X )(y Y )g(x, y)dxdy, pour un couple a` densite

XY =
R2

On appelle coefficient de correlation des variables X et Y , et on note XY , le nombre,


sil existe, defini par :
XY
Cov(X, Y )
=
XY = p
X Y
V(X)V(Y )
bar-hen.net

174

Covariance et coefficient de correlation

6.2 Covariance
Ce premier coefficient, qui sintroduit naturellement dans certains calculs probabilistes
(voir chapitre 7), poss`ede la propriete detre nul lorsque les variables sont independantes.
On a, en effet, dans ce cas :
XX
X
X
XY =
(xi X )(yj Y )Pi. P.j =
(yj Y )P.j
(xi X )Pi. = 00 = 0
i

si les variables sont discr`etes, et si les variables ont une densite :


Z Z
XY =
(x X )(y Y )fX (x)fY (y)dxdy
Z
Z
=
(x X )fX (x)dx (y Y )fY (y)dy
R

= 0
puisque, pour toute variable Z desperance Z : E(Z Z ) = E(Z) Z = 0.
Reciproquement, une covariance nulle nimplique pas lindependance entre les variables
sauf, e ventuellement, a` linterieur de certains mod`eles, par exemple les couples gaussiens.
Malgre cette remarque, la covariance donne les indications suivantes sur la liaison entre
deux variables :
Lorsque XY 6= 0, les variables X et Y sont liees ; ceci resulte de la propriete precedente ;
lorsque XY < 0, les e carts (X X ) et (Y Y ) ont tendance a` e tre de signe contraire
et X et Y ont tendance a` e voluer en sens contraire ;
lorsque XY > 0, les e carts (X X ) et (Y Y ) ont tendance a` e tre de meme signe
et X et Y ont tendance a` e voluer en meme sens.

6.3

Coefficient de correlation
Le coefficient de correlation est utilise pour mesurer le degre de liaison entre deux variables. Ceci est justifie par ses proprietes :
1. 1 XY 1 (voir chapitre 7).
On dispose donc dune e chelle commune a` tous les couples
2. |XY | = 1 Y = aX + b. De plus = 1 a > 0 et = 1 a < 0 (voir
chapitre 7).
On dit quil existe entre X et Y une liaison fonctionnelle : quand X a pris une valeur, celle de Y est imposee ; la liaison lineaire est, dans lechelle choisie, consideree
comme la plus forte.
3. Lindependance de X et Y implique XY = 0 (voir la definition de XY ).
Cest la liaison la plus faible. Malheureusement la reciproque nest pas vraie sauf
pour des cas particuliers comme les couples gaussiens.
4. XY > 0 X et Y ont tendance a` e voluer dans le meme sens.
XY < 0 X et Y ont tendance a` e voluer en sens contraire.
bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

175

Exemple 6.17 (suite de lexemple 6.1) On deduit des lois marginales :


E(X) = E(Y ) = 13 (1 + 2 + 3) = 2
V(X) = V(Y ) = 13 (1)2 + 13 (0)2 + 13 (1)2 = 23
Le calcul de la covariance donne, sans tenir compte des termes nuls :
1
2
1
XY = (3 2)(1 2) + (1 2)(3 2) =
6
6
6
On en deduit le coefficient de correlation
2/6
1
XY = =
2/3 2/3
2
Les variables sont liees. Les valeurs negatives obtenues pour XY et XY confirment
levolution des distributions conditionnelles.
ExempleR6.18 (suite de lexemple 6.3) On d
duit des lois marginales :
Re+
+ 2 x
2 x +
E(X) = 0 x e dx = [x e ]0 + 2 0 xex dx = 0 + 2 = 2
R +
R +
+
V(X) = 0 x3 ex dx = [x3 ex ]0 + 3 0 x2 ex dx = 0 + 6 = 6
R +
E(Y ) = 0 yey dy = 1
R +
E(Y 2 ) = 0 y 2 ey dy = 2
V(Y ) = 2 1 = 1
Le calcul de la covariance donne :
Z Z
(x 2)(y 1)g(x, y)dxdy

Cov(X, Y ) =
Z
=
=
=
=
=

2
ZR

(x 2)(y 1)ex dxdy


R2
Z +
Z x
x
(x 2)e dx
(y 1)dy
0
0

Z +  3
x
2
2x + 2x ex dx
2
0
34+2
1

Do`u le coefficient de correlation


XY

2
1
= =
2
1 2

A` votre avis, les valeurs positives obtenues pour XY et XY confirment-elles levolution


des distributions conditionnelles ?

bar-hen.net

Variables aleatoires dans Rn

176

7 Variables aleatoires dans Rn


Ce qui a e te dit precedemment pour les variables aleatoires a` valeurs dans R2 peut
aisement e tre generalise a` Rn :

Definition 6.3 Soit un espace de probabilite {, A, P} associe a` une experience aleatoire E.


On appelle variable aleatoire a` valeurs dans Rn une application, notee (X1 , X2 , . . . , Xn ),
de dans Rn , qui permet dassocier a` tout e venement e lementaire un e lement (X1 (), X2 (), . . . , Xn ()
de Rn et qui poss`ede la propriete :
pour tout ensemble dintervalles I1 , I2 , . . . , In de R,
{ tel que [X1 () I1 X2 () I2 Xn () In ]} A
Une variable aleatoire a` valeur dans Rn ou, ce qui revient au meme, un ensemble de n
variables aleatoires a` valeurs reelles, permet de traduire toute observation par un n-uplet
de valeurs numeriques. La definition ci-dessus implique que lon puisse attribuer une
probabilite a` tout pave I1 I2 In . On distinguera les ensembles de variables
discr`etes et les ensembles de variables a` densite.
Exemple 6.19 Si (X, Y, Z) est un triplet de variables discr`etes, la loi de probabilite du
triplet peut e tre definie par :

E1 E2 E3 [0, 1]
P:
(xi , yj , zk )
7 P(X = xi Y = yj Z = zk ) = Pijk
P P P
Avec la relation i j k Pijk = 1
On deduit de la loi dun triplet differentes lois marginales. Par exemple la loi de X est
XX
P(X = xi ) =
Pijk = Pi..
j

P(X = xi Y = yj ) =

Pijk = Pij.

Exemple 6.20 On dit quun triplet (X, Y, Z) de variables aleatoires est un triplet a` densite sil existe une fonction numerique de trois variables reelles, h, possedant la propriete : quelque soit le domaine D de R3 , on a :
Z Z Z
3
P[(X, Y, Z) R ] =
h(x, y, z)dxdydz
D

h, densite du triplet, verifie :


1. h(x, y, z) 0
RRR
2.
h(x, y, z)dxdydz = 1
R3
On peut, a` partir de h obtenir differentes densites marginales. Par exemple la loi de X
est
Z Z
fX (x) =
h(x, y, z)dydz
R2

Pour la loi du couple (X, Y ), on a :


Z
g(x, y) =

h(x, y, z)dz
R

bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

177

7.1 Independance
On dit que les variables (X1 , X2 , . . . , Xn ) sont independantes entre elles si, pour tout
ensemble I1 , I2 , . . . , In de R, on a :
P(X1 I1 X2 I2 Xn In ) = P(X1 I1 )P(X2 I2 ) . . . P(Xn In )
On notera que lindependance des variables entre elles entrane leur independance deux
a` deux (la reciproque nest pas vraie) ainsi que lindependance entre elles des variables
1 (X1 ), 2 (X2 ), . . . , n (Xn ), o`u est une bonne fonction.
Pour le triplet de lexemple 6.19, lindependance des trois variables secrit :
Pijk = Pi.. P.j. P..k (i, j, k)
Pour le triplet de lexemple 6.20, lindependance des trois variables secrit :
h(x, y, z) = fX (x)fY (y)fZ (z) (x, y, z)

bar-hen.net

178

Exercices

8 Exercices
1. Soit (X, Y ) un couple de variables aleatoires a` valeurs reelles, de densite de probabilite g definie par :

(x, y) 7 kxy , si (x, y) D
g:
(x, y) 7 0
, si (x, y) 6 D
= {(x, y) R2 tel que x 0, y 0, x2 + y 2 a2 (a R+ )}.
Calculer k.
calculer la probabilite de levenement X + Y < t o`u 0 t a.
determiner les densites de probabilite de X et de Y . Ces variables sont-elles
independantes ?
(d) determiner la densite conditionnelle de Y , lorsque X = x, et tracer la courbe
de regression de lesperance conditionnelle correspondante.
2. Soit un couple de variables aleatoires a` valeurs reelles de densite de probabilite :

(x, y) 7 41 [1 + xy(x2 y 2 )] , si (x, y) D
g:
(x, y) 7 0
, si (x, y) 6 D
o`u D
(a)
(b)
(c)

o`u D = {(x, y) R2 tel que 1 x 1, 1 y 1}.


Verifier que g poss`ede les proprietes dune densite de probabilit
e.
T
1
Calculer la probabilite de levenement :(0 x /2) (0 y 1)
Determiner la densite de probabilite de chacune des deux variables aleatoires ;
sont-elles independantes ?
Calculer les esperances conditionnelles E(Y |X = x) et E(X|Y = y) ; tracer les
courbes de regression correspondantes.
Calculer la covariance et le coefficient de correlation des deux variables.
3. Une experience aleatoire  peut avoir trois resultats possibles formant un syst`eme
complet devenements : E1 de probabilite p1 , E2 de probabilite p2 , E3 de probabilite p3 . On veut effectuer n experiences, independantes et identiques a` E et
on consid`ere les variables X1 , X2 et X3 representant respectivement le nombre
devenements E1 , E2 et E3 que lon peut observer.
Montrer que la loi de probabilite du triplet est donnee par :
P(X1 = k, X2 = l, X3 = m) =

n! k l m
p pp
k!l!m! 1 2 3

avec k, l, m {0, 1, 2, . . . , n} et k + l + m = n
Generaliser a` plus de trois variables (loi multinomiale).
En deduire les lois de probabilite de X1 , X2 et X3 . Ces variables sont-elles
independantes ?
Appliquer a` lexemple suivant : on croise des mufliers ivoires et des mufliers
rouges. On obtient en F1 des mufliers pales. On admet que la coloration de la
fleur est geree par un couple dall`eles. On observe en F2, apr`es autofecondation,
100 descendants.
bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

179

4. On consid`ere deux variables aleatoires reelles X et Y independantes et de densites


de probabilite respectives :

x 7 0
, si x < 0
fX :
x 7 ex , si x 0
et


fY :

y
7 0
, si y < 0
y
y
7 e
, si y 0

o`u et sont deux param`etres reels strictement positifs.


Le couple (X, Y ) est un couple dobservations que lon peut effectuer sur un individu choisi au hasard dans une population donnee. Les param`etres et varient
dun individu a` lautre, mais on sait que leur rapport reste constant. On desire tester
lhypoth`ese H0 : = contre lhypoth`ese H1 : = 9.
Calculer la probabilite dobserver sur un individu un couple (x, y) tel que y x
sous H0 et sous H1 .
Utiliser ces resultats pour construire, au niveau 6%, un test de H0 contre H1 , a`
partir dun e chantillon de 10 couples independants. Calculer la puissance de ce
test.
5. Paul et Valerie ont rendez-vous chez Robert, entre 12h et 14h. Par hypoth`ese, les
instants darrivee de Paul et Valerie sont des variables aleatoires X et Y independantes,
de distribution uniforme sur [0, 2], linstant zero correspondant a` midi, lunite de
temps e tant lheure.
(a) Soit U la variable aleatoire representant le temps dattente de Robert jusqu`a
la premi`ere arrivee. Determiner la densite de probabilite de U .
(b) Soit V la variable aleatoire representant le temps dattente de Robert jusqu`a
ce que ses deux amis soient arrives. Determiner la densite de probabilite de
V.
(c) Soit la variable Z = X Y . Calculer lesperance et la variance de Z.
Determiner la densite de probabilite de Z.
(d) Soit W la variable aleatoire representant le temps dattente de Robert entre
les deux arrivees. Determiner la densite de probabilite de W .

bar-hen.net

180

Solutions

9 Solutions
1. g doit satisfaire aux deux conditions :
(a) g(x, y) 0, (x, y) R2 .
Or g(x, y) = 0 si (x, y) 6 D et g(x, y) 0 si (x, y) D
k0
RR
(b)
g(x,
R2
R Ry)dxdy = 1.
I=
kxydxdy = 1
D
On passe en coordonnees polaires pour calculer I
RR 2
I=k
r cos sin rdrd avec defini par : 0 2 et 0 r R

h 2 i 2 4
R
RR 3
4
2
Do`u I = k 0 cos sin d 0 r dr = k sin2 R4 = k R8
0

I=1k=

8
R4

On a P(X + Y < t) =

RR
x+y<t

g(x, y)dxdy = 0 si t 0

RR
8
si t > 0 P(X + Y < t) =
xydxdy
D1 R4
D1 e tant defini par x 0, y 0, 0 x + y < t R
On note que la condition t R entrane que D1 est un triangle.
On a :
Z Z
Z t
Z tx
8
8
xydxdy =
xdx
ydy
R4
R4 0
D1
0
Z t
(t x)2
8
=
x
dx
R4 0
2
Z t
4
=
(t2 x 2tx2 + x3 )dx
R4 0


4 2 2
x3 x4
=
t x 2t +
t
R4
3
4 0
4t4 1
=
R4 12
t4
=
3R4
Finalement P(X + Y < t) = 0 si t 0 ; P(X + Y < t) =
Soient f1 la densite de X et f2 la densite de Y . On a :
Z +
f1 (x) =
g(x, y)dxdy

t4
3R4

si t > 0

= 0 si x < 0 ou si x > R

8
=
R4

R2 x2

xydy
0

bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

181

 R2 x2
8x y 2
=
R4 2 0
4x 2
=
(R x2 ) si 0 x R
R4
Finalement :

f1 :

x 7 0
, si x < 0 ou si x > R
4x
2
2
x 7 R4 (R x ) , si 0 x R

De meme, X et Y jouant un role symetrique :



y 7 0
, si y < 0 ou si y > R
f2 :
4y
2
2
y 7 R4 (R y ) , si 0 y R
Les deux variables ne sont pas independantes car on na pas legalite :
g(x, y) = f1 (x)f2 (y)(x, y) R2
2. g doit satisfaire aux deux conditions :
(a) g(x, y) 0. On a g(x, y) = 0 pour tout (x, y) =6 D.
Il reste a` verifier que sur D, g(x, y) 0.
En passant en coordonnees polaires, on a :
xy(x2 y 2 ) = r4 cos sin (cos2 sin2 )
r4
=
sin(2) cos(2)
2
r4
=
sin(4)
4
4

| sin(4)| 1 |xy(x2 y 2 )| r4 .
Or r2 2. Donc |xy(x2 y 2 )| 1 et par consequent 1 + xy(x2 y 2 ) 0
RR
(b)
g(x, y)dxdy = 1.
R2
Or
Z Z
Z Z
1
g(x, y)dxdy =
(1 + x3 y xy 3 )dxdy
4
2
R
ZD Z 1
1 1
=
dx
(1 + x3 y xy 3 )dy
4 1
1

1
Z 1
2
1
y4
3y
=
dx y + x
x
4 1
2
4 1
Z 1
1
=
2dx
4 1
1 1
=
[x]
2 1
= 1
bar-hen.net

182

Solutions

Soit le domaine. On a
Z Z
P((X, Y ) ) =

g(x, y)dxdy

1
=
4

=
=

Z
dx

(1 + x3 y xy 3 )dy

Z 1/2
1

=
=

1/
2

(1 + x3/3 x/4)dx


 1/
x4 x2 2
1
x+

4
8
8 0


1 1
1
1
+

4 2 128 32
61
512
11.91%

Soient f1 la densite de X et f2 la densite de Y . On a :


Z +
f1 (x) =
g(x, y)dy

= 0 si x < 1 ou si x > 1
1
f1 (x) =
4

(1 + x3 y xy 3 )dy


1
2
1
y4
3y
=
y+x
x
4
2
4 1
1
=
si 1 x 1
2
Z

f2 (x) =

g(x, y)dx

= 0 si y < 1 ou si y > 1
1
f2 (x) =
4

(1 + x3 y xy 3 )dx



2 1
1
x4
3x
=
x+y y
4
4
2 1
1
=
si 1 y 1
2
Les deux variables X et Y ont donc meme loi : il sagit de la loi uniforme sur
[1; 1]. Il est clair que les deux variables ne sont pas independantes puisquon
na pas legalite g(x, y) = f1 (x)f2 (y) (x, y) R2
bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

183

Soit hX la densite conditionnelle de Y lorsque X = x. On a : hx (y) = g(x,y)


.
f1 (x)
Cette expression na de sens que si f1 (x) 6= 0, cest-`a-dire si 1 x 1.
Dautre part, pour x donne entre -1 et 1, la densite g est nulle si y < 1 ou si
y > 1. Do`u, pour 1 x 1, hx :

y 7 0
, si y < 1 ou y > 1
hx :
1
3
3
y 7 2 (1 + x y xy ) , si 1 y 1
On en deduit lesperance conditionnelle de Y :
Z +
E (Y |X = x) =
yhx (y)dy

Z
1 1
=
(y + x3 y 2 xy 4 )dy
2 1
1 3 1
=
x x pour 1 x 1
3
5
La courbe de regression correspondante est la courbe representative de la fonction :

[1; 1] 7 R
:
x
7 13 x3 15 x
Pour hy , densite conditionnelle de X lorsque Y = y, on obtient, pour 1 y
1:

x 7 0
, si x < 1 ou x > 1
hy :
1
3
3
x 7 2 (1 + x y xy ) , si 1 x 1
On en deduit lesperance conditionnelle :
Z +
E (X|Y = y) =
xhy (x)dx

Z
1 1
=
(x + x4 y x2 y 3 )dx
2 1
1
1
=
y y 3 pour 1 y 1
5
3
La courbe de regression correspondante est la courbe representative de la fonction :

[1; 1] 7 R
:
y
7 15 y 13 y 3
Dans cet exemple, X et Y ont meme loi. On a donc :
h 2 i1
R +
R1
E(X)=E(Y )= xf1 (x)dx = 1 x2 dx = x4
=0
1

V(X)=V(Y )=E(X 2 ) puisque E(X)=0


h 3 i1
R + 2
R 1 x2
et x f1 (x)dx = 1 2 dx = x6
=
1

bar-hen.net

1
3

184

Solutions

Il en resulte que
Z Z
(x x )(y y )g(x, y)dxdy

Cov(X, Y ) =
2

=
=
=
=
=

1
4

Z RZ

xy(1 + x3 y xy 3 )dxdy
D

 2
Z 1
3
5 1
1
y
4y
2y
dx x + x
x
4 1
2
3
5 1

Z 1
1
2 4 2 2
x x dx
4 1 3
5
 5

1
1 x
x3

2 15 15 1
0

La covariance de X et Y e tant nulle, le coefficient de correlation est aussi nul.


Cest une illustration du fait que lannulation de ces coefficients ne signifie pas
forcement lindependance des variables.
3.

(a) On peut numeroter de 1 a` n les n experiences et ainsi representer tout resultat


possible de cet en ensemble dexperiences par une suite ordonnee de n e venements.
T
T
Levenement A = X1 = k X2 = l X3 = m est realise chaque fois
que lon observe une suite devenements comportant k fois E1 , l fois E2 et
m fois E3 avec k + l + m = n
Or, les experiences e tant identiques et independantes, la probabilite dune
telle suite est obtenue par le produit de k termes e gaux a` P1 , l termes e gaux
a` P2 , m termes e gaux a` P3 , cest-`a-dire pk1 pl2 pm
3 .
De plus il a autant de suites de ce type que de mani`ere dordonner les k
e venements de E1 , les l e venements de E2 et les m = nkl e venements de
E3 . On peut choisir la place des k e venements de E1 de Cnk facons differentes ;
l
pour chacune delles on a Cnk
facons differentes de choisir la place des l
e venements E2 , la place des m = nk l e venements E3 est alors imposee.
Il y a donc :
(nk)!
n!
n!
l
Cnk Cnk
= k!(nk)!
= k!l!m!
mani`eres, mutuellement incompatibles,
l!(nkl)!
de realiser A.
Laxiome des probabilites totales permet decrire : P(X1 = k, X2 = l, X3 =
n!
m) = k!l!m!
pk1 pl2 pm
u
3 avec k, l, m {0, 1, 2, . . . , n} et k + l + m = n et o`
p1 + p2 + p3 = 1
La loi du triplet de variables discr`etes (X1 , X2 , X3 ) est alors dite loi trinomiale. La somme des probabilites de tous les triplets k, l, m observables
est e gale au developpement du trinome (p1 + p2 + p3 )n = 1
(b) On generalise aisement au cas o`u les resultats possibles dune experience
sont en nombre i, a` savoir E1 , E2 , . . . , Ei avec les probabilites p1 , p2 , . . . , pi
(p1 + p2 + + pi = 1)
bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

185

On designe par X1 , X2 , . . . , Xi le nombre devenements E1 , E2 , . . . , Ei que


lon peut observer en effectuant n experiences identiques et independantes
T
T
T
Levenement A = X1 = k X2 = l Xi = r est realise chaque
fois que lon observe une suite devenements comportant k fois E1 , l fois
E2 , ... , r fois Ei a` savoir :
(nk)!
n!
n!
l
Cnk Cnk
Crr = k!(nk)!
r!
= k!l!...r!
l!(nkl)!
r!
Chaque e ventualite a` la probabilite pk1 pl2 . . . pri .
Et finalement
T :
T
T
n!
P(X1 = k X2 = l Xi = r) = k!l!...r!
pk1 pl2 . . . pri avec k, l, . . . , r
{0, 1, 2, . . . , n} et k + l + . . . = r = n et o`u p1 + p2 + + pi = 1
Une telle loi est dite loi multinomiale ; la loi binomiale (i = 2) et trinomiale
(i = 3) en sont des cas particuliers.
T
(c) L
e
v
e
nement
X
=
l
est
r
e
alis
e
chaque
fois
que
lon
a
:
X
=
k
1
1
T
T X2 =
l T X3 = m avec l + m = n k ce que lon peut e crire X1 = k X2 =
l X3 = n k l avec k {0, 1, 2, . . . , n}. Laxiome des probabilites
totales permet decrire :

P(X1 = k) =

nk
X
l=0

n!
pk pl pnkl
k!l!m!(n k l)! 1 2 3
nk

X (n k)!
n!
pk1
pl pnkl
k!(n k)! l=0 l!(n k l)! 2 3

n!
pk (p2 + p3 )nk
k!(n k)! 1

Comme p2 + p3 = 1 p1 , on en deduit que X1 est une variable binomiale


B(n, p1 ). De meme X2 B(n, p2 ) et X3 B(n, p3 ). Les trois variables ne
sont pas independantes puisque :
\
\
P(X1 = k X2 = l X3 = m) 6= P(X1 = k)P(X2 = l)P(X3 = m)
(d) Lexperience  est ici lobservation dun individu de la F2. Soient p1 , p2 , p3
les probabilites dapparition des phenotypes ivoire, pale ou rouge sur
un individu de la F2. On a, ici, p1 = 1/4, p2 = 1/2, et p3 = 1/4.
Soient X1 le nombre de plantes a` fleurs ivoires, X2 le nombre de plantes a`
fleurs pales et X3 le nombre de plantes a` fleurs rouges que lon peut observer
sur 100 plantes de la F2. On a :
  k   l  m
\
\
100! 1
1
1
P(X1 = k X2 = l X3 = m) =
k!l!m! 4
2
4
o`u k, l, m {0, 1, 2, . . . , 100} et k + l + m = 100

Si on sinteresse au nombre X3 de plantes a` fleurs rouges, on a X3 B 100, 14
bar-hen.net

186

4.

Solutions

(a) Le couple (X, Y ) a pour densite



g(x, y) = ex ey , si x 0 et y 0
g(x, y) = 0
, si x < 0 ou y < 0
RR
On a P(Y X) =
ex ey dxdy

o`u est defini par x 0, y 0, y x


On en deduit
Z +
Z x
x
P(Y X) =
e dx
ey dy
0
Z0 +

x
=
ex dx ey 0
Z0 +
=
ex (1 ex )dx
Z0 +
Z +
x
=
e

e(+)x
0
0

+

x
(+)x
= e
+
e
+
0

= 1
+

Sous H0 = : P(Y X) = p0 = 1 2
= 12

9
Sous H1 = 9 : P(Y X) = p1 = 1 10
= 10
(b) Pour chaque couple dobservations, deux resultats sont possibles : (Y
X), de probabilite P ou (Y > X) de probabilite 1 P . Soit Z la variable
associant a` 10 couples dobservations independants le nombre de resultats
(Y X).
On a X B(10, P )
Sous H0 , on a Z B(10, 1/2). Cette distribution est en cloche symetrique par
rapport a` la valeur 5.
Sous H1 , on a Z B(10, 9/10). Cette distribution est tr`es dissymetrique et a
pour module la valeur 9.
Il est clair que cest lobservation dune valeur e levee de Z qui conduit a`
choisir H1 .
On construit donc un test de H0 contre H1 , unilateral, avec domaine de rejet
a` droite.
On a :
10
1
PH0 (Z = 10) = 12
= 1024

1 10
10
9
PH0 (Z = 9) = C10
= 1024
2
1 10
45
8
PH0 (Z = 8) = C10
= 1024
2
10
1
120
7
PH0 (Z = 7) = C10
= 1024
2

bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

187

On en deduit :
56
PH0 (Z 8) = 1024
5.47% < 6%
176
PH0 (Z 7) = 1024 17.19% > 6%
Do`u le test : au niveau 6%, lobservation dune valeur de {0, 1, 2, 3, 4, 5, 6, 7}
conduit a` rejeter H0 pour choisir H1
La puissance du test correspond a` la probabilite de choisir H1 avec raison.
Cest donc :
PH1 (Z 8) = PH1 (Z = 8) + PH1 (Z = 9) + PH1 (Z = 10)
 8   2
 8    10
9
1
9
1
9
8
9
+ C10
+
= C10
10
10
10
10
10
 8 

9
45
890
81
=
+
+
10
100 100 100
0.4305 2.16
93%
(a) Le couple (X, Y ) a pour densite

g(x, y) = ex ey , si x 0 et y 0
g(x, y) = 0
, si x < 0 ou y < 0
RR
On a P(Y X) =
ex ey dxdy

o`u est defini par x 0, y 0, y x


On en deduit
Z +
Z x
x
P(Y X) =
e dx
ey dy
0
Z0 +

x
=
ex dx ey 0
Z0 +
=
ex (1 ex )dx
Z0 +
Z +
x
=
e

e(+)x
0
0
+

(+)x
x
= e
+
e
+
0

= 1
+

Sous H0 = : P(Y X) = p0 = 1 2
= 12

=
Sous H1 = 9 : P(Y X) = p1 = 1 10

9
10

(b) Pour chaque couple dobservations, deux resultats sont possibles : (Y


X), de probabilite P ou (Y > X) de probabilite 1 P . Soit Z la variable
bar-hen.net

188

Solutions

associant a` 10 couples dobservations independants le nombre de resultats


(Y X).
On a X B(10, P )
Sous H0 , on a Z B(10, 1/2). Cette distribution est en cloche symetrique par
rapport a` la valeur 5.
Sous H1 , on a Z B(10, 9/10). Cette distribution est tr`es dissymetrique et a
pour module la valeur 9.
Il est clair que cest lobservation dune valeur e levee de Z qui conduit a`
choisir H1 .
On construit donc un test de H0 contre H1 , unilateral, avec domaine de rejet
a` droite.
On a :
10
1
PH0 (Z = 10) = 21
= 1024

1 10
10
9
PH0 (Z = 9) = C10
= 1024
2
1 10
45
8
PH0 (Z = 8) = C10
= 1024
2
10
1
120
7
PH0 (Z = 7) = C10
= 1024
2
On en deduit :
56
PH0 (Z 8) = 1024
5.47% < 6%
176
PH0 (Z 7) = 1024 17.19% > 6%
Do`u le test : au niveau 6%, lobservation dune valeur de {0, 1, 2, 3, 4, 5, 6, 7}
conduit a` rejeter H0 pour choisir H1
La puissance du test correspond a` la probabilite de choisir H1 avec raison.
Cest donc :
PH1 (Z 8) = PH1 (Z = 8) + PH1 (Z = 9) + PH1 (Z = 10)
 8   2
 8    10
9
1
9
1
9
8
9
= C10
+ C10
+
10
10
10
10
10
 8 

9
45
890
81
=
+
+
10
100 100 100
0.4305 2.16
93%
5. Si T est une variable de loi uniforme sur [0, 2], elle admet pour densite :

t 7 0 , si t 6 [0, 2]
fT :
t 7 21 , si t [0, 2]
et pour fonction de repartition

t 7 0 , si t < 0
t 7 2t , si t [0, 2]
FT :

t 7 1 , si t > 2
bar-hen.net


` VALEURS DANS R2
6. VARIABLES AL EATOIRES
A

189

(a) Soit Fu la fonction de repartition de U . On peut e crire :


Fu (t) = P(U < t) =
=
=
=
=

1 P(U t)
1 P(X t Y t)
1 P(X t)P(Y t) (variables independantes)
1 (1 P(X < t))(1 P(Y < t))
1 (1 FX (t))(1 FY (t))

X et Y ont meme loi que T , on en deduit Fu et fu :

, si t < 0
t 7 0
2
t
FU :
t 7 1 1 2 , si t [0, 2]

t 7 1
, si t > 2
et donc


fU :

t 7 0
t 7 1

t
2

, si t 6 [0, 2]
, si t [0, 2]

(b) Soit FV la fonction de repartition de V . On peut e crire :


FV (t) = P(V < t) = P(X < t Y < t) = P(X < t)P(Y < t) =
FX (t)FY (t) = FT2 (t).
On en deduit FV puis la densite fV :

t 7 0 , si t < 0
2
FV :
t 7 t4 , si t [0, 2]

t 7 1 , si t > 2
et donc


fV :

t 7 0 , si t 6 [0, 2]
t 7 2t , si t [0, 2]

(c) Les variables X et Y ayant meme loi que T , on a :


 2 2
t
t
E(X) = E(Y ) = E(T ) =
dt =
=1
4 0
0 2
 3 2
Z 2 2
t
t
4
2
2
2
E(X ) = E(Y ) = E(T ) =
dt =
=
6 0 3
0 2
4
1
V(X) = V(Y ) = V(T ) = E(T 2 ) E2 (T ) = 1 =
3
3
Z

On en deduit
E(Z) = E(X Y ) = E(X) E(Y ) = 0 (linearite de lesperance)
2
V(Z) = V(X Y ) = V(X) + V(Y ) = (independance des variables)
3
bar-hen.net

190

Solutions

Les variables X et Y e tant independantes, le couple (X, Y ) a pour densite g


telle que g(x, y) = fX (x)fY (y). Do`u :

(x, y) 7 14 , si (x, y) [0, 2]2
g:
(x, y) 7 0 , si (x, y) 6 [0, 2] [0, 2]
Si FZ est la fonction de repartition de Z, on a :
Z Z
FZ (t) = P(X Y < t) =

g(x, y)dxdy

y>xt

Quatre cas sont a` envisager :


t 2 FZ (t) = 0 car g(x, y) = 0 sur le domaine dintegration
2 t 0 FZ (t) =
0 t 2 FZ (t) =

1
4

1
4

12 (2 + t)2 = 12 + 2t + t8

4 12 (2 t)2 = 12 + 2t

t2
8

t 2 FZ (t) = 1
On obtient la densite fZ par derivation :

, si t < 2 ou t > 2
t 7 0
t 7 12 + 4t , si t [2, 0]
fZ :

t 7 12 4t , si t [0, 2]
(d) On a clairement W = |X Y |. Si FW est la fonction de repartition de W ,
on a :
FW (t) = P(W < t) = P(|Z| < t)
Si t 0 FW (t) = P() = 0
Si t > 0, FW (t) = P(t < Z < t) =P(t Z <
 t) = FZ2 (t) FZ (t)
t
t2
1
t
t2
1
Si 0 t 2 FW (t) = 2 + 2 8 2 2 + 8 = t t4
Si t 2 FW (t) = 1
Par derivation, on obtient la densite fW :

t 7 0
, si t 6 [0, 2] ou t > 2
fW :
t 7 1 2t , si t [0, 2]

bar-hen.net

Chapitre 7
Fonctions de plusieurs variables
aleatoires
On consid`ere une experience aleatoire E a` laquelle est associee une variable aleatoire
a` valeurs dans Rn , cest-`a-dire un ensemble de variables aleatoires a` valeurs reelles :
(X1 , X2 , . . . , Xn ).
Si, par une fonction numerique , definie sur lensemble des observables, on fait correspondre a` une realisation (x1 , x2 , . . . xn ) son image z = (x1 , x2 , . . . xn ), on peut dire
que lexperience a entrane lobservation de z et considerer cette valeur z comme une valeur particuli`ere dune variable aleatoire Z. Cette nouvelle variable est dite fonction des
variables aleatoires (X1 , X2 , . . . , Xn ) et on la represente par Z = (X1 , X2 , . . . , Xn ).
Exemple 7.1 A` lexperience E est associe le couple (X, Y ). La realisation de E entrane
lobservation (X = 3 Y = 5)
somme :
moyenne :
difference :
quotient :

La variable
Z =X +Y
Z = 12 (X + Y )
Z =X Y
Z=X
Y

a pris la valeur
z=8
z=4
z = 2
3
5

La connaissance de la loi de probabilite de chacune des variables (x1 , x2 , . . . xn ) ne suffit


pas, sauf dans le cas de lindependance, pour determiner la loi de Z. Il est clair en effet
que lon doit tenir compte de la ponderation de toutes les associations de valeurs possibles
conduisant au meme resultat z. Cest donc seulement a` partir de la loi de la variable, a` valeurs dans Rn , (x1 , x2 , . . . xn ), que lon peut determiner celle de Z = (X1 , X2 , . . . , Xn ).
Le but de ce chapitre est de montrer comment determiner cette loi, dans les cas les plus
usuels, et de donner un certain nombre de resultats generaux.

1 Esperance
Pour faciliter les demonstrations ulterieures, on notera d`es maintenant que, comme pour
les fonctions dune variable aleatoire (cf. chapitre 4), il nest pas necessaire de connatre
191

192

Variable somme

la loi de la variable (X1 , X2 , . . . , Xn ), pour calculer son esperance : la loi de la variable


(X1 , X2 , . . . , Xn ) a` valeurs dans Rn suffit.
` condition que lesperance de la variable Z = (X1 , X2 , . . . , Xn ) existe (probl`emes
A
possible de convergence) :
Si les variables (X1 , X2 , . . . , Xn ) sont discr`etes, il est facile de montrer legalite :
E(Z) =

(x1i , x2j , . . . , xnl )P(X1 = x1i X2 = x2j Xn = xnl ) (7.1)

i,j,...,l

Si la fonction (X1 , X2 , . . . , Xn ) admet une densite g, on a, pour les fonctions raisonnables utilisees dans la pratique (fonctions mesurables) :
Z Z
Z
(7.2)
E(Z) =

(x1 , x2 , . . . , xn )g(x1 , x2 , . . . , xn )dx1 dx2 . . . dxn


Rn

On notera la generalite de ce formalisme. En particulier, pour un couple (X, Y ), de densite g, et des densites marginales f1 (pour X) et f2 (pour Y ), on peut utiliser la fonction
: (x, y) 7 x qui definit la variable X = (X, Y ). On obtient :
Z Z
E(X) =
(x, y)g(x, y)dxdy
2
R
Z Z
=
xg(x, y)dxdy
R2
Z +
Z +
=
xdx
g(x, y)dy

Z +
=
xf1 (x)dx

Variable somme
Soit la variable Z = X + Y . On se propose de determiner sa loi de probabilite a` partir de
celle du couple (X, Y )

2.1

couple de variables discr`etes


Dans ce cas, la determination de la loi de la variable somme est, en general, aisee. Elle
sappuie sur laxiome des probabilite totales. On peut lillustrer sur deux exemples :
Exemple 7.2 (voir exemple 6.1) Soit un couple (X, Y ) dont la loi de probabilite est
donne par le tableau ci-dessous :
X
Y
1
2
3

1
O
1/6
1/6

1/6

1/6

1/6

1/6

0
bar-hen.net

193

7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

On a P(Z = 2) = P(Z = 6) = 0
P(Z = 3) = P(X = 1 Y = 2) + P(X = 2 Y = 1) =

1
1 1
+ =
6 6
3

1 1
1
+ =
6 6
3
1 1
1
P(Z = 5) = P(X = 2 Y = 3) + P(X = 3 Y = 2) = + =
6 6
3
Do`u la loi de Z
P(Z = 4) = P(X = 1 Y = 3) + P(X = 3 Y = 1) =

zi
P(Z = zi )

1/3

1/3

1/3

Exemple 7.3 (voir exemple 6.2) Soit un couple (X, Y ) dont la loi de probabilites est
donne par le tableau ci-dessous :
X
Y
1
2
3

1/9

1/9

1/9

1/9

1/9

1/9

1/9

1/9

1/9

Par le meme raisonnement que dans lexemple precedent, on obtient :


zi
P(Z = zi )

1/9

2/9

3/9

2/9

1/9

On remarque que, bien que les variables X et Y aient meme loi dans les deux cas (voir
chapitre 6), dans un cas il y a independance et dans lautre il y a dependance, do`u la
forme differente de la loi de X + Y .

2.2

Couples de variables a` densite


Soit g la densite dun couple (X, Y ). Pour determiner la loi de la variable Z = X + Y ,
la methode generale est de determiner sa fonction de repartition sur Z. On a
F (t) = P(Z < t)
Z Z
=
g(x, y)dxdy
D

o`u D est le domaine defini par x + y < t.


Dans la pratique le calcul dun telle integrale double est relativement simple.
Par derivation de F , on obtient la densite f de Z.

bar-hen.net

194

Variable somme

Exemple 7.4 On se propose de determiner la densite de probabilite de la somme de deux


variables aleatoires independantes, de meme loi exponentielle de param`etre ( R+ )
La premi`ere variable X a donc pour densite :

x 7 0
, si x < 0
f1 :
x
x 7 e
, si x 0
La deuxi`eme variable Y a pour densite

y 7 0
, si y < 0
f2 :
y 7 ey , si y 0
A` cause de lindependance des deux variables, le couple (X, Y ) a pour densite :

(x, y) 7 0
, si x < 0 ou y < 0
g:
2 (x+y)
(x, y) 7 e
, si x 0 et y 0
Soit Z = X + Y , de fonction de repartition F et de densite f . On a :
F (t) = P(Z < t)
Z Z
g(x, y)dxdy = 0, si t 0
=
D
Z Z
=
2 e(x+y) dxdy, si t > 0 et : {x 0, y 0, x + y < t}
Z t
Z tx
x
=
e dx
ey dy
0
Z0 t

tx
=
ex dx ey 0
0

= 1 et tet
Do`u la fonction de repartition de Z :

t 7 0
, si t < 0
F :
t 7 1 et tet , si t 0
On en deduit la densite de Z :

f:

t 7 0
, si t < 0
t 7 2 tet , si t 0

On peut noter quil est possible de determiner plus directement la densite f de la variable
X + Y , a` partir de la densit
R Re du couple (X, Y ).
Dans lintegrale F (t) =
g(x, y)dxdy, on peut faire le changement de variables :
x+y<t


u=x

v =x+y



1 0
x=u

=1
de Jacobien
y =vu
1 1
bar-hen.net

195

7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

Et donc
Z Z
g(u, v u)dudv
Z +
dv
g(u, v u)du

F (t) =

v<t

Rt
R +
Or F (t) = f (v)dv. On en deduit f (v) = g(u, v u)du.
En remarquant que le changement de variables

u=x+y
v=y
R +
aurait conduit a` f (u) = g(u v, v)dv, on peut conclure que la densite f de la
variable X + Y est donnee par les relations
Z +
Z +
f (t) =
g(x, t x)dx =
g(t y, y)dy
(7.3)

Exemple 7.5 (suite de lexemple 7.4) On aurait pu e crire directement :


Z +
f (t) =
g(x, t x)dx

Or g(x, t x) 6= 0 seulement si x 0 et t x 0 0 x t. Donc


Pour t < 0
Pour t 0

, f (t) = 0
Z t
Z t
2 (x+tx)
2 t
, f (t) =
e
dx = e
dx = 2 tet
0

2.3

Somme de n variables
La determination de la loi de probabilite dune variable somme de n variables aleatoires
(n > 2) se fait en suivant les memes principes que ceux qui viennent detre exposes
pour un couple. Seul le formalisme devient plus complique. On obtient donc le resultat
suivant :
Theor`eme 7.1 Si les variables aleatoires X1 , X2 , . . . , Xn ont des esperances, la somme
de ces variables a pour esperance la somme des esperances de chacune delles.
On va demontrer ce theor`eme dans le cas dun couple (X, Y ) de densite g, de densites
marginales f1 et f2 . La demonstration est similaire pour un couple discret.
On peut les demontrer pour n variables, directement ou, plus simplement, par recurrence.

bar-hen.net

196

Variable somme

On a, dapr`es, lequation 7.2 :


Z Z
(x + y)g(x, y)dxdy
E(X + Y ) =
2
R
Z Z
Z Z
xg(x, y)dxdy +
yg(x, y)dxdy
=
R2
R2
Z +
Z +
Z +
Z +
xdx
g(x, y)dy +
ydy
g(x, y)dx
=

Z +
Z +
=
xf1 (x)dx +
yf2 (y)dy voir chapitre 6

= E(X) + E(Y )
On note que ce resultat suppose seulement lexistence des esperances.
Theor`eme 7.2 Si les variables aleatoires X1 , X2 , . . . , Xn ont des variances et sont independantes,
la somme de ces variables a pour variance la somme des variances de chacune delles.
On va demontrer ce theor`eme dans le cas dune couple (X, Y ) de densite g, de densites
marginales f1 et f2 . La demonstration est similaire pour un couple discret.
La generalisation a` n variables est facile.
On pose E(X) = 1 , E(Y ) = 2 . On remarque que les esperances existent puisque les
variances existent. On a E(Z) = 1 + 2 , dapr`es le theor`eme 7.1.
Dapr`es lequation 7.2, on peut e crire :

V(X + Y ) = E (X + Y 1 2 )2
Z Z
=
(x + y 1 2 )2 g(x, y)dxdy
2
Z ZR
Z Z
2
=
(x 1 ) g(x, y)dxdy +
(y 2 )2 g(x, y)dxdy
2
R2
ZR Z
+2
(x 1 )(y 2 )g(x, y)dxdy
R2
Z +
Z +
Z +
Z +
2
2
=
(x 1 ) dx
g(x, y)dy +
(y 2 ) dy
g(x, y)dx

+ 2Cov(X, Y )
Z

+
2

(x 1 ) f1 (x)dx +

(y 2 )2 f2 (y)dy + 2Cov(X, Y )

Do`u une premi`ere relation generale :


V(X + Y ) = V(X) + V (Y ) + 2Cov(X, Y )

(7.4)

Si les variables sont independantes, alors Cov(X, Y ) = 0 (voir chapitre 6) et le theor`eme


est demontre : V(X + Y ) = V(X) + V(Y ).
Par rapport au theor`eme 7.1, on remarque la necessite de lindependance (ou au moins de
lannulation de la covariance).
bar-hen.net


7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

197

Exemple 7.6 (suite des exemples 7.2 et 7.3) Dans ces deux exemples, les variables X et
Y ont meme loi (voir chapitre 6 : P(X = i) = P(Y = j) = 1/3 pour i, j = 1, 2, 3). On
en deduit :
1
(1 + 2 + 3) = 2
3
2
1
V(X) = V(Y ) =
(1 + 0 + 1) =
3
3
E(X) = E(Y ) =

Dans lexemple 7.2, on a :


1
(3 + 4 + 5) = 4 = E(X) + E(Y )
3
1
2
V(X + Y ) =
(0 + 1 + 0) = 6= V(X) + V(Y )
3
3
E(X + Y ) =

Le theor`eme 7.1 est verifie, mais pas le theor`eme 7.2, a` cause de la dependance entre les
variables.
Dans lexemple 7.3, on a :
1
(2 + 6 + 12 + 10 + 6) = 4 = E(X) + E(Y )
9
1
4
V(X + Y ) = = (4 + 2 + 0 + 2 + 4) = = V(X) + V(Y )
9
3
E(X + Y ) =

Le theor`eme 7.1 est toujours verifie, ainsi que le theor`eme 7.2 a` cause de lindependance
des deux variables
Exemple 7.7 (suite de lexemple 7.4) Les variables X et Y ayant meme loi, on a :
Z +
Z


1 + x
1
x
x +
E(X) = E(Y ) =
xe dx = xe
+
e dx =
0
0

Z0 +
Z +

+ 2
2
E(X 2 ) = E(Y 2 ) =
x2 ex dx = x2 ex 0 +
xex dx = 2
0

0
2
1
1
V(X) = V(Y ) =
2 = 2
2

On en deduit, ce quil est facile de verifier :


2

2
V(X + Y ) = V(X) + V(Y ) = 2

E(X + Y ) = E(X) + E(Y ) =

(theor`eme 7.1)
(theor`eme 7.2, a` cause de lindependance)

Theor`eme 7.3 Si les variables X1 , X2 , . . . , Xn sont des variables normales et independantes,


la somme de ces variables est une variable normale, ayant pour esperance la somme
des esperances de chacune delles et pour variance la somme des variances de chacune
delles.
bar-hen.net

198

Variable somme

La derni`ere partie de ce theor`eme est dej`a donnee par les theor`emes 7.1 et 7.2. Lelement
nouveau concerne la forme de la loi. Ce theor`eme peut se demontrer pour deux variables
puis, par recurrence, pour n variables.
Pour simplifier lecriture, on va demontrer ce theor`eme dans le cas de deux variables
normales centrees et reduites.
Si X N (0, 1) et Y N (0, 1), la loi du couple est donne par la densite
g : (x, y) 7

1 ( 12 (x2 +y2 ))
e
2

Si f est la densite de X + Y , elle est donnee par la relation 7.3 :


Z +
1 ( 12 (x2 +(tx)2 ))
f (t) =
e
dx
2
Do`u
Z +
1
1
2
2
f (t) =
e( 2 (2x 2tx+t )) dx
2
Z + 


2
1
12 (x 2 t )2 + t2
2
e
dx
=
2

 Z + 


1 t42
12 (x 2 t )2
2
=
e
e
dx
2

On change de variable : x 2

t
2

du . On obtient :
= u dx =
2


 Z + 

2
1 t42
du
u2

f (t) =
e
e
2
2

1 t
1
2
= e( 2 ( / 2) )
2 2

Car



2
u2
1
e
dx
2

R +

On a donc
X + Y N (0, 2)

Theor`eme 7.4 (theor`eme de la limite centree)


Soit une suite X1 , X2 , . . . , Xn , . . . de variables aleatoires independantes et de meme
2
loi. On designe par leur esperance
Pn commune et leur variance commune.2 La loi de
probabilite de la variable Sn = i=1 Xi tend vers une loi normale N (n, n ) lorsque
n augmente indefiniment.
Il faut noter que E(Sn ) = n et V(Sn ) = n 2 sont des consequences des theor`emes 7.1
et 7.2.

bar-hen.net


7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

199

On admettra ce theor`eme que lon utilisera plus loin. Il met en e vidence limportance
de la loi normale qui apparat ainsi comme loi asymptotique dans un certain nombre de
mod`eles probabilistes.
Cette convergence en loi permet, si lon dispose dun nombre de variables suffisamment
grand, dutiliser la loi normale comme loi de la variable Sn meme si on ignore la loi
commune des variables Xi . Le seul probl`eme est de savoir a` partir de quand on peut
utiliser cette approximation. Un usage est de choisir n 30. Il est cependant clair que si
la loi des variables Xi secarte beaucoup du mod`ele gaussien, la convergence sera assez
lente : lexemple de la loi binomiale incite a` la prudence.

2.4

Application a` la loi binomiale


Soit une experience aleatoire E constitue de n experiences e1 , e2 , . . . , en identiques et
independantes.
Au cours de chaque experience ei on peut observer un e venement A de probabilite P , ou
son contraire A de probabilite Q = 1 P .
Si Z est la variable qui associe a` E le nombre devenements A que lon peut observer, on
sait que Z suit une loi binomiale B(n, P ).
Supposons maintenant qu`a chaque experience ei , on associe une variable Xi qui prend
la valeur 1 si A se realise ou la valeur 0 si A ne se realise pas. Une telle variable sappelle
lindicatrice de levenement A.
On a :
P(Xi = 1) = P(A) = P
P(Xi = 0) = P(A) = Q = 1 P
On en deduit :
E(Xi ) = 1P + 0Q = P
V(Xi ) = (1 P )2 P + (0 P )2 Q = QP (P + Q) = P Q
La variable Z appara
Pt alors comme une variable somme de n variables independantes et
de meme loi : Z = ni=1 Xi
On deduit du theor`eme 7.1 :
E(Z) =

n
X

E(Xi ) = nP

i=1

On deduit du theor`eme 7.2 :


V(Z) =

n
X

V(Xi ) = nP Q

i=1

Enfin le theor`eme de la limite centree permet decrire, pour n suffisamment grand :


Z N (nP, nP Q)
bar-hen.net

200

Variable difference

2.5 Generalisation : combinaisons lineaire de variables


` un ensemble de variables aleatoires (X1 , X2 , . . . , Xn ), a` valeurs reelles, on peut plus
A
generalement associer un variable :
Z = 1 X1 + 2 X2 + + n Xn

i R

On supposera, par la suite, lexistence de lesperance et de la variance de chacune des


variables.
Le theor`eme 7.1 permet decrire :
E(1 X1 + 2 X2 + + n Xn = E(1 X1 ) + E(2 X2 ) + + E(n Xn )
et dapr`es le theor`eme 4.2 :
E(1 X1 + 2 X2 + + n Xn = 1 E(X1 ) + 2 E(X2 ) + + n E(Xn )

(7.5)

Si les variables sont independantes, le theor`eme 7.2 permet decrire :


V(1 X1 + 2 X2 + + n Xn = V(1 X1 ) + V(2 X2 ) + + V(n Xn )
et dapr`es le theor`eme 4.2 :
V(1 X1 + 2 X2 + + n Xn = 12 V(X1 ) + 22 V(X2 ) + + n2 V(Xn )

(7.6)

Si enfin les variables X1 , X2 , . . . , Xn sont des variables normales et independantes, les


variables 1 X1 , 2 X2 , . . . , n Xn sont independantes et normales dapr`es le theor`eme 4.1.
Le theor`eme 7.3 permet daffirmer que la variables Z = 1 X1 + 2 X2 + + n Xn
est encore une variable normale dont lesperance et la variance sont donnees par les relation 7.5 et 7.6
Ces quelques remarques ne sont pas exhaustives. On ne doit pas oublier que, quelle que
soit la loi dune variable Xi , on sait determiner la loi de la variable i Xi (multiplication
par une constante, voir chapitre 4) ; on peut donc envisager dautres mod`eles.

3 Variable difference
Soit un couple (X1 , X2 ) et soir la variable Z = X1 X2 . Une telle variable est utilisee
dans certains tests. On peut considerer Z comme une combinaison lineaire de X1 et X2
avec les coefficients +1 et 1.
On peut donc e crire, en posant E(X1 ) = 1 , E(X2 ) = 2 , V(X1 ) = 12 , V(X2 ) = 22 et
en appliquant les resultats precedents :
E(X1 X2 ) = E(X1 ) E(X2 ) = 1 2
Dans le cas de lindependance :
V(X1 X2 ) = V(X1 ) + V (X2 ) = 12 + 22
Dans le cas de variables normales et independantes :
X1 X2 N 1 2 , 12 + 22


bar-hen.net

201

7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

4 Variable moyenne
` un ensemble (X1 , X2 , . . . , Xn ) de n variables a` valeurs reelles, on peut associer la
A
P
variable m = n1 ni=1 Xi appelee variable moyenne. En fait cette variable est obtenue en
multipliant la variable somme par la constante N1

4.1

Cas dun n-echantillon


Un cas particulier tr`es important dans la pratique est celui o`u les n variables sont independantes
et de meme loi.
PnOn parle alors dun n-echantillon et on designera la moyenne par le sym1
bole X = n i=1 Xi .
On appellera moyenne empirique la valeur prise par X lorsque
P lexperience est realisee ;
il sagit de la moyenne arithmetique des observations x = n1 ni=1 Xxi .
La variable X peut e tre consideree comme une combinaison lineaire des observation Xi
avec des coefficients tous e gaux a` n1 . Comme les variables Xi ont meme loi, on pose pour
tout i : E(Xi ) = i et V(Xi ) = i2 , et on deduit des formules 7.5 et 7.6 :

P
E(X)= n1 ni=1 E(Xi ) = n1 n =
P
(7.7)
2
V(X)= n12 ni=1 V(Xi )= n12 n 2 = n
La variable X a donc pour esperance lesperance dune variable mais elle est beaucoup
moins dispersee.
2
Il resulte du
 the2or`
eme 7.3 que si les variables Xi suivent une loi N (, ), alors X suit
une loi N , n .
Enfin, meme si on ignore la loi suivie par les variables Xi , le theor`eme central limite
(combine avec letheor`eme 4.1) permet daffirmer que la loi asymptotique de la variable
2
X est une loi N , n ; en fait cette loi est utilisee pratiquement pour n 30.
On comprend ainsi linteret de la variable X pour construire des tests dhypoth`eses
concernant le param`etre .

4.2

Application a la loi binomiale


On a parle precedemment de la variable Z, obeissant a` une loi B(n, P ), associant a`
lexperience E le nombre devenements A que lon peut observer. On a vu que cette
variable pouvait e tre consideree comme la somme de n variables indicatrices Xi .
Soit maintenant la variable Z/n associant a` E la proportion devenements A que lon peut
observer sur les n resultats. On a :
n

Z
1X
=
Xi = X
n
n i=1
Cette variable est la moyenne de n variables independantes de de meme loi. On en deduit
E(X) = E(Xi ) = P ; V(X) =
bar-hen.net

V(Xi )
PQ
=
n
n

202

Variable produit

Enfin, pour n suffisamment grand, on aura



XN

PQ
P,
n

Exemple 7.8 Soit X une variable normale desperance et de variance . On se propose de construire au niveau de 5%, a` partir de la moyenne de 10 variables, independantes
et de meme loi que X, un test de lhypoth`ese = 100 contre lhypoth`ese = 90 et de
calculer la puissance de ce test.
Soit X la moyenne de 10 variables
independantes de loi N (, ).


On en deduit X N , 10
Sous H0 : X N (100, 10)
Sous H1 : X N (90, 9)
Les faibles valeurs de X e tant plus probables sous H1 que sous H0 , on construit un test
unilateral avec domaine de rejet de H0 a` gauche. Au niveau 5% les valeurs
qui conduisent
a` rejeter H0 sont les valeurs de X inferieures ou e gales a` : 1001.645 10 94.8. Do`u
le test : si on observe une valeur de X superieure a` 94.8 on choisit H0 ; si on observe
une valeur de X inferieure ou e gales a` 94.8, on choisit H1 .
La puissance du test est la probabilite de choisir H1 avec raison. Soit Z N (0, 1). On
a:


94.8 90

= PH1 (X 94.8) = P Z
= P(Z 1.60) 94.52%
9

5 Variable produit
Soit (X, Y ) un couple de variables aleatoires a` valeurs reelles. La variables Z = XY est
la variable produit de X et Y . La determination de la loi de Z, dans le cas dun couple
discret, ne presente pas plus de difficultes que dans le cas dun couple de densite g. Si F
et f sont respectivement la fonction de repartition et la densite de Z, on a :
Z Z
F (t) = P(Z < t) =
g(x, y)dxdy
D

o`u D est defini par xy < t.


On effectue le changement de variables :


u=x
x=u

de Jacobien
v = xy
y = uv


1
v
2
u


0 1
1 =
u
u

On en deduit :

v  1
F (t) =
g u,
dudv
u u
v<t
Z t
Z +
1
v
=
dv
g(u, )du
u

|u|
Z Z

bar-hen.net

203

7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

R +


u, ut du, que lon e crit :




Z +
Z +
1
t
1
t
f (t) =
g x,
dx =
g y,
dy
x
y
|x|
|y|

u = xy
La deuxi`eme e galite provenant du changement de variables :
v=y
Do`u f (t) =

1
g
|u|

(7.8)

Theor`eme 7.5 Si les variables aleatoires X1 , X2 , . . . , Xn admettent des esperance et


sont independantes, le produit de ces variables a pour esperance le produit des esperances
de chacune delles.
On va demontrer ce theor`eme dans le cas dun couple (X, Y ) de densite g, de densites
marginales f1 et f2 . La demonstration pour un couple discret et la generalisation a` n
variables est aisee.
On a, dapr`es 7.2 :
Z Z
E(XY ) =
xyg(x, y)dxdy
2
R
Z Z
xyf1 (x)f2 (y)dxdy
= =
R2
Z +
Z +
=
xf1 (x)dx
yf2 (y)dy

= E(X)E(Y )

Variable quotient
Soit (X, Y ) un couple de variables aleatoires a` valeurs reelles. On peut lui associer la
.
variable quotient Z = X
Y
Les lois de Student et de Fisher-Snedecor sont definies a` partir de variables quotient.
Comme plus haut, a` titre dentranement, on va determiner la densite Z dans le cas dun
couple de densite g. Si F et f sont respectivement la fonction de repartition et la densite
de Z, on a :

 Z Z
X
F (t) = P
<t =
g(x, y)dxdy
Y
D
o`u D est defini par xy < t.
On effectue le changement de variables :




v u
u = xy
x = uv
=v

de Jacobien
y=v
0 1
v=y
On en deduit :
Z Z
F (t) =

g (uv, v) |v| dudv


Z +
du
|v|g(uv, v)dv

vu<t

bar-hen.net

204

Do`u f (t) =

Variable variance

R +

|v|g(tv, v)dv, que lon e crit :


Z

|y|g(ty, y)dy

f (t) =

(7.9)

7 Variable variance
Soit un ensemble (X1 , X2 , . . . , Xn ) de variables aleatoires, a` valeurs dans R, independantes
et de meme loi.
P
` un tel n-echantillon on a dej`a associe la variable X = 1 n Xi , la realisation dune
A
i=1
n
P
experience entrane lobservation dune valeur x = n1 ni=1 xi , moyenne empirique des
mesures.
On peut e galement associer a` ce n-echantillon la variable variance definie par :
n

S2 =

1X
(Xi X)2
n i=1

La realisation
erience (n mesures) entrane lobservation dune valeur de S 2 :
Pn dune exp
1
2
2
s = n i=1 (xi x) appelee variance empirique des mesures.
La variable S 2 , ainsi dailleurs que la variable X, sera souvent utilisee par la suite. On
peut remarquer quelle peut secrire :
n

1X 2
2
=
(Xi 2Xi X + X )
n i=1
=

n
n
1 X 2 2X X
1
2
Xi
Xi + nX
n i=1
n i=1
n
n

1X 2
2
2
=
Xi 2X + X
n i=1
n

1X 2
2
=
Xi X
n i=1
La determination de la loi de S 2 sera developpee ulterieurement. Cependant on a assez
delements pour determiner son esperance :
" n
#
X
1
E(S 2 ) = E
X2 X
n i=1 i
Or en posant E(Xi ) = et V(Xi ) = 2 , on a E(Xi2 ) = 2 + 2
2
Et E(X) = et V(X) = 2/n, on a E(X ) = 2 + 2/n
(on utilise le fait que pour toute variable Y : V(Y ) = E(Y 2 ) E2 (Y ))

bar-hen.net


7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

205

Il en resulte
n

E(S ) =
=
=
=

1X
2
E(Xi2 ) E(X )
n i=1


2
1
2
2
2
n( + ) +
n
n


1
2 1
n
n1 2

(7.10)

8 Inegalite de Schwarz
Soit (X, Y ) un couple de variables aleatoires a` valeurs reelle. On definit la variable Z =
X + Y , avec R. On a :


E (X + Y )2 = E(X 2 + 2 Y 2 + 2XY ) = 2 E(Y 2 ) + 2E(XY ) + E(X 2 )
Il est clair que E [(X + Y )2 ] 0, R ce qui implique que le discriminant du
trinome du second degre en est forcement negatif ou nul. Do`u 0 = E2 (XY )
E(X 2 )E(Y 2 ) 0 ; et donc :
p
|E(XY )| E(X 2 )E(Y 2 )
(7.11)

8.1 Applications
On peut appliquer linegalite de Schwarz au couple (X 0 , Y 0 ) o`u X 0 et Y 0 sont les variables
centrees X 0 = X X , Y 0 = Y Y :
q
0 0
|E(X Y )| E(X 0 2 )E(Y 0 2 )
2
Si on remarque que E(X 0 Y 0 ) = Cov(X, Y ), E(X 0 2 ) = X
et E(Y 0 2 ) = Y2 , on obtient :


Cov(X, Y )


X Y 1

Do`u la propriete du coefficient de correlation de X et Y (voir chapitre 4) :


1 XY +1
On note que |XY | = 1 correspond au cas 0 = 0 ; il existe alors une valeur 0 (racine
double du trinome du second degre en ) telle que E([(X 0 + Y 0 )2 ] = 0, ce qui signifie
que la seule observable de la variable X 0 + 0 Y 0 est la valeur 0. On en deduit X 0 = Y 0 ,
cest-`a-dire
X = X 0 (Y Y )
X et Y sont liees par une relation fonctionnelle lineaire (voir chapitre 4).
bar-hen.net

206

Exercices

9 Exercices
1. On designe par X et Y deux variables aleatoires independantes, ayant chacune une
loi de Poisson de param`etres respectifs et .
(a) Calculer la loi de la variable Z = X + Y
(b) Determiner la loi conditionnelle de X sachant que Z = n.
2. On consid`ere deux variables aleatoires X et Y , independantes, a` valeurs dans R, et
de densites de probabilite respectives :

x 7 0
, si x < 0
fX :
x
x 7 e
, si x 0

y 7 0
, si y < 0
fY :
y 7 ey , si y 0
o`u et sont deux param`etres reels strictement positifs.
(a) Soit la variable aleatoire U = Y + X. Calculer lesperance et la variance de
U , puis determiner sa densite de probabilite ;
(b) Soit la variable aleatoire V = Y X. Calculer lesperance et la variance de
V , puis determiner sa densite de probabilite.
3. Soit (X, Y ) un couple de variables aleatoires a` valeurs reelles. Demontrer la relation : Cov(X, Y ) = E(XY ) E(X)E(Y ).
4. On consid`ere deux variables aleatoires a` valeurs reelles, X et Y , independantes et
de meme loi ; cette loi est definie par la densite de probabilite :

t 7 0 , si t < 0
f:
t 7 et , si t 0
On definit les variables aleatoires U = 21 (X + Y ) et V = 12 (X Y )
(a) Calculer lesperance et la variance de U et de V .
(b) Determiner la densite de probabilite de U .
(c) Determiner la densite de probabilite de V .
5. Soit (X, Y ) un couple de variables aleatoires a` valeurs reelles, de densite de probabilite :

(x, y) 7 2 (1 x2 y 2 ) , si (x, y) D
g:
(x, y) 7 0
, si (x, y) 6 D
o`u D est defini par : x2 + y 2 1
(a) Calculer, a` partir de g(x, y), lesperance et de la variance de X. En deduire
lesperance et la variance de Y .
(b) Determiner les densites de probabilites de X et de Y .
(c) Calculer la covariance de X et Y . Ces variables sont-elles independantes ?

bar-hen.net


7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

207

(d) Soit la variable aleatoire Z = X 2 +Y 2 . Calculer son esperance et determiner


sa densite de probabilite.
6. Vous avez a` decider si la concentration dun certain produit est plus e levee dans
une solution A que dans une solution B. Des dosages, effectues a` cet effet, ont
donne les resultats suivants :
Solution A : 12.8 ; 13.1 ; 13.3 ; 13.6 ; 13.8 ; 14.1 mg/litre
Solution B : 11.8 ; 12.2 ; 13.2 ; 13.4 mg/litre
On admet que le resultat dun dosage est la valeur dune variable aleatoire normale
dont lesperance est la concentration du produit dans la solution choisie et dont
lecart-type, pour la technique experimentale utilisee, est e gal a` 0.6 mg/litre. On
admet e galement que tous les dosages sont effectues de mani`ere independante.
Donnez votre conclusion a` partir dun test, soigneusement justifie, utilisant les
moyennes des deux series de resultats.
` quelle conclusion conduirait un test de la somme des rangs ?
A
7. Soit X une variable aleatoire desperance et de variance 2 = . En utilisant la
moyenne de n variables independantes et de meme loi que X, on veut construire un
test de lhypoth`ese H0 : = 64 contre lhypoth`ese H1 : = 49 avec la condition
suivante : les risque de premi`ere esp`ece et de deuxi`eme esp`ece sont e gaux et valent
au plus 1%.
Quelle est la plus petite valeur quil faut donner a` n ? Preciser, pour cette valeur, le
niveau et la puissance du test ainsi que les intervalles dacceptation et de rejet de
H0 .
` une experience E sont associees deux variables aleatoires X et Y , a` valeurs
8. A
reelles, independantes.
X est de loi N (a, (0.4)2 ) et Y de loi N (b, (0.3)2 ). Construire, au niveau 5%, un
test de lhypoth`ese H0 : a = b contre lhypoth`ese H1 : a < b, a` partir dun
ensemble de 100 experiences independantes et identiques a` E. Calculer la puissance
de ce test dans le cas o`u lhypoth`ese alternative secrit : H1 : a = 0.15
9. Soit X une variable aleatoire, a` valeurs reelles, qui suit une loi exponentielle de
param`etre ; on rappelle que X admet pour esperance 1/ et pour variance 1/2 .
En utilisant la moyenne de 400 variables independantes et de meme loi que X,
construire, au niveau 1%, un test de lhypoth`ese H0 : = 2 contre lhypoth`ese
H1 : = 2.5.
Calculer la puissance de ce test.
10. On designe par Zn une variable aleatoire definie comme la somme des carres de n
variables normales, centrees, reduites et independantes.
(a) Demontrer que Zn a pour esperance n et pour variance 2n.
(b) Determiner la densite de probabilite de la variable Z2 .
(c) Determiner la densite de probabilite de la variable Z4 .

bar-hen.net

208

10

Solutions

Solutions
1. Soit Z = X + Y . On a clairement Z() = N
(a) (Z = n) = (X + Y = n) = (XS = 0 Y = n) (X = 1 Y =
n 1) (X = n Y = 0) = nk=0 [(X = k) (Y = n k)]
Les differentes e ventualites e tant incompatibles, on peut e crire :
P(Z = n) =

n
X

P[(X = k) (Y = n k)]

k=0

Lindependance de X et Y implique :
P(Z = n) = sumnk=0 P(X = k)P(Y = n k)
n
X
k
nk
=
e e
k!
(n k)!
k=0
(+)

= e

(+)

n!

= e(+)

n
X
k=0
n
X
k=0

1
k nk
k!(nk )!
n!
k nk
k!(nk )!

( + )n
n!

Z suit une loi de Poisson de param`etre +


(b) n N : P(X = k|Z = n) = P[(X=k)(Z=n)]
P(Z=n)
Il convient de remarquer que P[(X = k) (Z = n)] = P[(X = k) (Y =
n k)]. Lindependance des variables X et Y permet alors decrire :

P[(X = k) (Z = n)] = P(X = k)P(Y = n k) = e

k!

nk
(n k)!

Finalement :
n!
e k e nk
e(+) ( + )n k!(n k)!
k nk
= Cnk
( + )n

k 
nk

k
= Cn
( + )
( + )



La loi conditionnelle de (X|Z = n) est donc une loi B n, (+)


P(X = k|Z = n) =

bar-hen.net

209

7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

2. On reconnat deux lois exponentielles de param`etres respectifs et .


1 1
+

1
1
V(U ) = V(X) + V(Y ) = 2 + 2 car variables independantes

1
1
E(V ) = E(X) E(Y ) =

1
1
V(V ) = V(X) + V(Y ) = 2 + 2 car variables independantes

E(U ) = E(X) + E(Y ) =

(a) On determine la fonction de repartition Fu


Z Z
Fu (t) = P(U < t) = P(X + Y < t) =

g(x, y)dxdy
y<tx

Les variables e tant independantes g(x, y) = fx (x)fy (y) donc :



g(x, y) = ex ey , si x > 0 et y > 0
g(x, y) = 0
, si x 0 ou y 0
On en deduit :
FU (t) = 0 si t 0 car g(x, y) = 0 sur le domaine dintegration
Z Z

ex ey dxdy pour t > 0


Z t
Z tx
x
=
e dx
ey dy
0
Z0 t


=
ex 1 et+x dx
Z0 t
Z t
x
t
=
e dx e
ex() dx

FU (t) =

Premier cas : =
Fu (t) = 1 et tet
Do`u la densite :

fU :

t 7 0
, si t 0
t 7 2 tet , si t > 0

Deuxi`eme cas : 6=
t  x() t
e
e
0

t
t
= 1 et
e +
e

et et
= 1+

Fu (t) = 1 et

bar-hen.net

210

Solutions

Do`u la densite :

fU :

t 7 0
 , si t 0

t 7
et et , si t > 0

(b) On cherche a` determiner la fonction de repartition FV


Z Z
FV (t) = P(V < t) = P(X Y < t) =

g(x, y)dxdy

y>xt

On distinguera deux cas :


t0
Z Z

ex ey dxdy
D
Z +
Z y+t
y
=
e dy
ex dx
0
Z0 +


=
ey 1 e(y+t) dy
Z0 +
Z +
y
t
=
e dy e
ey(+) dy

FV (t) =

= 1 + et

y(+)

+

+
t
= 1
e
+

t0
Z

FV (t) =

e
Z0 +

Z
dy

y+t

ex dx



=
ey 1 e(y+t) dy
Z0 +
Z +
y
t
=
e dy e
ey(+) dy
0

0

y(+) +

 y +
t e
e
+
e
t

t+(+)t
= et
e
+



t
= e
1
+
t
=
e
+

bar-hen.net

211

7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

Do`u la densite :
(
fV :

t 7
t 7

t
e
+
t
e
+

, si t < 0
, si t 0

3.
Cov(X, Y ) =
=
=
=
=

E[(X X )(Y Y )]
E(XY X Y Y X + X Y )
E(XY ) X E(Y ) Y E(X) + X Y
E(XY ) X Y Y X + X Y
E(XY ) E(X)E(Y )

Si les variables sont independantes E(XY ) = E(X)E(Y ) et donc Cov(X, Y ) = 0


4.

(a)
Z


+
tet dt = tet et 0 = 1

0
Z +
Z +
Z +
 2 t +
2
2
2
2 t
E(X ) = E(Y ) =
t f (t)dt =
t e dt = t e 0 +
tf (t)dt = 2
E(X) = E(Y ) =

tf (t)dt =

V(X) = V(Y ) = E(X 2 ) E2 (X) = 1


On en deduit :

1
1
E(X + Y ) =
E(U ) = E (X + Y ) =
2
2


1
1
E(V ) = E (X Y ) =
E(X Y ) =
2
2

1
(E(X) + E(Y )) = 1
2
1
(E(X) E(Y )) = 0
2

Et puisque les variables sont independantes :




1
1
V(U ) = V (X + Y ) =
V(X + Y ) =
2
4


1
1
V(V ) = V (X Y ) =
V(X Y ) =
2
4

1
1
(V(X) + V(Y )) =
4
2
1
1
(V(X + V(Y )) =
4
2

(b) Soit g(x, y) la densite du couple (X, Y ). On aura, a` cause de lindependance


des variables :
 xy
e
, si x > 0 et y > 0
g(x, y) =
0
, si x 0 ou y 0
Soit FU la fonction de repartition de U .
RR
FU (t) = P(U < t) = P(X + Y < 2t) =
g(x, y)dxdy.
x+y<2t
On en deduit : Fu (t) = 0 si t 0 et, pour t > 0
bar-hen.net

212

Solutions

R 2t
R 2tx y
R 2t
R 2t
FU (t) = 0 ex dx 0
e dy = 0 ex dx [1 e2t+x ] = 0 ex dx
R 2t 2t
e dx = 1 e2t 2te2t .
0
Do`u la densite :

t 7 0
, si t 0
fU :
2t
t 7 4te
, si t > 0
(c) Soit FV la fonction de repartition de V . On a :
RR
FV (t) = P(V < t) = P(X Y < 2t) =
g(x, y)dxdy.
y>x2t
Pour t 0, on a :
R +
R y+2t x
R +
R +
FU V (t) = 2t ey dy 0
e dx = 2t ey [1 ey2t ] dy = 2t ey dy+
h y i+
R +
+
= e2t 21 e2t = 12 e2t
e2t 2t e2y dy = [ey ]2t + e2t e 2
2t

Sit > 0, on a :
R +
R y+2t x
R +
R +
FV (t) = 0 ey dy 0
e dx = 0 ey dy + e2t 0 e2y dy =
h 2y i+
1 + e2t e2
= 1 12 e2t
0

Do`u la densite :

t 7 e2t , si t 0
t 7 e2t , si t > 0
R 2
R1
RR
RR 2
(a) On a : E(X) =
xg(x, y)dxdy =
x(1x2 y 2 )dxdy = 2 0 cos()d 0 r2 (1

R2h
D
i1
r3
r5
r2 )dr = 2 [sin()]2

=0
0
3
5
0
RR
RR 2 2
R 2
R1
E(X 2 ) =
x2 g(x, y)dxdy =
x (1x2 y 2 )dxdy = 2 0 cos2 ()d 0 r3 (1

R2
D
h 4
i1
h
i2
R 2
sin(2)
r
r6
1
1
1
r2 )dr = 2 0 1+cos(2)
d

+
12
= 2
12
= 16
2
4
6

fV :

5.

1
6

V(X) = E(X ) E (X) =


De toute e vidence E(Y ) = E(X) = 0 et E(Y 2 ) = E(X 2 ) = V(X) =
V(Y ) = 16 .
Le changement de x en y dans le calcul de E(X) et E(X 2 ) ne doit pas changer le resultat a` cause de la symetrie du domaine D et de g(x, y) par rapport
a` la premi`ere bissectrice.
R +
(b) On a fX (x) = g(x, y)dy = 0. Do`u :
fX (x) = 0 si x 1 ou x 1
R 1x2 2
et fX (x) = 1x2 (1 x2 y 2 )dy si 1 x 1.
h
i1x2
3
y3
8
2
2
= 3
(1 x2 ) /2
On obtient dans ce cas : fX (x) = (1 x )y 3
1x2

Par symetrie, on obtient la meme densite pour Y . X et Y ont donc meme loi
definie par :

t 7 0
, si t 1 ou t 1
f:
8
2 3/2
t 7 3 (1 x ) , si 1 t 1

bar-hen.net


7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

213

(c) Par definition Cov(X, Y ) = E[(X X )(Y Y )]. On a ici Cov(X, Y ) =


E(XY ). Do`u :
Z Z
Cov(X, Y ) =
xyg(x, y)dxdy
D
Z Z
2
=
xy(1 x2 y 2 )dxdy

ZD
Z 1
2 2
=
cos sin d
r3 (1 r2 )dr
0
0
 2 2  4
1
2 sin
r
r6
=

=0

2
4
6 0
0
Les variables ne sont cependant pas independantes puisque sur R2 , g(x, y) 6=
fX (x)fY (y)
(d) On a E(Z) = E(X 2 + Y 2 ) = E(X 2 ) + E(Y 2 ) = 16 + 16 = 13
Soit H la fonction de repartition de Z. On a H(t) = P(Z < t) = P(X 2 +
Y 2 < t).
Il est clair que pour t 0, on aura H(t) = 0 et pour t > 1, H(t) = 1.
Pour 0 < t < 1, on obtient :
h 2
i t
RR
R
R1
2 2
r
r4
2
H(t) =
g(x, y)dxdy = 0 d 0 (1r )rdr = 4 2 4
=
x2 +y 2 <t
2t t2 .
Finalement :

, si t 0
t 7 0
2
t 7 2t t , si 0 t 1
H:

t 7 1
, si t 1

et par derivation :

h:

t 7 0
, si t 0 ou t 1
t 7 2 2t , si 0 t 1

6. Soit X N (A ; 0.36) la variable aleatoire associee a` un dosage de A et X la


moyenne de 6 de ces variables independantes.

On a X N A , 0.36
6
Soit Y N (B ; 0.36) la variable aleatoire associee a` un dosage de B et Y la
moyenne de 4 de ces variables independantes.

On a Y N B , 0.36
4

0.36
On en deduit : X Y N A B , 0.36
+
=
0.15
6
4
On teste H0 : A = B contre H1 : A > B .
Sous H0 : X Y N (0, 0.15)
Sous H1 : X Y N ( > 0, 0.15).
On construit un test unilateral avec domaine de rejet de H0 a` droite :
bar-hen.net

214

Solutions

Soit a la borne inferieure du domaine de rejet de H0 . Au niveau 5%, a = 1.645 0.15 =


0.6371
Donc si x y < 0.6371 on ne rejette pas H0 et si x y > 0.6371 on rejette H0 .
Ici x = 13.45 et y = 12.65 donc x y = 0.8 donc on choisit H1 . Il y a une
concentration plus e levee dans A.
Test de la somme des rangs
Soit H0 : les variables X et Y ont la meme loi contre H1 : les variables Y ont une
loi qui favorise les valeurs plus faibles que celles de X.
On va classer les observations par valeurs croissantes et on choisit la variable W ,
somme des rangs des dosages provenant de B.
Sous H0 , W a une loi en cloche symetrique sur {10, 11, 12, . . . , 32, 33, 34}.
Sous H1 , W a tendance a prendre des valeurs plus proches de 10. On construit donc
un test unilateral avec domaine de rejet H0 a` droite. Au niveau 5%, ce domaine de
rejet est {10, 11, 12, 13, 14}.
On a observe : BBAABABAAA donc w0 = 1 + 2 + 5 + 7 = 15. Les dosages ne
permettent pas de rejeter H0 .


P
2
7. Soit X = n1 ni=1 Xi . X N , n

Sous H0 : = 2 = 64 , X N 64, 64
n 
Sous H0 1 : = 2 = 49 , X N 49, 49
n
Pour tester H0 contre H1 , on est amene a` construire un test bilateral avec domaine
de rejet H0 a` gauche. Soit a la borne superieure du domaine de rejet de H0 . On
peut determiner a de mani`ere a` ce que :
= PH0 (X a) = = PH1 (X a) avec et plus petit que 1%.

On aura donc a = 64 8n = 49 + 87 n avec 2.326 (loi normale centree


reduite au seuil 1%) .

Donc 15n = 15 = n
2.326 n 5.41. On choisit donc n = 6.

Pour n = 6, = 6 2.4495 = 0.71% et donc la puissance =


1 99.29%.
a = 64 8 = 49 + 7 = 56. Do`u le test :
Si x 56, on choisit H1 .
Si x > 56, on choisit H0 .
8. On consid`ere la variable aleatoire Z = Y X. Z N (b a, 0.52 ) puisque X et
Y sont independantes.
P100
1
Soit Z = 100
 i=1 Zi . Les Zi e tant independantes et de meme loi on a Z
2

N b a, 0.5
.
100

On teste H0 : a = b, Z N (0, 0.052 ) contre H1 : a < b, Z N ( > 0, 0.052 ).


Cest donc un test unilateral avec domaine de rejet H0 a` droite.
Si Z u, on rejette H0 ; si Z < u, on accepte H0 . Au niveau 5% on a u =
1.645 0.05 = 0.0825.
bar-hen.net


7. F ONCTIONS DE PLUSIEURS VARIABLES AL EATOIRES

215

Si, sous H1 , b a = 0.15, on a





0.0825

0.15
= PH1 (Z 0.0825) = P Z
= P Z 1.355 91.23%
0.05
9. Soit X la moyenne de 400 variables independantes et de meme loi que X. Deux
resultats fondamentaux vont e tre utilises :
E(X) = E(X) = 1/
1
1
V(X) =
V(X) =
n
n2
On peut enfin, dapr`es le theor`eme de la limite centrale et vu la taille de lechantillon,
considerer que X suit approximativement un loi normale.

1
Sous H0 , X N 0.5, 1600

1
.
Sous H1 , X N 0.4, 2500
On est donc amene a` construire un test unilateral avec domaine de rejet de H0 a`
gauche. La borne superieure a du domaine de rejet est donnee, au niveau 1%, par
a = 0.5 2.326
.
40
Do`u le test : si x 0.44185, on rejette H0 si x > 0.44185, on accepte H0 .
La puissance de ce test est donne par = PH1 (X 0.44185)
Si T est la variable normale
 reduite associee a` X, on obtient
0.441850.40
=P T
= P(T 2.0925) 98.18%
1/
50

10. Definition 7.1 On appelle loi du chi-deux a` n degres de liberte (n N ), la loi


suivie par une variable aleatoire Zn definie comme la somme des carres de n
variables normales centrees reduites et independantes.
Si (X1 , X2 , . . . , Xn ) est un n-echantillon de variables N (0, 1), on a donc :Zn =
X12 + X22 + + Xn2 .
On note : Zn 2n
Les lois du chi-deux sont a` la base des mod`eles gaussiens que nous e tudierons dans
le chapitre 9.
Il est clair que Zn () = R+ . Si Fn et fn sont respectivement la fonction de
repartition et la densite de Zn , on a :
t 0, Fn (t) = P(Zn < t) = P() = 0 fn (t) = 0
On rappelle que si G et g represente la fonction de repartition et la densite dune
variable N (0, 1).

2
Pour
t
>
0,
F
(t)
=
P(Z
<
t)
=
P(X
<
t)
=
P(
t
<
X
<
t) =
1
1
1
1

G( t) G( t).

1
1
1

Et donc f1 (t) = 2
g(
t)
+
g(
t)
=
g(
t), puisque g est paire.
t
2 t
t
La loi du chi-deux a` un degre de liberte est definie par la densite :
(
t 7 0
, si t 0
f1 :
1
t/2

t 7 2t e
, si t > 0
bar-hen.net

216

Solutions

(a) Si X N (0, 1), E(X) = 0, V(X) = 1 et E(X 2 ) = V(X) + E2 (X) = 1.


1
E(X ) =
2
4

t
t4 e /2 dt

Z +
1 h 3 t2/2 i+
3
t2
=
t e
+
t2 e /2 dt = 0+3E(X 2 )

2
2

Soit Z1 = X12 , on a E(Z1 ) = E(X12 ) = 1.


V(Z1 ) = V(X12 ) = E(Z12 ) E2 (Z1 ) = E(X14 ) E2 (X12 ) = 3 1 = 2
P
P
Plus generalement E(Zn ) = E ( ni=1 Xi2 ) = ni=1 E (Xi2 ) = nE(X12 ) = n
P
P
V(Zn ) = V ( ni=1 Xi2 ) = ni=1 V (Xi2 ) = nV(X12 ) = 2n
(b) Le couple (X1 , X2 ) de variables independantes a pour densite h telle que
1 12 (x21 +x22 )
h(x1 , x2 ) = 2
e
dx1 dx2 .

Le domaine C est un cercle de centre O et de rayon t.


R 2 R t r2/
1
Le passage
en coordonnees polaires donne : F2 (t) = 2 0 d 0 e 2 rdr =
h 2 it
t
r
= 1 e /2 .
e /2
0

La loi du chi-deux a` deux degres de liberte est definie par la densite :



t 7 0
, si t 0
f2 :
1 t/2
t 7 2 e
, si t > 0
Cest aussi une loi exponentielle de param`etre 1/2
(c) Z4 = X12 + X22 + X32 + X42 = U + V o`u U et V sont deux variables
independantes et de densite f2 . Le couple (U, V ) a donc pour densite :

(u, v) 7 0
, si u 0 ou v 0
l:
1 12 (u+v)
, si u > 0 et v > 0
(u, v) 7 4 e
Pour t > 0, on a :
Z Z
F4 (t) = P(Z4 < t) = P(U +V < t) =

Z Z
l(u, v)dudv =

1 1 (u+v)
e 2
dudv
4

o`u D = {(u, v) R2 |u + v < t} et = {(u, v) R2 |u + v < t, u > 0, v >


0}.
 t
R tu
Rt
u
v
F4 (t) = 0 12 e /2 du 0 12 e /2 dv = 1 1 + 2t e /2 .
La loi du chi-deux a` quatre degres de liberte est definie par la densite :

t 7 0
, si t 0
f4 :
t t/2
t 7 4 e
, si t > 0

bar-hen.net

Chapitre 8
Lestimation
1

Preliminaires

1.1 Une inegalite importante


Soit Y une variable aleatoire a` valeurs dans R admettant un moment dordre deux :
E(Y 2 )
 > 0, P(|Y | )
2

(8.1)

Demonstration : soit Z la variable aleatoire que prend la valeur 2 lorsque |Y | , ou la


valeur 0 lorsque |Y | < .
Z Y 2 E(Z) E(Y 2 ) ; E(Z) = 2 P(|Y | ) + 0P(|Y | < ) (8.1)

1.2

Inegalite de Bienayme-Tchebichev
Soit X une variable aleatoire a` valeurs dans R, desperance E(X) = X et de variance
2
V(X) = X
. En appliquant la relation 8.1 a` la variable (X X ), on obtient :
 > 0 , P(|X X | )

2
X
2

(8.2)

Cette inegalite donne une idee de lecart entre X et x .

2
2.1

Estimation ponctuelle
Estimateur
prise a`
Un estimateur T dun param`etre est une variable aleatoire dont la valeur ,
lissue dune experience, constitue lestimation de .

217

218

2.2

Estimation ponctuelle

Ecart
quadratique moyen
Un bon estimateur T dun param`etre doit avoir une distribution tr`es resserree autour de
. Or, en appliquant la relation (8.1) a` la variable (T ), on obtient :
 > 0 , P(|T | )

E[(T )2 ]
2

(8.3)

On appelle e cart quadratique moyen de T relativement a` la quantite


E[(T )2 ] = EQM (T )
T sera un bon estimateur si E[(T )2 ] est faible.

2.3 Ecart
quadratique moyen et variance
On a E[(T )2 ] = E[(T T + T )2 ] = E[(T T )2 ] 2(T )E[(T T )] +
(T )2
E[(T )2 ] = V(T ) + (T )2 = V(T ) + E2 (T )
(8.4)

2.4 Biais dun estimateur


On appelle biais de lestimateur T de param`etre la quantite
E(T ) = E(T ) = T
Si E(T ) = 0 E(T ) = T = , T est dit sans biais.
Si E(T ) 6= 0 E(T ) 6= , T est dit biaise.
Il resulte de la relation 8.4 que si deux estimateurs de ont la meme variance, le meilleur
est celui de plus faible biais.
Reciproquement, pour deux estimateurs sans biais, le meilleur est celui qui a la variance
minimale.

2.5

Suite consistante destimateurs


Soit X1 , X2 , . . . , Xn , . . . une suite de variables aleatoires. Soit Tn = (X1 , X2 , . . . , Xn )
un estimateur du param`etre . On dit que la suite Tn est une suite destimateurs consistante (ou convergente) pour si :
 > 0 , P(|Tn | < ) 1 lorsque n +
Or, en passant par levenement contraire, il resulte de la relation 8.3 :
 > 0 , 1 P(|Tn | < ) 1

E[(Tn )2 ]
2

(8.5)

bar-hen.net

219

8. L ESTIMATION

Une suite destimateurs est donc consistante quand leur e cart quadratique moyen tend
vers zero lorsque n tend vers linfini.
Par abus de langage, on dit parfois quun estimateur Tn , pour n donne, e lement dun suite
consistante, est un estimateur consistant.
Un estimateur consistant est un estimateur particuli`erement interessant puisque, en jouant
sur n, il permet dobtenir, presque surement, une estimation aussi proche que lon veut
de .
On notera, enfin, que si les estimateurs Tn sont sans biais, la relation 8.5 secrit :
 > 0 , 1 P(|Tn | < ) 1

V(Tn )
2

Une suite Tn destimateurs sans biais dont la variance tend vers zero lorsque n tend vers
linfini est donc consistante.

2.6

Exemples
Probabilite dun e venement
Dans le schema de Bernoulli, la frequence Yn dun e venement associee a` un ensemble
de n experiences peut e tre choisie comme estimateur de la probabilite p de levenement
considere. Cest un estimateur sans biais, puisque E(Yn ) = p.
Cest un estimateur consistant puisque cest un estimateur sans biais et tel que
V(Yn ) =

p(1 p)
0 lorsque n +
n

Si yn est la frequence observee, on e crira : p = yn .


On notera que pour avoir : 1 P(|Yn p| < 102 ) 0.99, il faut :
V(Yn )
p(1 p)
1
2

10

106 n 250 000


104
n
4n
Il sagit l`a dune approche grossi`ere ; ce nombre pourra e tre tr`es fortement diminue si on
fait intervenir linformation de la loi de Yn .
Esperance dune variable aleatoire
On se place dans le cas dun n-echantillon, cest-`a-dire dun ensemble (X1 , X2 , . . . , Xn )
de n variables aleatoires, independantes et de meme loi.
2
On pose : E(Xi ) = P
X , V(Xi ) = X , i {1, 2, . . . , n}.
La variable Xn = n1 ni=1 Xi peut e tre choisie comme estimateur de X . Xn est alors un
estimateur sans biais, puisque E(Xn ) = X .
2
Xn est un estimateur consistant puisque sans biais et tel que V(Xn ) = nX 0 lorsque
n +.
Dans ce cas la relation 8.5, secrit :
 > 0 , 1 P(|Xn X | < ) 1
bar-hen.net

2
X
n2

220

Estimation par intervalle

ce qui constitue la loi faible des grands nombre.


On notera enfin que Yn pouvant representer la moyenne de n variables indicatrices,
lexemple precedent (probabilite dun e venement) nest quun cas particulier de celuici.
Variance dune variable aleatoire
On reste dans le cas dun n-echantillon et on consid`ere la variable
n

c2 =
S
n

1 X
(Xi X)2
n 1 i=1

2
peut e tre choisie comme estimateur de X
. Il sagit, bien sur dun estimateur sans biais,
2
2
c
puisque E(Sn ) = X .
Dans ce cas la relation 8.5, secrit :

c2 2 | < ) 1
 > 0 , 1 P(|S
n
X

c2 )
V(S
n
2

c2 soit un estimateur consistant de 2 , il faut que V(S


c2 ) 0 quand n +.
Pour que S
n
n
X
Comme on le verra plus tard, cest bien le cas dans les mod`eles gaussiens.
P
2
On peut e galement choisir comme estimateur de X
la variable Sn2 = n1 ni=1 (Xi X).
2

2
2
Il sagit alors dun estimateur biaise car E(Sn2 ) = n1
X
= X
nX (voir relation 7.10) ;
n
le biais de Sn2 est e gal a` X2 /n. En appliquant la relation 8.4, la relation 8.5 secrit alors ;

2
 > 0, 1 P(|Sn2 X
| < ) 1

4
c2 )
V(S
X
n

2
n 2 2

Si on demontre que V(Sn2 ) 0 quand n +, et ce sera le cas dans les mod`eles


2
.
gaussiens, Sn2 , bien que biaise, est un estimateur consistant de X
2
2
c
Sn est-il un meilleur estimateur que Sn ? Seule la comparaison de leur e cart quadratique
moyen peut permettre de trancher ; ce calcul sera fait ulterieurement dans le cadre des
mod`eles gaussiens.

3 Estimation par intervalle


3.1

Intervalle de confiance
Les experimentateurs pref`erent donner, au lieu dune estimation ponctuelle b dun param`etre , un intervalle I dans lequel ils ont la quasi-certitude de cerner la valeur exacte
. I sappelle un intervalle de confiance de ; la quasi-certitude, dont depend la largeur de I, est mesuree par une probabilite appelee niveau de confiance ou coefficient
de securite de I.
On ne donnera jamais un intervalle de confiance sans laccompagner du coefficient de
securite choisi.
bar-hen.net

221

8. L ESTIMATION

3.2 Principe
Pour determiner un intervalle de confiance I, on choisit une statistique X, cest-`a-dire
une variable aleatoire, dont la loi depend du param`etre inconnu . Cette statistique nest
pas forcement un estimateur de .
Si est connu, la loi de X est compl`etement precisee. On peut alors parier, avant toute
experience, que lobservation future x0 va se trouver, avec une forte probabilite (1 )
dans un intervalle J ; cet intervalle J est parfaitement determine si, par exemple, on
affecte une probabilite /2 a` sa gauche et de /2 a` sa droite.
Reciproquement, lorsquon ignore donc la loi precise de X, on peut parier que levenement
x0 J a bien eu lieu. On peut alors en deduire lensemble des intervalles J qui contiennent
lobservation x0 , donc un ensemble de lois possibles et donc un ensemble I de valeurs
possibles pour .
Lensemble I est lintervalle de confiance de . La probabilite 1 choisie au depart
sappelle le niveau de confiance ou le coefficient de securite associe a` I.
On remarquera que cette demarche, lorsque le type de la loi de X est connu, revient a` faire
un test bilateral a` lenvers. Lintervalle de confiance de contient lensemble des valeurs
de qui seraient acceptees dans un tel test, au niveau , compte tenu de lobservation x0 .
Dans le cadre de ce cours, on adoptera systematiquement la methode qui vient detre
decrite. On concoit cependant que, dans le cas de lois dissymetriques, on na pas forcement
avantage a` sappuyer sur un test bilateral avec partage de risque.

3.3 Utilisation de la loi binomiale


Soit une variable aleatoire X de loi B(n, p). On observe la valeur x0 de X. Peut-on en
deduire un intervalle de confiance de p, pour un coefficient de securite (1 ) ?
La loi B(n, p), pour n donne, se deplacant de la gauche vers la droite lorsque p augmente,
on doit avoir
xX
0 1

Cnk (pinf )k (1 pinf )nk = 1


Pi (X < x0 ) =
2
k=0
Ps (X x0 ) =

x0
X
k=0

Cnk (psup )k (1 psup )nk =

Au niveau (1 ), pinf < p < psup


Les deux e quations ci-dessus peuvent e tre resolues par approximations successives. On
peut trouver des abaques, ou des tables (voir table 11.3 pour 1 = 95%) en donnant
les solutions
Exemple 8.1 On veut estimer la proportion p des males a` la naissance dans une esp`ece
donnee. On observe x0 males sur n naissances. Quen conclure ?
Pour un coefficient de securite de 95% :
n = 30, x0 = 12 0.227 < p < 0.594
n = 34, x0 = 12 0.202 < p < 0.543.
4
4
En effet psup = 0.594 10
(0.594 0.465) et pinf = 0.227 10
(0.227 0.166)
bar-hen.net

222

Estimation par intervalle

n = 30, x0 = 24 0.614 < p < 0.923.


24 males 6 femelles et 0.077 < 1 p < 0.386

3.4

Utilisation de la loi de Poisson


Soit une variable aleatoire X de loi P(). On observe la valeur x0 de X. Peut-on en
deduire un intervalle de confiance de , pour un coefficient de securite (1 ) ?
La methode suivie est la meme que precedemment. Les e quation a` resoudre sont cette
fois :
)
Px0 1 kinf

inf
Pi (X < x0 )= k=0 e
=1 2
k!
Au niveau de confiance (1 ) : inf < < sup
Px0 sup ksup
Pi (X x0 )= k=0 e
= 2
k!
La table 11.5 donne les intervalles de confiance de pour un coefficient de securite de
95% et ceci pour x0 100.
Exemples
Le nombre dimpulsions enregistrees pendant une minute par un compteur est une
variable aleatoire X de loi P(). Lesperance caracterise lintensite de la source de
rayonnement. On mesure 59 coups durant une minute. On en deduit, avec un coefficient
de securite de 95% :
44.9 < < 76.1
Sur 12000 individus dune esp`ece, on a denombre 13 albinos. Que peut-on deduire sur
la proportion p des albinos dans lesp`ece ?
La variable X = nombre dalbinos que lon peut observer sur 12000 individus suit une
loi B(12000, p) si on peut considerer le choix de lechantillon comme non exhaustif. Il
est clair que, dans cet exemple n est grand et p faible ; on peut donc dire que la loi de
X est une loi P( = np).
Avec un coefficient de securite de 95% :
6.9 < 12000p < 22.3 5.75 104 < p < 18.58 104
Grand e chantillon
Pour x0 > 100, il est clair que lesperance aura une valeur e levee et que lon peut
considerer que la loi de X peut e tre assimilee a` une loi N (, ). On peut alors parier
que la valeur observee x0 verifie linegalite :

|x0 | <

(8.6)

o`u est une valeur numerique qui depend du coefficient de securite choisi ( = 1.645
pour 90% ; = 2.576 pour 99%).
Les solution de (8.6) constituent lintervalle ]inf , sup [ decrit plus haut, lorsque la
distribution de X est du type N (, ).

bar-hen.net

223

8. L ESTIMATION

Linegalite 8.6 peut e tre resolue rigoureusement en e levant au carre les deux membres,
ce qui conduit a` :


2
2
+ x20 < 0
2 x0 +
2
r
r
2
2
2
2
inf = x0 +
x0 +
, sup = x0 +
+ x0 +
2
4
2
4
Comme x0 > 100, linegalite 8.6 peut e tre resolue de mani`ere approchee en e crivant :

|x0 | < x0

(8.7)

x0 x0 < < x0 + x0 , ce qui donne un intervalle de confiance un peu


different du precedent.
Exemple 8.2 La mesure du rayonnement dune source radioactive est de 100 coups/mn.
On en deduit, pour lintensite de la source, et avec un coefficient de securite de 95% :
81.4 < < 121.6 (table 11.4 ; resultat rigoureux)
81.22 < < 121.62 (inegalite 8.6)
80.40 < < 119.60 (inegalite 8.7)

3.5

Utilisation de la loi normale


2
Soit une variable aleatoire X de loi N (X , X
). On observe la valeur x0 de X. Peut-on
deduire un intervalle de confiance de X , pour un coefficient de securite (1 )% ?
Comme precedemment, on va parier sur linegalite :

|x0 X | < X

(8.8)

x0 X < < x0 + X
On ne saura e videmment donner un intervalle de confiance que si on connat X . Le
developpement ulterieur des mod`eles gaussiens permettra de surmonter cette difficulte.
En attendant les seuls cas qui sont accessibles sont ceux o`u effectivement X est connu
ou encore ceux o`u X et X sont lies par une relation (voir relation 8.6 et 8.9).
Linegalite 8.8 peut e tre appliquee a` la variable X ; on rappelle que, dans ce cas E(X) =
X et X = X/n, lorsque la loi de X est normale ou peut e tre consideree comme telle
(theor`eme limite centrale).
Exemple 8.3 Reprenons le schema de Bernoulli et considerons la frequence Yn dun
e venement au cours dunensemble de n experiences. En supposant que lon puisse
considerer que Yn N p, p(1p)
, on peut parier, pour un niveau de confiance de
n
(1 ) sur linegalite :
r
p(1 p)
(8.9)
|y0 p| <
n
( = 1.96 pour 1 = 95%).
bar-hen.net

224

Estimation par intervalle

Linegalite 8.9 peut e tre resolue rigoureusement en e levant au carre les deux membres.
Onobtient :


2
2
p2 1 + n 2p y0 + 2n
+ p20 < 0 pinf < p < psup avec :

pinf =

y0 +

2
2n

y0 (1y0 )
n
2
+ n

2
4n2

, psup =

y0 +

2
2n

y0 (1y0 )
n
2
+ n

2
4n2

Linegalite 8.9 peut e tre resolue de mani`ere approchee en la remplacant par :


r
y0 (1 y0 )
|y0 p| <
(8.10)
n
q
q
y0 (1y0 )
0)
y0
< p < y0 + y0 (1y
, ce qui donne un intervalle de confiance un
n
n
peu different du precedent.
On noubliera pas de controler a posteriori la validite de lapproximation normale en
verifiant que, sur lintervalle de confiance, on a toujours np et n(1 p) > 100.

3.6

Absence de loi
Linegalite de Bienayme-Tchebichev permet decrire successivement :
k > 0 , P(|X X | kX )

1
k2

1
(8.11)
k2
On peut donc, en particulier et ceci quelle que soit la loi de X parier, avec un coefficient
de securite qui est au moins de 95% sur linegalite :
1 P(|X X | < kX ) 1

|x0 X | <

20X

(1

1
= 0.95)
20

Do`u, si lon connat X un intervalle de confiance de X :


x0 4.472X < X < x0 + 4.472X

bar-hen.net

8. L ESTIMATION

225

4 Exercices
1. Parmi 900 poissons peches dans un lac, on a observe 180 porteurs de parasites.
Entre quelles limites situez-vous la proportion des individus parasites dans la population des poissons du lac.
2. On photographie au microscope une bote de Petri. La photographie est divisee
en carres de surfaces e gales et on denombre dans chaque carre des colonies de
bacteries. Les resultats experimentaux sont les suivants : 10 carres ne contiennent
pas de colonie, 24 carres contiennent 1 colonie, 34 en contiennent 2, 23 en contiennent
3, 6 en contiennent 4, 3 en contiennent 5.
On designe par X la variable aleatoire qui dans une telle experience, associe a` un
carre le nombre de colonies quil contient et par H0 lhypoth`ese : X suit une loi
de Poisson desperance .
En admettant H0 et a` partir des resultats experimentaux, donner, en les justifiant,
une estimation de , puis un intervalle de confiance de pour un coefficient de
securite de 95%.
3. On sait que, a` chaque naissance, la probabilite p dobserver un garcon est tr`es
proche de 1/2. Pour estimer precisement cette probabilite, on recherche son intervalle de confiance pour un coefficient de securite de 99.99% a` partir de la proportion de garcons observee sur n naissances. Quelle valeur donner a` n pour avoir une
estimation a` 0.001 pr`es ?
4. Pour determiner la concentration dun certain produit dans une solution, on effectue des dosages a` laide dune technique experimentale donnee. On admet que le
resultat de chaque dosage est une variable aleatoire normale,
dont lesperance est la valeur que lon cherchera a` determiner, ceci en labsence derreur systematique, cest-`a-dire si le protocole experimental est scrupuleusement suivi.
dont lecart-type est de 0.05 mg/litre pour un experimentateur convenablement
entrane.
(a) Vous effectuez cinq dosages independants dune solution de concentration
connue e gale a` 4.00 mg/litre. Vous obtenez les resultats suivants : 4.04 ; 4.01 ;
4.08 ; 3.95 ; 4.02 mg/litre.
Suivez-vous scrupuleusement le protocole experimental ?
(b) Vous effectuez six dosages independants dune solution de concentration inconnue. Vous obtenez les resultats suivants : 2.97 ; 3.01 ; 2.98 ; 2.94 ; 3.03 ;
2.95 mg/litre.
En deduire un intervalle de confiance de la concentration cherchee, pour un
coefficient de securite de 95%.
Bien entendu, vous vous considerez comme normalement entrane.
5. Soit X une variable aleatoire, associee a` une experience E de densite de probabilite :

x 7 0
, si x < 0
f:
x 7 2 xex , si x 0
bar-hen.net

226

Exercices

o`u est un reel strictement positif.


Calculer lesperance et la variance de X ;
on a repete 400 fois lexperience E. La moyenne des 400 valeurs observees pour
X est e gale a` 2. Peut-on en deduire un intervalle de confiance de pour le
coefficient de securite de 90% ?
6. Une boisson, de consommation courante, est vendue en bouteille dun litre. Lun
des e lements de sa composition est un certain produit A qui fait lobjet dune
reglementation particuli`ere.
On designe par X la variable aleatoire representant la quantite A, exprimee en milligrammes, que lon peut trouver dans une bouteille. On admet que X suit une loi
normale desperance et decart-type e gal a` 5 milligrammes. Pour que a boisson
soit conforme a` la reglementation en vigueur, la valeur de ne doit pas depasser
50 milligrammes.
Une association de consommateurs a fait effectuer des dosages de A sur 9 bouteilles
choisies au hasard mais dune marque donnee. Les resultats, en milligrammes, sont
les suivants :
48.0; 48.2; 49.3; 53.5; 54.7; 56.4; 57.8; 58.5; 60.5
` laide dun test parametrique construit au niveau 5%, verifier si la reglementation
A
est respectee par le fabriquant.
7. On place un compteur devant une source de rayonnement. Le nombre dimpulsions que lon peut enregistrer pendant une minute est une variable de Poisson
desperance , constante pendant la duree de lexperience et dont la valeur mesure
lintensite de la source.
(a) On effectue un comptage dune minute et on observe 6400 impulsions par
minute. En deduire un intervalle de confiance de pour un coefficient de
securite de 90%.
(b) Pour ameliorer la precision de cette estimation, on rep`ete n fois la mesure.
Sachant que la moyenne de ces n mesures reste de lordre de 6400, quelle
valeur faut-il donner a` n pour estimer a` 10 unites pr`es, toujours au niveau
de 90% ?
(c) Sachant que la somme de n variables de Poisson independantes est une variable de Poisson, ameliorait-on lestimation avec un comptage de n minutes ?
8. (Methode de capture-recapture). On desire e valuer le nombre N dindividus
dune esp`ece animale vivant sur une le. Pour cela, on capture 800 individus ; ces
individus sont marques, puis relaches. En essayant de respecter le schema du tirage
exhaustif, on recapture ulterieurement 1000 animaux parmi lesquels on denombre
250 animaux marques. En deduire un intervalle de confiance de N pour un coefficient de securite de 90%.

bar-hen.net

227

8. L ESTIMATION

5 Solutions
1. Si p est la proportion des poissons parasites dans le lac, lorsquon peche un poisson,
la probabilite pour quil soit porteurs de parasites est p.
Si le nombre de poissons dans le lac est tr`es e leve, pecher 900 poissons revient a`
repeter 900 fois la meme experience. Dans ces conditions, le nombre de porteurs
de parasites que lon peut observer est une variable aleatoire de loi B(900, p) que
lon peut approcher par une loi N (900p, 900p(1 p)), p e tant de lordre de 20%.
La variableX, proportion
des individus parasites sur 900, obeit donc a` peu pr`es a`

p(1p)
une loi N p, 900 . On a observe la valeur x = 180/900 = 0.20. Pour un niveau
de confiance de 95%, on peut parier que linegalite :
p
p(1 p)
(8.12)
|0.20 p| < 1.960
30

0.16
soit, pratiquement : |0.20 p| < 1.960 30
.
Do`u lintervalle de confiance : 0.174 < p < 0.226.
Lapproximation normale e tait bien justifiee puisque sur tout lintervalle trouve :
900(1 p) > 900p > 900(0.174) > 10
On peut noter que resoudre rigoureusement lequation 8.12 aurait conduit a` linegalite :

1.00426844p2 0.40426844p + 0.04 < 0


dont les solutions sont : 0.175 < p < 0.227
P
2. Soit Xn = n1 ni=1 Xi la moyenne de n variables independantes et de meme loi
que X. X est un bon estimateur de . En effet :

E(X) = , V(X) =
n
Xn est un estimateur consistant de puisquil est sans biais et que sa variance tend
vers zero lorsque n tend vers linfini.
1
Ici n = 100, x = 100
(10 0 + 24 1 + 34 2 + 23 3 + 6 4 + 3 5) = 2
Do`u lestimation
b=2
Le nombre dexperiences e tant ici assez e leve, on peut, en utilisant le theor`eme
limite centrale, considerer que la loi de X est pratiquement : N (, /100)
Avec un coefficient de securite de 95%, on peut parier sur linegalite

(8.13)
|2 | < 1.960
10

soit, pratiquement : |2 | < 1.960 102 .


Do`u lintervalle de confiance : 1.722 < < 2.278.
On peut noter que resoudre rigoureusement lequation 8.13 conduit a` linegalite :
2 4.038416 + 4 < 0
dont les solutions sont : 1.741 < < 2.297
bar-hen.net

228

Solutions

3. Soit Yn la proportion des garcons que lon peut observer sur n naissances.
Comme


p(1p)
1
p /2 et n certainement tr`es grand, on peut considerer que Yn N p, n , .
Si y0 est la proportion
q observee et pour un niveau de confiance de 0.9999, on e crira :
p(1p)
.
n

|y0 p| < 3.891

Soit pratiquement (p

1/ )
2

q
1
: |y0 p| < 3.891 4n
.

On pourra en deduire p a` 0.001 pr`es si :


cest-`a-dire n > 3.785 106 .

3.891

2 n

< 0.001. Do`u

n > 3.891 500,

4. Soit X la variable aleatoire representant le resultat dun dosage. On admet, dans


tout le probl`eme que X suit une loi normale N (, (0.05)2 )
(a) On veut tester H0 : = 4.00 contre H1 : 6= 4.00
Pour cela on utilise X5 , moyenne de 5 variables independantes et de meme
loi que X.
  
2

Sous H0 , X5 suit une loi N 4, 0.05


.
5
Sous H1 la loi de X5 est deplacee soit vers la droite, soit la gauche. On
construit un test bilateral.
Au niveau 5% le domaine dacceptation de H0 est de la forme ]a; b[ o`u a =
et b = 4 + 1.960 0.05
. Donc de la forme ]3.956; 4, 044[. On
4 1.960 0.05
5
5
a observe x5 = 4.02. On peut considerer que le protocole experimental est
scrupuleusement suivi
(b) On consid`ere la variable X6 , moyenne de 6 variables independantes 
et de
 2 

meme loi que X. En labsence derreur systematique, X6 suit une loi N , 0.05
.
6
On a observe x6 = 2.98.
Pour un coefficient de securite de 95%, on peut parier sur linegalite :
0.05
|2.98 | < 1.96
6
Do`u lintervalle de confiance : 2.94 < < 3.02 mg/litre.
5. On a successivement :
Z +
Z
f (x)dx =

Z
E(X) =

2 2 x

xf (x)dx =

xe
0

E(X ) =

x f (x)dx =


+
2 xex dx = xex ex 0 = 1

+
2 3 x

xe
0


+ 2
dx = x2 ex 0 +


+ 3
dx = x3 ex 0 +

2 xex dx =

2 x2 ex dx =

bar-hen.net

6
2

229

8. L ESTIMATION

On en deduit :
E(X) =

2
6
4
2
, V(X) = 2 2 = 2

Soit X la moyenne de 400 variables independantes et de meme loi que X. On peut


e crire (theor`eme limite centrale) :


2
2
XN
,
4002
On a observe la valeur x = 2. Au niveau de confiance de 90%, on peut accepter les
valeur de telles que :




2
1


2 2 < 1.645 2 22 < 0.116 1 < 1.058

2 < 0.116 > 0.942

20

Do`u lintervalle de confiance 0.942 < < 1.058.


6. Au 9-echantillon (X1 , X2 , . . . , X9 ) de P
variables independantes et de meme loi
1
.
N (, 25), on associe la variable X = 9 9i=1 Xi de loi N , 25
9
On a observe la valeur x = 54.1 mg.
On va tester lhypoth`ese H0 : = 50 (ou moins) contre H1 : > 50.

.
Sous H0 : X N 50, 25
9

.
Sous H1 : X N > 50, 25
9
On construit donc un test unilateral avec domaine de rejet de H0 a` droite, puisque
H1 favorise les valeurs plus e levees de X.
Le domaine dacceptation de H0 est [0; 52.74[.
Le domaine de rejet de H0 est [52.74, +[.
Au niveau 5%, on a en effet : 50 + 1.645 53 52.7417.
Il est clair, compte tenu de x que le fabriquant ne respecte pas la reglementation
puisque lon est amene a` rejeter H0 .
7.

(a) Si X est le nombre dimpulsions quon peut observer pendant 1 minute, on


a : X P() N (, ) car a visiblement une valeur tr`es e levee.

Au niveau de confiance de 90%, on e crira |6400 | < 1.645 , cest-`a


dire, approximativement |6400 | < 1.645 6400. Do`u :
6268.4 < < 6531.6
(b) Si X est la moyenne
de n mesures independantes, on a, approximativement :

X N , n .
Si x0 est la valeur observe de X, on a, au niveau
de 90% : |x0 | <
q
p
x0
1.645 n , soit pratiquement |x0 | < 1.645 n .
q

On veut 1.645 xn0 < 10. Pour x0 6400, on en deduit n > 13.16 n >
174 comptages.

bar-hen.net

230

Solutions

(c) Si Sn est la somme de n variables de meme loi que X et independantes,


n P(n) N (n, n).
P
Sn est aussi le resultat dun comptage de n minutes ; on a donc Sn = ni=1 Xi =
nX.

Il est e quivalent dutiliser nX N (n, n) ou X N , n .
8. La premi`ere capture a permis de creer une population a` deux categories dindividus.
Toute capture ulterieur dun individu aura deux resultats possibles : il est marque, et
, ou il nest pas marque, et cette e ventualite
cette e ventualite a la probabilite p = 800
N
800
a la probabilite q = 1 p = 1 N .
Si X est le nombre dindividus marques que lon peut observer sur 1000 individus,
et si le schema de tirage non exhaustif est respecte, on a : X B(1000, p). Vu
le nombre dobservations, on utilise lapproximation normale. Comme il est plus
X
commode, ici dutiliser la proportion Y = 1000
des individus marques, on e crira :


p(1 p)
Y N p
1000
250
On a observe effectivement la proportion y0 = 1000
= 14 . Au niveau de 90%, on
acceptera les valeurs de p telles que
r


1

p < 1.645 p(1 p)

4
1000
q


1
soit, approximativement, telles que : 14 p < 1.645 14 13 1000

Do`u lintervalle de confiance de p pour un coefficient de securite : 0.227 < p <


0.273.
On remarque que lapproximation normale se justifie puisque pour toutes les valeurs p de cet intervalle, on a : 1000q > 1000p > 227 > 10.
Puisque lon sait que p = 800
, on a :
N
0.227 <

800
< 0.273
N

Do`u lintervalle de confiance de N : 2930 < N < 3524

bar-hen.net

Chapitre 9
Les mod`eles gaussiens et leur utilisation
a` letude des moyennes et des variances
1

Les lois du chi-deux


Definition 9.1 On appelle variable chi-deux a` n degres de liberte une variable aleatoire
somme des carres de n variables normales centrees reduites independantes. On note 2n
une telle variable.
P
On a : 2n = ni=1 Xi2 , o`u X1 , X2 , . . . , Xn sont des variables independantes, telles que
Xi N (0, 1) i {1, 2, . . . , n}

1.1

Densite de probabilite
On montre que la densite de probabilite fn dune variable Y = 2n a pour expression

y 7 0
, si y 0
fn :
n2
y/2
2
, si y > 0
y 7 cn y e
cn e tant une constante positive dependant de n.
Exemple 9.1 On a montre (voir exemple 4.3) que la densite de probabilite de la variable
Y = 21 est :
(
y 7 0
, si y 0
f1 :
y/2
1

y 7 2y e
, si y > 0
Exemple 9.2 On cherche a` determiner F2 , puis f2 , fonction de repartition et fonction
densite de la variable Y = 22 . On a : Y = X12 + X22 , X1 et X2 e tant deux variables
normales reduites independantes. Le couple (X1 , X2 ) a pour densite :
g : (x1 , x2 ) 7

1 1 (x21 +x22 )
e 2
, (x1 , x2 ) R2
2

car produit des fonctions densite de X1 et X2 .


231

232

Les lois du chi-deux

On a
F2 (y) = P(Y < y) = P(X12 + X22 < y) = 0 si y 0
Z Z
1 1 (x21 +x22 )
e 2
dx1 dx2 si y > 0
=
C 2
Le domaine C e tant defini par x21 + x22 < y et donc represente par lensemble des points

a` linterieur dun cercle de rayon y.


En passant en coordonnees polaires, on obtient pour y > 0 :
Z 2 Z y
1 2
1
1
F2 (y) =
d
e 2 r rdr = 1 e 2 y
2 0
0
Do`u la densite :


f2 :

y
7 0
, si y 0
1 y/2
y
7 2e
, si y > 0

Exemple 9.3 La variable aleatoire de densite de probabilite :



y 7 0
, si y 0
f4 :
y y/2
y 7 4 e
, si y > 0
est une variable Y = 24 .
Exemple 9.4 La variable aleatoire de densite de probabilite :

z 7 0
, si z 0
f6 :
z 2 z/2
z 7 16 e
, si z > 0
est une variable 26 .

1.2

Propriete dadditivite
Soient deux variables 2n et 2p independantes. On a Z = 2n + 2p = 2n+p .
Il est facile de demontrer cette propriete a` partir de la forme generale de la densite dun
2 . On la verifiera sur des cas particuliers. Il resulte de cette propriete que toute variable suivant un loi de 2n peut e tre consideree comme la somme de n variables 21
independantes.

1.3

Esperance et variance
Soit une variable X N (0, 1) et soit une variable Y = X 2 . On peut e crire directement
(voir exemple 4.3) :
E(Y ) = E(X 2 ) = V(X) = 1 (puisque E(X) = 0 E(X 2 ) = V(X))
h
i
R + 1 4 x2/
R + 2 x2/
x2 +
2 dx = 1
x e
E(Y 2 ) = E(X 4 ) =
x3 e /2
+ 3
x e 2 dx =

0 + 3E(X ) = 3V(X) = 3
bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

233

VARIANCES

On en deduit V(Y ) = E(Y 2 ) E2 (Y ) = 3 1 = 2


E(21 ) = 1 , V(21 ) = 2
On aboutira au meme resultat a` partir de la densite f1 de la variable Y (voir exemple 9.1)

en effectuant le changement de variable x = y.


Soient maintenant n variables independantes Yi (i {1, 2, . . . , n}) ayant une loi de 21 .
On deduit de la propriete dadditivite (theor`eme 7.1) :
!
n
n
X
X
2
E(n ) = E
Yi =
E (Yi ) = nE(2n ) = n 1 = n
i=1

i=1

` cause de lindependance des variables (theor`eme 7.2) :


A
!
n
n
X
X
2
V(n ) = V
Yi =
V (Yi ) = nV(21 ) = n 2 = 2n
i=1

i=1

Do`u le resultat general :


E(2n ) = n , V(2n ) = 2n

1.4

Formes de la distribution
La courbe representative de la densite dun 2n a une forme en L pour n = 1 et pour
n = 2. Il suffit detudier les variations des fonctions f1 et f2 (voir exemples 9.1 et 9.2)
pour sen rendre compte.
Pour n > 2, on a :
n4
1
y
(fn (y))0 = cn e /2 y 2 [(n 2) y]
2
On en deduit que la courbe representative de fn a une forme en cloche, dissymetrique et
quune variable 2n a pour mode n 2 (n > 2).
On note, en particulier que plus la valeur de n est e levee, plus le mode se deplace vers la
droite.

1.5

Convergence en loi
Puisquune variable 2n peut e tre consideree comme la somme de n variables 21 independantes,
il resulte du theor`eme central limite que la loi dun 2n tend vers une loi normale lorsque
n augmente indefiniment.
Cependant, dans le cas dunepvariable 2n , cette convergence est assez lente. Par contre
2
on peut
noter que la variable 2n a une loi qui converge assez rapidement vers une loi
N ( 2n 1, 1).
Dans la pratique, pour n > 30, on e crit :
p

22n N ( 2n 1, 1)
bar-hen.net

234

Les lois du chi-deux

1.6 Calcul de probabilites


Comme pour toutes les variables dusage courant, les fonctions de repartitions des variables 2n sont tabulees.
Soit la relation F (u) = P(2n < u) = p. La table 11.10 donne, pour un certain nombre
de valeurs p, u en fonction de n.
Exemple 9.5 Soit une variable Y = 24 . On a
P(0.484 < Y < 11.143) = F (11.143) F (0.484) = 0.975 0.025 = 95%
Soit une variable Z = 210 . On a
P(Z 18.307) = 1 P(Z < 18.307) = 1 F (18.307) = 1 0.95 = 5%
On remarquera que, la densite dune variable 2n e tant nulle en zero et a` gauche de zero,
on a :

F (u) =

P(2n

F (u) = 0 ,
< u) = P(0 < 2n < u) ,

si u 0
si u > 0

On remarquera e galement que si X N (0, 1) et si Y = X 2 21 , on a :

P(Y < u) = P(X 2 < u) = P( u < X < u) , u > 0


En particulier on pourra verifier :
P(1.960 < X < 1.960) = P(Y < (1.960)2 ) = P(Y < 3.841) = 95%
P(2.576 < X < 2.576) = P(Y < (2.576)2 ) = P(Y < 6.635) = 99%
enfin, on notera que dans la table 11.10, le nombre de degres de
variable 2
pliberte dune

ne depasse pas 30. Pour n > 30, on utilisera lapproximation 22n N ( 2n 1, 1)


Pour e valuer la precision du procede, on va comparer, pour n = 30, les probabilites
vraies, lues dans la table, avec celles obtenues par lapproximation. Pour Y = 230 , on a :
P(Y < 46.979) = 0.975

2Y < 9.693)
Or
P(Y
<
46.979)
=
P(2Y
<
93.958)
=
P(

2Y N ( 59, 1) 2Y

59

N
(0,
1)



P( 2Y < 9.693) = P 2y1 59 < 2.01 0.9778


P(Y < 29.336) = 0.50

2Y < 7.660))
Or P(Y
<
29.336)
=
P(2Y
<
58.672)
=
P(


2y 59
=P
< 0.0213 1 0.5085 0.4915
1
P(Y < 16.791) = 0.025

2Y < 5.795)
Or P(Y
<
16.791)
=
P(2Y
<
33.582)
=
P(


2y 59
=P
< 1.886 1 0.9703 0.0297
1
Les e carts sont tous inferieurs a` 1%.
bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

235

VARIANCES

2 Les lois de Fisher-Snedecor


Definition 9.2 Soient deux variables aleatoires independantes : X = 2n et Y = 2p . La
X
variable Z = /n = p X est dite variable de Fisher-Snedecor a` n et p degres de liberte.
Y /p

nY

On note : Z = F (n, p) =

2.1

2n/n

2p/p

p 2n
.
n 2p

Densite de probabilite
On montre que la densite de probabilite gn,p dune variable Z = F (n, p) a pour expression

z 7 0
, si z 0
n+p
gn,p :
n2

z 7 cn,p z 2 (p + nz) 2 , si z > 0


cn,p e tant une constante positive dependant de n et de p.
il est normal que la densite gn,p soit nulle en zero et a` gauche de zero ; levenement
F (n, p) < u est en effet impossible si u 0, puisque dans ce cas, pour tout 2 , on a :
P(2 < u) = 0

2.2

Esperance et variance
On montre e galement quune variable Z = F (n, p) a pour esperance :
E[F (n, p)] =

p
, definie pour p > 2
p2

et pour variance :

V[F (n, p)] =

2.3

p
p2

2

2(n + p 2)
, definie pour p > 4
n(p 4)

Forme de la distribution
Letude des variations de la fonction densite dune variable F (n, p) montre que la forme
de sa courbe representative est :
en L pour n = 1 et pour n = 2 ;
pour
en cloche, dissymetrique pour n > 2. Dans ce cas le mode est e gal a` : p(n2)
n(p+2)
n > 2.

2.4

Calcul de probabilites
Soit la relation :
G(u) = P[F (n, p) < u] = p

bar-hen.net

(9.1)

236

Application a` letude des variances

Il est clair que, donner une table de valeurs numeriques concernant les fonctions de
repartition G des variables F (n, p), conduit a` envisager un certain nombre de couples
(n, p) et donc a` donner un veritable fascicule uniquement pour ce type de variables.
En statistique, certaines valeurs de p sont fondamentales. Pour cette raison, les tables 11.11
et 11.12 correspondent chacune a` une valeur de p et indiquent pour divers couples (n, p)
(donc tables a` doubles entrees) les valeurs u (forcement positives) verifiant 9.1.
Exemple 9.6 Dans la table 11.11, on lit, puisque p = 0.95 :
P[F (9, 7) < 3.6767] = 0.95 ; P[F (15, 14) < 2.4630] = 0.95
Dans la table 11.12, on lit, puisque p = 0.99 :
P[F (9, 7) < 6.7188] = 0.99 ; P[F (15, 14) < 3.6567] = 0.99
On note que :

P[F (n, p) < u] = P

2n/n
2p/p


<u


=P

n2p
1
>
p2n
u


= 1P

On a donc :

P(F (n, p) < u) = 0.01 P F (p, n) u1  = 0.99
P(F (n, p) < u) = 0.05 P F (p, n) u1 = 0.95

Par exemple : P[F (9, 7) < 3.6767] = 0.95 P F (7, 9) <

n2p
1

p2n
u

1
3.6767

1
= 1P F (p, n)
u

= 0.05

3 Application a` letude des variances


3.1

Probl`emes a` un e chantillon

On consid`ere un ensemble (X1 , X2 , . . . , Xn ), de n variables independantes et de meme


loi ; on notera et 2 leur esperance et leur variance. La realisation de lexperience E a`
laquelle est associe cet ensemble entrane les observations : x1 , x2 , . . . , xn .
On rappelle que sur un tel n-echantillon, on peut definir les variables X (moyenne), S 2
c2 (estimateur de 2 ). On a :
(variance), S
Pn
Pn

1
, dont la valeur observee est la moyenne empirique x0 = n1 i=1 xi
X = n Pi=1 Xi
P
n
S 2 = n1 ni=1 (Xi X)2
, dont la valeur observee est la variance empirique s20 = n1 i=1 (xi x0 )2
Pn
Pn
c2
1
1
2
2
S = n1
, dont la valeur observee est lestimation de 2
sb20 = n1
i=1 (Xi X)
i=1 (xi x0 )
On suppose maintenant que les variables X1 , X2 , . . . , Xn sont toutes des variables normales Xi N (, 2 ), i {1, 2, . . . , n}
Premier resultat
2
P
Dans le cadre de ce mod`ele, il est alors clair que la variable ni=1 Xi est la somme
des carres de n variables normales centrees reduites, independantes. On peut donc e crire :
n
1 X
(Xi )2 2n
2
i=1

bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

237

VARIANCES

Ce resultat nest gu`ere utilisable pratiquement car le mod`ele obtenu depend des deux
2
param`etres
 2et , difficulte que lon a dej`a rencontree dans lutilisation de la variable
X N , n .
Deuxi`eme resultat
On peut e crire : Xi = (Xi X) + (X )
Do`u :
(Xi )2 = (Xi X)2 + (X )2 + 2(Xi X)(X )
n
n
n
X
X
X
2
2
2
(Xi ) =
(Xi X) + n(X ) + 2(X )
(Xi X)
i=1

Or il est clair que


Et donc :

i=1

i=1

Pn

i=1 (Xi X) =

Pn

i=1

Xi nX = nX nX = 0


2
n
n
1 X
1 X
X
2
2
(Xi ) = 2
(Xi X) +
/
2 i=1
i=1
n
P
Or on vient de voir que 12 ni=1 (Xi )2 2n .
2



X

De plus X N , n /
21
n
P
En posant Z = 12 ni=1 (Xi X)2 on a donc 2n = Z + 21
Un theor`eme, dit theor`eme de Cochran, (qui sort du cadre du cours) a pour consequence
2

Pn
X
1
2
sont independantes.
importante de demontrer que les variables 2 i=1 (Xi ) et /
n
La propriete dadditivite des 2 implique alors naturellement que Z 2n1 .
On obtient ainsi le resultat, important car on dispose maintenant dun mod`ele qui ne
depend que du param`etre 2 :
P
c2
2
S
La variable Z = 12 ni=1 (Xi X)2 = nS
= (n1)
est une variable 2n1 .
2
2
Il devient alors possible de construire des interpretations statistiques concernant le pac2 est simplement la somme
ram`etre 2 . On remarquera que la variable nS 2 = (n 1)S
des carres des e carts a` X.

Test dhypoth`ese sur 2


On se propose de tester lhypoth`ese H0 : 2 = a2 contre lune des trois hypoth`eses
alternatives suivantes :
H1 : 2 > a2 ; H2 : 2 < a2 ; H3 : 2 6= a2
Sous H0 , la variable Z =

bar-hen.net

nS 2
a2

suit une loi de 2n1 .

238

Test dhypoth`ese sur 2

Sous H1 : 2 > a2 La variance S 2 aura tendance a` prendre des valeurs plus e levees que
2
sous H0 . Ce sont donc les valeurs e levees de nS
qui poussent a` rejeter H0 pour
a2
choisir H1 . On construit donc un test unilateral avec un domaine de rejet a` droite.
La borne superieure d du domaine dacceptation est telle que : P(2n1 < d) =
1 , si est le niveau choisi.
La valeur d est lue dans la table 11.10 et, pour effectuer le test, il suffit de regarder
2
ns2
2n1 , se trouve dans le domaine
si la valeur observee a20 , de la variable nS
a2
dacceptation ou dans le domaine de rejet de H0 .
Sous H2 : 2 < a2 La variance S 2 aura tendance a` prendre des valeurs plus faibles que
2
sous H0 . Ce sont donc les valeurs faibles de nS
qui poussent a` rejeter H0 pour
a2
choisir H1 . On construit donc un test unilateral avec un domaine de rejet a` gauche.
La borne inferieure c est lue dans la table 11.10, table des valeurs numeriques de
2
la fonction de repartition de la variable nS
2n1 . On a P(2n1 < c) = , si
a2
est le niveau choisi.
Sous H3 : 2 6= a2 Il est alors clair que lon est amene a` construire un test bilateral, le
domaine de rejet e tant constitue dune partie a` droite et dune partie a` gauche de la
distribution.
si est le niveau choisi, les bornes c et d de lintervalle dacceptation sont telles
que :

, P(2n1 < d) = 1
P(2n1 < c) =
2
2
Ces valeurs sont lues dans la table 11.10, table des valeurs numeriques de la fonc2
tion de repartition de la variable nS
= 2n1 .
a2
Exemple 9.7 Un laboratoire pharmaceutique fabrique un medicament dont la teneur,
en un certain composant par unite de fabrication, est assuree avec un e cart-type de 8
milligrammes.
Le service de recherche a mis au point un nouveau procede de fabrication qui sera adopte
sil assure une reduction substantielle de la dispersion. On a fait 10 mesures de teneur sur
des unites fabriquees par la nouvelle methode et obtenus les resultats suivants, exprimes
en milligrammes : 725 ; 722 ; 727 ; 718 ; 723 ; 731 ; 719 ; 724 ; 726 ; 725. On suppose que
chaque mesure est une realisation dune variable normale. Peut-on adopter la nouvelle
methode ?
` un ensemble de 10
Soit Xi la variable representant une mesure. OnP
a Xi N (, 2 ). AP
10
1
1
2
2
mesures, on peut associer les variables X = 10 i=1 Xi et S = 10 10
i=1 (Xi X) . On
2
sait alors que la variable 10S
obeit a` une loi de 29 .
2
On veut tester lhypoth`ese H0 : 2 = 64 mg2 contre lhypoth`ese H1 : 2 < 64 mg2 .
2
obeit a` une loi de 29 . Si 2 < 64, la variable S 2 , et donc la
Sous H0 , la variable Z = 10S
64
2
, aura tendance a` prendre des valeurs moins e levees que prevu, puisque
variable Z = 10S
64
les variables Xi sont moins dispersees. On est donc amene a` construire un test unilateral
avec domaine de rejet a` gauche ; on choisira un niveau de 5%. La borne superieure c du
domaine de rejet de H0 doit verifier P(Z < c) = 0.05 ; on en deduit, puisque Z 29
c = 3.325 (table 11.10).
Or on a observe les valeurs :
bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

239

VARIANCES

P10
1
x0 = 10
i=1 xi = 724 mg pour X
P10
1
1
2
130 mg2 pour S 2
s0 = 10 i=1 (xi x0 )2 = 10
130
et, sous H0 , la valeur z0 = 64 2.03 de la variable Z.
Au niveau 5%, on rejette H0 . On adoptera donc la nouvelle methode de fabrication,
reconnue plus precise que lancienne.

4.1

Intervalle de confiance dune variance


Il est facile de deduire du mod`ele obtenu une estimation par intervalle de 2 , a` partir de
lobservation s20 . Lintervalle de confiance sera constitue des valeurs de 2 qui seraient
acceptees dans un test dhypoth`ese bilateral. Do`u la methode :
2
on sait que la variable nS
obeit a` une loi 2n1 ;
2
on determine les valeurs c et d telles que P(2n1 < c) = 2 et P(2n1 < d) = 1 2 ;
ns2

On a observe la valeur s20 de S 2 . On parie quelle verifie linegalite c < 20 < d, do`u
on tire lintervalle de confiance de 2 pour le coefficient de securite 1 .
Exemple 9.8 (suite de lexemple 9.7 ). On se propose maintenant de proceder a` une
estimation par intervalle de la variance obtenue par la nouvelle methode, afin de pouvoir
e valuer sa precision.
2
La variable 10S
obeit a` une loi de 29 ; on e crit que la valeur observee 130
verifie la
2
2
130
double inegalite : 2.700 < 2 < 19.023, au niveau de confiance de 95%.
Do`u lintervalle de confiance : 6.83 < 2 < 48.15

4.2

Probl`emes a` deux e chantillons


Soit un ensemble (X1 , X2 , . . . , Xn ) de n variables independantes, de meme loi normale
2
N (X , X
). Soit un deuxi`eme ensemble (Y1 , Y2 , . . . , Yp ) de p variables independantes,
de meme loi normale N (Y , Y2 ). Les deux ensembles sont supposes independants entre
eux. On note :
n

2
SX

1X
=
(Xi X)2
n i=1

SY2 =

1
p

Pp

i=1 (Yi

Y )2

2
Sc
X =

1 X
2
(Xi X)2 Sc
Y =
n 1 i=1

1
p1

Pp

i=1 (Yi

Y )2

On sait que, dans le cadre des hypoth`eses ci-dessus :


2
2
2
nSX
(n 1)Sc
pSY2
(p 1)Sc
2
X
Y
=

,
=
2p1
n1
2
2
X
X
Y2
Y2

On en deduit :
2
2
p 1 2n1
p 1 nSX
Y2
Y2 Sc
X
F (n 1, p 1) =
=
= 2
2
n 1 2p1
n 1 pSY2 X
X Sc2
Y

bar-hen.net

Test dhypoth`ese sur 2

240

Do`u le resultat important :


La variable

c
2 S
2
Y
X
2
2
X Sc
Y

obeit a` une loi F (n 1, p 1).

Il devient alors possible de construire des interpretations statistiques concernant le rap2


port Y2
X

4.3

Comparaison de deux variances. Test F


2
On se propose de tester lhypoth`ese H0 : X
= Y2 contre lune des trois hypoth`eses
alternatives suivantes :
2
2
2
6= Y2
> Y2 ; H2 : X
< Y2 ; H3 : X
H1 : X

Dans le cadre du mod`ele qui vient detre decrit,

2
Y
2
X

consequent :
Sous H0 , Z =

2
Sc
X
c
S2

2
Sc
X
c
S2

suit une loi F (n 1, p 1), et par

suit une loi de F (n 1, p 1).

2
Sous H1 : X
> Y2 Les variables Xi e tant plus dispersees, le rapport

2
Sc
X
2
Sc

aura tendance

a` prendre de preference des valeurs plus e levees que sous H0 . Ce sont donc les
valeurs e levees de Z qui incitent a` choisir H1 et a` rejeter H0 . On construit donc un
test unilateral avec domaine de rejet a` droite. Lintervalle dacceptation de H0 est
donc du type [0, b[, b e tant determinee, au niveau , par :
P[F (n 1, p 1) < b] = 1
Pour effectuer le test, il suffit de regarder o`u est situee la valeur observee z0 =

2
Sc
X
.
2
Sc
Y

2
Sous H2 : X
< Y2 le rapport

2
Sc
X
c
S2

aura tendance a` prendre de preference des valeurs

plus faibles que sous H0 . On construit donc un test unilateral avec domaine de
rejet a` gauche. Lintervalle dacceptation de H0 est donc du type [a, +[. En fait
il est bien plus simple de se ramener au cas precedent en inversant le rapport des
estimateurs.
La variable V =

2
Sc
Y
c
2
S

obeit de toute e vidence a` une loi F (p 1, n 1).

On a Z > a= Z1 < a1 =V < b = a1 et P(Z > a) = 1 = P(V < b = 1/a)


On peut donc e noncer la r`egle : dans un test F unilateral, on met au numerateur
lestimateur qui correspond a` la variance la plus forte dans lhypoth`ese alternative.
Lintervalle dacceptation est alors du type [0, b[ avec P[F (1 , 2 ) < b] = 1 , 1
e tant le nombre de degres de liberte associe au numerateur.
2
Sous H3 : X
6= Y2 le rapport

2
Sc
X
c
S2

aura tendance a` prendre soit des valeurs plus faibles,

soit des valeurs plus fortes que sous H0 . On construit donc un test bilateral. Lintervalle dacceptation de H0 est donc du type ]a, b[ avec, au niveau :

P[F (n 1, p 1) < b] = 1
et P[F (n 1, p 1) < a] =
2
2
bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

241

VARIANCES

Pour effectuer le test, il suffit de regarder o`u est situee la valeur observee z0 =

2
sc
X
.
2
sc
Y

La valeur b est lue dans la table 1 2 pour F (n 1, p 1). On obtient a1 dans la


table 1 2 pour F (n 1, p 1).
En realite a est toujours inferieur a` 1 et b toujours superieur a` 1 (voir tables 11.11
et 11.12). Donc si le rapport des estimations z0 =

2
sc
X
c
s2

est superieur a` 1, on sait que

z0 > a et il suffit de comparer z0 a` b.


Do`u la r`egle : dans un test bilateral, on met au numerateur lestimation la plus
forte, de mani`ere a` obtenir un quotient observe z0 superieur a` 1. Lintervalle dacceptation de H0 e tant du type ]a, b[, on sait alors que a < z0 et il suffit de comparer
z0 a` b ; on a : P[F (1 , 2 ) < b] = 1 2 , 1 e tant le nombre de degres de liberte
associe au numerateur.
Exemple 9.9 Des dosages de calcium sur deux e chantillons de vegetaux ont donne les
resultats suivants, exprimes en mg. de calcium :

Echantillon
A

Echantillon
B

Effectif
11
9

Moyenne empirique
3.92
4.18

Variance empirique
0.3130
0.4231

2
On admet que chaque mesure est realisation dune variable aleatoire N (X , X
) pour A
2
2
et N (Y , Y ) pour B. Peut-on conclure a` une difference entre les variances X et Y2 ?
2
2
On va tester lhypoth`ese H0 : X
= Y2 contre H1 : X
6= Y2 (test bilateral).
2
Sc
Soit Sc2 et Sc2 les estimateurs de 2 et 2 . On a Z = X F (8, 10).
X

2
Sc
Y

11
9
2
2
c
Or on a observe les valeurs sc
X = 10 0.3130 0.3443 et sY = 8 0.4231 0.4760, donc
z0 = 0.4760
1.38.
0.3443
P[F (8, 10) < 3.8549] = 0.975 1.38 < 3.8549
Au niveau 5%, lhypoth`ese de legalite des variances est acceptable.

Les lois de Student


Definition 9.3 Soit deux variables aleatoires independantes : une variable normale centree
reduite, U N (0, 1) et une variable chi-deux a` n degres de liberte, V 2n . On appelle
variable de Student a` n degres de liberte, la variable :

U
U n
=
Tn = q
1
V
V
n

5.1

Densite de probabilite
On montre que la densite fn , dune variable Tn a pour expression
cn
fn : t 7
n+1 , t R
2
1 + tn 2
bar-hen.net

242

Les lois de Student

o`u cn est une constante positive dependant de n.


Exemple 9.10 La loi de Student a` un degre de liberte, appelee aussi loi de Cauchy est la
loi de la variable T1 dont la densite est
f1 : t 7

1
1
,tR
(1 + t2 )

Cette variable, qui nadmet pas desperance ni de moments dordre superieur a` 1 (les
integrales correspondantes divergent), est souvent citee comme exemple.

5.2

Esperance et variance
Le calcul de lesperance et de la variance, lorsquelles existent, conduit aux resultats
suivants :
n
E(Tn ) = 0, definie pour n > 1 ; V(Tn ) = n2
, definie pour n > 2.

5.3

Forme de la distribution
Letude des variations de la densite dune variable Tn , montre que la distribution est en
cloche, symetrique par rapport a` laxe des ordonnees, et admet pour mode : 0.
Plus le nombre de degres de liberte augmente, et plus la distribution dune variable Tn
est resserree autour de lorigine.

5.4

Convergence en loi
La distribution dune variable Tn , de Student, est toujours plus dispersee que celle dune
variable normale centree reduite. Cependant on montre que la densite fn dune variable
Tn est telle que :
1
t2
Si n + , fn (t) e /2
2
Les lois de Student convergent donc vers la loi normale centre reduite. On constate dans
les tables de valeurs numerique (voir table 11.9) que la difference entre une loi de Student
et une loi normale centree reduite est, en ce qui concerne le calcul des probabilites, peu
sensible lorsque n = 30, presque negligeable lorsque n = 120.

5.5

Calcul des probabilites


Soit Fn (u) = P(Tn < u) = p
La table 11.9 permet dobtenir u, pour certaines valeurs de p, selon le nombre de degres
de liberte de la variable de Student.
` cause de la symetrie par rapport a` lorigine, la table nest construite que pour des
A
valeurs u positives.

bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

243

VARIANCES

Pour u < 0, on a, comme pour la loi normale centree reduite :


P(Tn < u) = P(Tn > u) = 1 P(Tn u) = 1 F (u)

Exemple 9.11 Pour n = 11, on a : P(Tn < 0.540) = 70% ; P(Tn < 1.796) = 95% ;
P(Tn < 2.201) = 97.5%
Pour n = 16, on a : P(Tn < 0.691) = 75% ; P(Tn < 0.691) = P(Tn > 0.691) =
25%
Pour n = 25, on a :
P(|Tn | < 2.060) =
=
=
=
=
=

6
6.1

P(2.060 < Tn < 2.060)


F (2.060) F (2.060)
F (2.060) [1 F (2.060)]
2F (2.060) 1
2 0.975 1
95%

Application a` letude des moyennes


Probl`emes a` un e chantillon
Comme dans letude des variances, on consid`ere un ensemble (X1 , X2 , . . . , Xn ) de n
variables independantes et de meme loi normale N (, 2 ). On rappelle que :
n

X=

X
1X
1X
c2 = 1
Xi , S 2 =
(Xi X)2 , S
(Xi X)2
n i=1
n i=1
n 1 i=1

c2
et la relation nS 2 = (n 1)S
On consid`ere maintenant la variable :
X
X
q
Z= q
=
2

S
n1
2

1 1
2 n

n1

Pn

i=1 (Xi

=
X)2
2
n

n1
q Pn

i=1 (Xi X)
2

On sait que Xi N (, ) X N ,
. Donc la premi`ere fraction est une
variable normale centree reduite U .
2
On reconnat de plus, sous le radical du deuxi`eme denominateur la variable V = nS
qui
2
est une variable 2n1 (voir section 3.1).
Le theor`eme de Cochran (voir section 3.1) permettant daffirmer lindependance entre U
et V , il est clair que la variable Z obeit a` la definition dune variable de Student a` (n 1)
degres de liberte.

bar-hen.net

244

Application a` letude des moyennes

On obtient ainsi un autre resultat important car on dispose maintenant dun mod`ele qui
ne depend plus que du param`etre :
X
est une variable de Student Tn1
=r
La variable Z = qX
S2
c
S2
n

n1

Il devient alors possible de construire des interpretations statistiques concernant le param`etre .

6.2

Test dhypoth`ese sur


On se propose de tester lhypoth`ese H0 : = a contre lune des trois hypoth`eses
alternatives suivantes :
H1 : > a ; H2 : < a ; H3 : 6= a
Dans le cadre du mod`ele qui vient detre decrit, la variable T =

Xa
q

S2
n1

est une variable

de Student a` (n 1) degres de liberte.


Sous H1 : > a Les e carts X a auront tendance a` e tre plus e levees que sous H0 ,
puisque la distribution de X est centree autour de .. Ce sont donc les valeurs
e levees de T qui incitent a` choisir H1 et a` rejeter H0 . On construit donc un test
unilateral avec domaine de rejet a` droite. Lintervalle dacceptation de H0 est donc
du type ] , b[, avec au niveau : P[T < b] = 1 .
x0 a
Pour effectuer le test, il suffit de regarder o`u est situee la valeur observee t0 = r
2
s0
n1

Sous H2 : < a Les e carts faibles de X a, cest-`a-dire les e carts negatifs, seront
plus probables que sous H0 . On construit donc un test unilateral avec domaine de
rejet a` gauche. Lintervalle dacceptation de H0 est donc du type [b, +[ avec
P[T < b] = . En fait on determine b par la relation, qui decoule de la symetrie
de la distribution : P[T < b] = 1 .
Sous H3 : 6= a Il est alors clair que lon construit un test bilateral, lintervalle dacceptation de H0 e tant du type [b, b] avec : P[T < b] = 1 2 .
Exemple 9.12 Sur six e tudiants de sexe masculin, choisis dans lamphi, on a mesure les
tailles suivantes : 172 ; 174 ; 178 ; 180 ; 175 ; 183 cm. Interpreter ces resultats sachant
que lesperance de la taille dun francais est 170cm.
Soit Xi N (, 2 ) la taille dun e tudiant choisi au hasard. On va tester lhypoth`ese
H0 : = 170P
contre lhypoth`ese H1 :
170
P>
6
6
1
1
2
Soit X = 6 i=1 Xi et soit s = 6 i=1 (Xi X)2 . Les differentes mesures e tant
q
independantes, la variable T5 = X170
obeit a` une loi de Student a` 5 degres de liberte,
s2
5

sous H0 .
Ce sont les valeurs e levees de T qui sont favorables a` H1 . On construit donc un test
unilateral avec domaine de rejet a` droite.
Au niveau 5%, lintervalle dacceptation de H0 est ] , 2.015].
bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

245

VARIANCES

On a observe les valeurs :


1
x0 = 170 + 42 = 177cm pour X
6
1
s20 =
(25 + 9 + 1 + 9 + 4 + 36) = 14 pour S 2
6
177 170
q
t0 =
4.18 pour T5
14
5

Au niveau 5%, on rejette donc H0 . Lesperance de la taille dun e tudiant est superieure
a` lesperance de la taille dun francais. La moyenne observee est assez significativement
differente de 170cm ; meme au niveau 0.5% on rejetterait H0 .

6.3

Intervalle de confiance dune esperance


Il est facile de deduire du mod`ele obtenu une estimation par intervalle de , a` partir de
lobservation x0 et sb20 . Lintervalle de confiance, pour un coefficient de securite 1
sera constitue des valeurs de qui seraient acceptees dans un test dhypoth`ese bilateral
au niveau . Do`u la methode :
obeit, sous des hypoth`eses de normalite et dindependance,
on sait que la variable qX
S2
n1

a` une loi de Student Tn1 ;


on determine la valeur b telle que P(b < Tn1 < b) = 1 ;
On a observe les valeurs x0 et sb20 de la moyenne et de la variance empiriques. On parie
quelle verifie la double inegalite :
x0
b < q 2 < b
s0
n1

Do`u lintervalle de confiance :


s
x0 b

s20
n1

s
< < x0 + b

s20
n1

Exemple 9.13 Sept dosages du glucose sanguin, effectues independamment, a` partir


du sang dune meme provenance ont donne les resultats suivants : 1.17 ; 1.16 ; 1.16 ;
1.19 ;1.19 ; 1.21 ; 1.18 grammes par litre.
On admet que chaque moyenne est une variable aleatoire normale dont lesperance est
la valeur que lon essaie de mesurer.
Determiner, pour le coefficient de securite de 95%, lintervalle de confiance de .
X
Soient X la moyenne et S 2 la variance des 7 mesures. On sait que la variable T6 = q
S2
6

est une variable de Student a` 6 degres de liberte, compte tenu de la normalite et de


lindependance des mesures.
On a observe les valeurs x0 = 1.18 et s20 = 20
104 de X et S 2 .
7
bar-hen.net

246

Application a` letude des moyennes

Au niveau de confiance de 95%, la valeur t0 =

xr
0
s2
0
6

verifie linegalite : 2.447 < t0 <

2.447
1.18
2.447 < q
< 2.447
20
4
10
76
Do`u lintervalle de confiance : 1.163 < < 1.197 gramme par litre.

6.4

Probl`emes a` deux e chantillons


Soit un ensemble (X1 , X2 , . . . , Xn ) de n variables independantes, de meme loi normale
N (X , 2 ). Soit un deuxi`eme ensemble (Y1 , Y2 , . . . , Yp ) de p variables independantes,
de meme loi normale N (Y , 2 ). Les variables X et Y sont supposees avoir la meme
2
variance (X
=Y2 = 2 ). Les deuxensembles
 sont supposes independants

 entre eux. 
2
2
On a : X N X , n et Y N Y , p . On en deduit : XY N X Y , 2 n1 + p1
et, par consequent :
X Y (X Y )
q
N (0, 1)
U=
n1 + p1
2
Soient maintenant les variables SX
et SY2 , variances associees aux X et aux Y . On sait
que :
2
nSX
pSY2
2

et
2p1
n1
2
2
On en deduit :
2
nSX
pSY2
V = 2 + 2 2n+p2

(somme de deux chi-deux independants).


Il en resulte
que, compte tenu du theor`eme de Cochran (voir section 3.1), la variable
U

Z = V n + p 2 obeit a` la definition dune variable de Student a` n + p 2 degres de


liberte.
Cette variable Z secrit :

X Y (X Y )
X Y (X Y )
n+p2
q
q
= q 2
Z=
q
nSX +pSY2
2
1
n1 + p1
(nSX
+ pSY2 ) 12
+ p1
n+p2
n

On designe par
2
2
c2 = nSX + pSY
S
n+p2
lestimateur sans biais de la variance commune aux X et aux Y (voir exercice 5 du
chapitre 8) , ce qui permet decrire :

Z=

X Y (X Y )
q
Tn+p2
1
1
2
c
S n+p
bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

247

VARIANCES

Lutilisation de ce mod`ele permet de proceder a` la comparaison de deux esperances.


Cependant, il est bon de souligner que ce mod`ele nest valable que sous des conditions
assez restrictives :
normalite et independance des variables X ;
normalite et independance des variables Y ;
independance relative des X et des Y ;
e galite des variances des X et des Y .

6.5

Comparaison de deux esperances


On desire tester lhypoth`ese H0 : X = Y contre lune des trois contre lune des trois
hypoth`eses alternatives suivantes :
H1 : X > Y ; H2 : X < Y ; H3 : X 6= Y
ce que lon peut e crire : H0 : X Y = 0
H1 : X Y > 0 ; H2 : X Y < 0 ; H3 : X Y 6= 0
Sous H0 , il resulte de ce qui prec`ede que la variable T =

q XY
c2 ( 1 + 1 )
S
n

est une variable de

Student Tn+p2 .
Les tests se construisent alors comme dans les probl`emes a` un e chantillon :
contre H1 : test unilateral avec domaine de rejet a` droite, car, sous H1 , lecart X Y
aura tendance a` avoir des valeurs plus e levees que sous H0 ;
contre H2 : test unilateral avec domaine de rejet a` gauche ;
contre H3 : test bilateral.
Pour effectuer le test on calcule, a` partir des e chantillons : x0 , y0 , s2X , s2Y , s20 =
0
.
et enfin t0 = q bx20 y
1
+ p1 )
s0 ( n
Il suffit de regarder si t0 est dans le domaine dacceptation ou de rejet de H0 .

ns2X +ps2Y
n+p2

Exemple 9.14 (suite de lexemple 9.9). Peut-on conclure a` une difference entre les esperances
X et Y ?
2
On a montre precedemment que lhypoth`ese X
= Y2 est acceptable. Dans ces conditions, la variance commune aux deux series de mesures peut e tre estimee par :
s20 =

11 0.3130 + 9 0.4231
0.4028
18

On veut tester lhypoth`ese H0 : X = Y contre H1 : X 6= Y .


Soient X la moyenne de 11 mesures de type A et Y la moyenne de 9 mesures de type B,
c2 e tant lestimateur de la variance commune aux deux types de mesure.
S
(X Y )
q
Sous H0 , la variable T18 = XY
obeit a` une loi de Student a` 18 degres de
c2 ( 1 + 1 )
S
11
9
liberte.
bar-hen.net

248

Application a` letude des moyennes

On effectue ici un test bilateral. On a observe la valeur


3.92 4.18

t0 = q

0.4028

1
11

1
9

 = 0.911 de la variable T18

Cette valeur est comprise dans lintervalle dacceptation de H0 au niveau 5% : [2.101; 2.101].
On peut donc admettre que les deux types de vegetaux ont la meme teneur en calcium, en
moyenne.
Ce test de comparaison de deux esperances a` partir de deux moyennes empiriques est
dit test dhomogeneite de Student. La condition restrictive degalite des variances
necessite, la plupart du temps, une verification preliminaire a` laide du test F .

bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

249

VARIANCES

7 Exercices
1. Une nouvelle technique de dosage du glucose sanguin vient detre mise au point.
Sept dosages, effectues a` laide de cette nouvelle technique, a` partir du sang dune
meme provenance, ont donne les resultats suivants :
1.17 1.16 1.16 1.19 1.19 1.21 1.18 gramme/litre
On admet que chaque mesure est une variable aleatoire normale dont lesperance
est la valeur que lon cherche a` determiner et dont lecart-type caracterise la
precision du procede. On consid`ere que les n resultats possibles dun ensemble
de n dosages, effectues dans les memes conditions sont des variables aleatoires
independantes et de meme loi.
La technique utilisee jusqu`a ce jour e tait caracterisee par un e cart-type de 0.05
mg/litre. Peut-on dire que la nouvelle technique est plus precise que lancienne ?
Determiner, a` partir de lechantillon, un intervalle de confiance de .
2. Une boisson, de consommation courante, est vendue en bouteilles dun litre. Lun
des e lements de sa composition est un certain produit A qui fait lobjet dune
reglementation particuli`ere.
On designe par X la variable aleatoire representant la quantite A, exprimee en
milligrammes, que lon peut trouver dans une bouteille. On admet que X suit une
loi normale desperance . Pour que la boisson soit conforme a` la reglementation
en vigueur, la valeur de ne doit pas depasser 50 milligrammes.
Une association de consommateurs a fait effectuer des dosages de A sur 9 bouteilles
choisies au hasard mais dune marque donnee. Les resultats, en milligrammes, sont
les suivants :
60.5 - 58.5 - 57.8 - 56.4 - 54.7 - 53.5 - 49.3 - 48.2 - 48.0
Verifier si la reglementation est respectee par le fabricant.
Donner, pour la marque en question, un intervalle de confiance de .
3. Les resultats du dosage du glucose sanguin, effectue sur un lot de 9 lapins, sont les
suivants :
1.17 ; 1.16 ; 1.15 ; 1.18 ; 1.19 ; 1.20 ; 1.20 ; 1.16 ; 1.21
grammes par litre. On admet que chaque mesure est une variable normale desperance
, taux moyen de glycemie dans la population do`u provient le lot. Entre quelles
limites peut-on situer , au niveau de confiance de 95% ?
4. Pour comparer linfluence de deux regimes alimentaires A et B sur le developpement
des doryphores, un entomologiste a mesure, lors de la mue imaginale, le poids
dinsectes e leves dans les conditions A pour les uns, dans les conditions B pour les
autres. il a obtenu les resultats suivants :
Regime A (9 insectes males) : 100, 94, 119, 111, 113, 84, 102, 107, 99 mg
Regime B (8 insectes males) : 107, 115, 99, 111, 114, 127, 145, 140 mg

bar-hen.net

250

Exercices

Le poids dun insecte choisi au hasard dans un e levage est une variable aleatoire
que lon designera par X dans le cas A et par Y dans le cas B. On admet que X et
Y sont de loi normale.
Montrer quil ny a aucune raison de penser que X et Y ont des variances
differentes. Pour la suite, on notera 2 , la valeur commune de ces deux variances.
En utilisant lensemble des resultats, donner une estimation de 2 ; on designe
par S2 lestimateur utilise. Calculer lesperance et la variance de S2 ; en deduire
les qualites de cet estimateur.
En utilisant lensemble des resultats et avec un minimum de justifications, donner un intervalle de confiance de 2
Montrer que le regime B est plus favorable au developpement des insectes que
le regime A.
5. Un laboratoire produit un vaccin destine a` une population de 100000 personnes.
On consid`ere que la proportion p de personnes achetant le vaccin suit une loi gaussienne de moyenne 0.24 et decart-type 0.03.
Combien de doses doit-il produire pour que le risque de rupture de stock soit de
lordre de 2% ?
Quelle doit e tre la marge beneficiaire realisee sur chaque doses vendue pour que
le risque de perte soit de lordre de 3% ?
6. On desire savoir si une certaine variete de ble a, dans une region A, un rendement
superieur a` celui quelle a dans une region B. Pour cela, on dispose de resultats,
exprimes en quintaux par hectare, obtenus sur seize parcelles differentes et ainsi
repartis :
Region A 48.0 48.2 50.3 53.5 54.6 56.4 57.8 58.5 60.5
Region B 44.2 46.3 48.3 48.5 50.5 51.2 55.4
On suppose que le rendement observable sur une parcelle, choisie au hasard dans
une region donnee, est une variable aleatoire designee par X pour la region A et
par Y pour la region B.
(a) Dans un premier temps, on admet que X et Y sont des variables normales
dont lesperance et la variance sont representees par : A et A2 pour X, B
et B2 pour Y
i. Montrer que lhypoth`ese A2 = B2 est acceptable. Pour la suite, on
designera par 2 la valeur commune de ces deux variances.
ii. On peut alors disposer de trois estimateurs sans biais de 2 . Le premier
est associe a` un ensemble de 9 rendements possibles provenant de la
region A. Le deuxi`eme est associe a` un ensemble de 7 rendements possibles provenant de la region B. Le troisi`eme associe a` lensemble des
16 rendements precedents. A partir de leur e cart quadratique moyen relativement a` 2 , choisir le meilleur de ces trois estimateurs. En deduite
une estimation de 2 .
iii. A partir de lensemble des 16 observations, donner un intervalle de
confiance de 2 .
iv. Montrer que lon peut accepter lhypoth`ese A > B
bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

251

VARIANCES

v. Donner un estimateur de A B . Calculer son esperance et sa variance ; quen conclure ? En deduire une estimation de A B
vi. Determiner un intervalle de confiance de A B
(b) En labsence de toute hypoth`ese sur le type de loi suivi par X et par Y , peuton cependant affirmer que le rendement de la variete de ble a tendance a` e tre
plus e leve dans la region A que dans la region B ?
(a) On consid`ere un ensemble (X1 , X2 , . . . , Xn ), de n variables independantes
et de meme loi N (, 2 ). Soient les variables :

7.

X=

1X
1 X
1X
2
2
Xi , SX
=
(Xi X)2 , Sc
(Xi X)2
X =
n i=1
n i=1
n 1 i=1

` partir des resultats connus sur les lois du 2 , calculer lesperance et la vaA
2
2
2
riance des variables SX
et Sc
es des variables SX
X . Quelles sont les qualit
2
et Sc
erees comme des estimateurs du param`etre 2 ? Quel est le
X consid
meilleur estimateur de 2 ?
(b) On consid`ere un deuxi`eme ensemble {Y1 , Y2 , . . . , Yp } independant du precedent,
de variables aleatoires independantes et de meme loi N (2 , 2 ). Soient les
variables :
p
p
c2
c2
1X
1X
2
c2 = (n 1)SX + (p 1)SY
Yi , S Y =
(Yi Y )2 , S
Y =
n+p2
p i=1
p i=1

c2 . Quelles sont les qualites de la vaCalculer lesperance et la variance de S


c2 considerees comme des estimateurs du param`etre 2 ?
riable S
` votre avis, quel est le meilleur estimateur de 2 ?
(c) A
8. On consid`ere deux variables aleatoires reelles R et S de densites de probabilite
respectives :

t 7 0
, si t 0
fR :
t 7 aeat , si t > 0
et


fS :

t 7 0
, si t 0
t 7 bebt , si t > 0

o`u a et b sont deux param`etres reels strictement positifs.


On se propose, en se ramenant a` des mod`eles connus, de construire des tests concernant les param`etres de ces distributions exponentielles, et dimaginer comment
proceder a` leur estimation.
On rappelle que les densites de probabilite dune loi du khi-deux a` deux degres de
liberte et dune loi exponentielle de param`etre 12 sont les memes.
Construction des mod`eles Montrer que la variable aleatoire T = 2aR suit une
loi du khi-deux a` deux degres de liberte. en deduire lesperance et la variance de R.
bar-hen.net

252

Exercices

Soit un ensemble de n variables aleatoires (R1 , R2 , . . . , Rn ) independantes


et de meme loi que R. On associe a` ce n-echantillon la variable Zn =
2a(R1 + R2 + + Rn ). Quelle est la loi de Zn ?
Soit un deuxi`eme ensemble (S1 , S2 , . . . , Sp ) de variables independantes
entre elles, independantes des n precedentes, et de meme loi que S. On
1 +R2 ++Rn )
consid`ere la variable U (n, p) = np ab (R
. Quelle est la loi de
(S1 +S2 ++Sp )
U (n, p) ?
Premier test On suppose n = 12. Les valeurs observees des 12 variables considerees
sont precisement :
0.100 - 1.197 - 0.152 - 0.182 - 0.418 - 0.192 - 0.029 - 0.885 - 0.161 - 0.633 0.278 - 0.008
Construire un test de lhypoth`ese H0 : a = 3 contre lhypoth`ese H1 : a > 3.
Quel est le resultat du test ?
Deuxi`eme test On suppose p = 10. Les valeurs observees des 10 variables considerees
sont precisement :
0.361 - 0.085 - 0.293 - 0.080 - 0.077 - 0.020 - 0.036 - 0.095 - 0.197 - 0.206
Construire un test de lhypoth`ese H0 : a = b contre lhypoth`ese H1 : a 6= b.
Quel est le resultat du test ?
Estimation En cas de rejet de lhypoth`ese a = b, determiner un intervalle de
confiance de b et donner, avec un minimum de justifications, une estimation
de b.

bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

253

VARIANCES

8 Solutions
1. On consid`ere un 7-echantillon (Y1 , Y2 , Y3 , Y4 , Y5 , Y6 , Y7 ) o`u les variables Yi sont
independantes et de loi N (, 2 ).
(
P
Y = 17 7i=1 Yi
2
P
On pose :
S2 = 16 7i=1 Yi Y

y = 1.18
On a observe :
s2 = 3.333.104 = 20
.104
6
On veut tester lhypoth`ese H0 : 2 = 25.104 contre lhypoth`ese H1 : 2 <
25.104
6S2
Soit la variable Z = 25.10
4 .
Sous H0 , Z suit une loi du chi-deux a` 6 degres de liberte.
Sous H1 , Z aura tendance a` prendre des valeurs plus faibles que sous H0 ; on
construit donc un test unilateral avec un domaine de rejet a` gauche.
4
On a observe la valeur z = 20.10
= 0.8 < 1.635
25.104
Au niveau 5%, on rejette donc H0 . La nouvelle methode est plus precise que lancienne.
Soit la variable T = Y
, dont on a observe la valeur t = 1.18
. Cette variable
20
4
2
S /7

42

10

suit une loi de Student a` 6 degres de liberte. Au niveau de confiance de 95%, on


peut parier sur linegalite 2.447 < 1.18
< 2.447
20
4
42

10

Do`u lintervalle de confiance 1.163 < < 1.197


2. On consid`ere un 9-echantillon (X1 , X2 , . . . , X9 ) o`u Xi represente la quantite A que
lon peut trouver dans la ie` me bouteille. Les 9 variables aleatoires sont independantes
2
P
P
et de meme loi N (, 2 ). On pose X = 19 9i=1 Xi ; S 2 = 19 9i=1 Xi X ou
2
P
S2 = 18 9i=1 Xi X
On va tester H0 : 50 contre H1 : > 50
Pour cela, on choisit la variable
X 50
X 50
= q
T = p
S 2 /8
S2 /9
Sous H0 , si 50=, T suit une loi de Student a` 8 degres de liberte. Si < 50, T
aura tendance a` prendre des valeurs negatives.
Sous H1 , X a tendance a` prendre des valeurs superieures a` 50 et donc T a tendance a` prendre des valeurs positives.
On construit donc un intervalle unilateral avec domaine de rejet de H0 a` droite.
Au niveau = 5%, le domaine de rejet de H0 est [1.860 ; +[. De mani`ere
e quivalente, le domaine dacceptation de H0 est ] ; 1.860[
On a observe x = 54.1 , 8s2 = 9s2 = 175.08 Donc t = 2.629 En ce qui concerne
la reglementation nest pas respectee.

bar-hen.net

254

Solutions

On choisit la variable
X
X
=q
U=p
2
S /8
S2 /9
Cette variable suit une loi de Student a` 8 degres de liberte. Pour un coefficient de
securite de 95%, on peut parier que la valeur observee u0 verifie les inegalites :
2.306 < u0 < 2.306
54.1
< 2.306
2.306 < p
175.08/72
Do`u lintervalle de confiance :
50.5 < < 57.7
3. On consid`ere un 9-echantillon (X1 , X2 , X3 , X4 , X5 , X6 , X7 , X8 , X9 ) o`u Xi represente
le resultat possible du ie` me dosage. Les variables Xi sont independantes et de meme
loi N (, 2 ).
P
On pose : X = 19 9i=1 Xi . On a observe x0 = 1.18 mg/litre.
P
On pose S 2 == 91 9i=1 (Xi X)2 . On a observe s20 = 4 104 (mg/litre.)2 .
X
Soit Z = q
. Cette variable suit une loi de Student a` 8 degres de liberte.
2
s/
8

Au niveau 90%, on peut e crire que la valeur observee z0 verifie linegalite :


1.18
< 1.86
1.86 < q
4
4
10
8
Do`u lintervalle de confiance : 1.167 < < 1.193 mg/l
2
. Cette variable suit une loi du khi-deux a` 8 degres de liberte.
Soit Y = 9S
2
Pour un niveau de confiance de 90%, on peut parier sur linegalite :
2.733 <

36 104
< 15.507
2

Do`u lintervalle de confiance : 2.32 104 < 2 < 13.17 104 .


4. Soit un premier ensemble (X1 , X2 , . . . , X8 , X9 ) de variables independantes et de
meme loi, representant les mesures possibles sur 9 insectes e leves dans les conditions A.
Soit un deuxi`eme ensemble (Y1 , Y2 , . . . , Y7 , Y8 ) de variables independantes et de
meme loi, representant les mesures possibles sur 8 insectes e leves dans les conditions B.
On suppose Xi N (A , A2 ) et Yi N (B , B2 )
(
P
X = 19 9i=1 Xi
2
P
On pose :
2
SX
= 18 9i=1 Xi X
bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

255

VARIANCES

x 103.222
On a observe :
s2 112.944
X
s2X 100.395
(
P
Y = 18 8i=1 Yi
2
P
On pose :
S2 = 17 8i=1 Yi Y

y 119.750
On a observe :
s2 260.786
Y2
sY 228.188
On veut tester H0 : A2 = B2 contre H1 : A2 6= B2
On choisit la variable Z =
Sous H0 , Z =
Sous H1 , Z =

2
A
2
B
2
B
2
A

s2Y
s2

s2Y
s2

, puisque A2 = B2 . Donc Z F(7, 8)


X


2 s
2
2
A
B
Y
=
Z 0 o`u Z 0 F(7, 8). Donc Z aura tendance a`
2

2
B

sX

prendre des valeurs plus fortes ou plus faibles que sous H0 selon que A2 < B2
ou A2 > B2 . Do`u un test bilateral. A un niveau 5%, le domaine dacceptation
de H0 est : ]1/4.8994 ; 5.5286[
On a observe z0 2.309 do`u lacceptation de H0
On prend comme estimateur de la variable la variable aleatoire :
8S2 + 7SY2
S2 = X
15
ce qui conduit a` lestimation
2 =

8112.944+7260.786
15

181.937

2
8S2
7S2
On peut e crire 15S2 = 2X + 2Y
8S2
7S2
15S2
2

Or 2X 28 et 2Y

.
Ces
deux
variables
e
tant
ind
e
pendantes,
7
2

 
 
15S2
15
2
2
2

On en deduit E 2 = 15 2 E S = 15 E S =

215 .

S2 est donc un estimateur


  sans biais2 de 2 
 
4
15S 2
15
2

On a de meme V 2 = 30 4 V S = 30 V S2 = 2
15
Puisque le biais de S2 est nul, la variance est e gale a` lecart quadratique moyen
de S2 relativement a` 2 . Si on estime que cette grandeur est trop e levee, on peut
la diminuer en jouant sur la taille des e chantillons. S2 fait partie dune suite
consistante destimateurs.
2
Puisque la variable 15S2 suit une loi du khi-deux a` 15 degres de liberte, on peut
parier que la valeur observee de cette variable verifie la double inegalite, pour
un niveau de confiance de 95% :
6.262 <

15 181.937
< 27.488
2

do`u lintervalle de confiance : 99.28 < 2 < 435.81

bar-hen.net

256

Solutions

On va tester H0 : B = A contre H1 : B > A Les variables Xi et Yj e tant


considerees comme ayant la meme variance 2 , on choisit la variable :
Y X

V =q

S2 (1/8 + 1/9)

5.

Sous H0 : B A = 0 ; V suit une loi de Student a` 15 degres de liberte. Sous


H1 , V aura tendance a` prendre des valeurs positives preferentiellement. En effet
B > A Y a tendance a` prendre des valeurs superieures a` X. On construit
donc un test unilateral avec domaine de rejet H0 a` droite.
Au niveau 5%, le domaine dacceptation de H0 est ] ; 1.753[. Le domaine
de rejet de H0 est [1.753 ; +[
On a observe v0 2.521 on rejette H0 le regime B favorise le developpement
des doryphores.

(a) Dapr`es la table P p0.24
2.05 0.02
0.03
Donc P(p > 0.3015) 0.02
Il doit donc produire 30150 doses
(b) Il y a perte si p 105 prix< 30150cout
Cest-`a-dire si p < 0.3015cout/prix

Or P p0.24
<
1.88
0.03
0.03
La marge beneficiaire doit donc e tre 0.3015
1 64%
0.1836

6.

(a) Au 9-echantillon (X1 , X2 , . . . , X9 ) des rendements possibles des parcelles


2
P
P
de A, on associe les variables aleatoires X = 19 9i=1 Xi ; S 2 = 19 9i=1 Xi X
2
P
ou S2 = 18 9i=1 Xi X .
Au 7-echantillon (Y1 , Y2 , Y3 , Y4 , Y5 , Y6 , Y7 ) des (
rendements possibles des parP
Y = 17 7i=1 Yi
2
P
celles de B, on associe les variables aleatoires
S2 = 16 7i=1 Yi Y
On suppose Xi N (A , A2 ) et Yi N (B , B2 )
i. On veut tester H0 : A2 = B2 contre H1 : A2 6= B2
On choisit la variable U =

s2X
s2
Y

2
B
2
A

s2X
,
s2

puisque A2 = B2 . Donc Z F(8, 6)


Y


2
2 s
2
A
2
B
X
= A2 Z 0 o`u Z 0 F(8, 6). Donc U aura
Sous H1 , U = 2 2 2

Sous H0 , U =

sY

tendance a` prendre des valeurs plus fortes ou plus faibles que sous H0
selon que A2 > B2 ou A2 < B2 . Do`u un test bilateral. A un niveau
5%, le domaine dacceptation de H0 est : ]1/4.6517 ; 5.5596[
On a observe s2 = 20.785, s2 = 13.140 u 1.582 do`u lacceptaX

tion de H0

bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

257

VARIANCES

ii. Les trois estimateurs possibles de 2 sont s2X , s2Y et S2 =


2
6S2
8SX
28 et 2Y 26 .
2
6S2
8S2 +6S2
8S2
Donc E( 2X ) =E( 2Y )=E( X14 Y ) =
4
6S2
8S2
2
et V( 2X ) = 16 et donc V(SX
) = 4 ; V( 2Y
4
2
4
; V( 14S2 ) = 28 et donc V(S2 ) = 7 ;
3

2 +6S2
8SX
Y
14

On sait

) = 12 et donc V(SY2 ) =

les trois estimateurs sont des estimateurs sans biais de 2 . Dans ces
conditions leur e cart quadratique moyen est e gale a` leur variance (EQM=V()+(biais)2 ).
Le meilleur estimateur de 2 est celui de plus faible e cart quadratique
8S2 +6S2
moyen et cest donc S2 . On en deduit 2 = X Y 17.5086
14

iii. Pour determiner un intervalle de confiance de 2 , on utilise la variable


aleatoire 14S2 / 2 214 . Pour un niveau de confiance de 95%, on peut
parier sur linegalite : 5.629 < 245.12
< 43.546 Do`u lintervalle de
2
confiance 9.384 < 2 < 43.546
iv. On va tester, au niveau 5%, lhypoth`ese H0 : B = A contre H1 :
B > A Les variables Xi et Yj e tant considerees comme ayant la
meme variance 2 , on choisit la variable :
Y X

V =q

S2 (1/7 + 1/9)

Sous H0 : B A = 0 ; V suit une loi de Student a` 14 degres


de liberte. Sous H1 , V aura tendance a` prendre des valeurs positives
preferentiellement. En effet B > A Y a tendance a` prendre des
valeurs superieures a` X. On construit donc un test unilateral avec domaine de rejet H0 a` droite.
Au niveau 5%, le domaine dacceptation de H0 est ] ; 1.761[. Le
domaine de rejet de H0 est [1.761 ; +[
On a observe v0 = 54.249.2
2.3711 on accepte H1 : A >
17.5086(1/9+1/7)
B
v. Un estimateur de la variable A B est la variable Z = X Y
E(Z)=E(X Y )=E(X)E(Y )= A B . Cest donc un estimateur sans
biais
V(Z)=V(X Y )=V(X)+V(Y ) (car independance de X et Y ) donc
V(Z)= 9 + 7 . Cest donc un estimateur consistant.
B = X Y = 54.2 49.2 = 5
On en deduit : A
vi. Pour determiner un intervalle de confiance de A B , on choisit la
variable aleatoire
T =

bar-hen.net

Y X (A B )
q
S2 (1/9 + 1/7)

258

Solutions

Cette variable suit une loi de Student a` 14 degres de liberte.


A B )
On a observe t = 5(
. Pour un niveau de confiance de 95%, on
2.1087
A B )
peut parier sur linegalite 2.145 < 5(
< 2.145. Do`u linter2.1087
valle de confiance 0.4768 < A B < 9.5232
(b) On peut tester lhypoth`ese H0 : les variables Xi et Yj ont meme loi contre
lhypoth`ese H1 : les variables Xi ont tendance a` prendre des valeurs plus
grandes que celles des Yj .
Soit W la variable aleatoire associant aux 16 resultats possibles, ranges par
valeurs croissantes, la somme des rangs des 7 resultats de B. W est a` valeurs
enti`eres sur {28, 29,. . .,90,91}. Sous H0 , W a une distribution en cloche,
symetrique. Sous H1 , W aura tendance a` prendre des valeurs situees a` gauche
de la distribution. Do`u un test unilateral qui admet, au niveau 5%, pour
domaine de rejet H0 : {28, 29, . . . , 42, 43}
les 16 observations sont ranges par valeurs croissantes :
y 1 , y 2 , x1 , x 2 , y 3 , y 4 , x 3 , y 5 , y 6 , x4 , x5 , y 7 , x 6 , x7 , x8 , x9
On en deduit W = 43 Rejet de H0
Le test non parametrique de la somme des rangs conduit donc e galement a`
la conclusion que la variete a un meilleur rendement dans la region A.
7.

(a) On sait que

2
nSX
2

2
(n1)Sc
X
2


E

2
nSX
2

2n1 . On en deduit donc (pour n 2) :


2
= n 1 E(SX
)=

n1 2

 2
2
SX
est un estimateur biaise de 2 , de biais n .
!
2
(n 1)Sc
2
X
2
E
= n 1 E(Sc
X) =
2
2
SX
est un estimateur sans biais de 2


2
nSX
2(n 1) 4
2
V
= 2(n 1) V(SX
)=

n2
!
4
2
(n 1)Sc
X
c2 ) = 2
=
2(n

1)

V(
S
X
2
n1


V
et donc :
E

2
(SX

2 2


=

2(n 1)
1
+ 2
2
n
n



2 2
2
2
4 , E (Sc

)
= V(Sc
X
X) =

2 4
(n 1)

2
En utilisant la relation 8.5 on deduit que Sc
X , estimateur sans biais et dont la
variance tend vers zero lorsque n tend vers linfini est un estimateur consistant de 2 . En effet, la relation 8.5 secrit :

 4
2

2
2
 > 0 , 1
P(|Sc
X | < ) 1
n 1 2

bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

259

VARIANCES

2
2
Il est clair que  > 0, P(|Sc
X | < ) 1 quand n +.
2
En ce qui concerne SX
, on a :


2(n 1) 4
2
P(|SX
2 | < ) 1
 > 0 , 1
2
2
n

2
Il est e galement clair que SX
est un estimateur consistant de 2 , bien que
2
biaise :  > 0, P(|SX
2 | < ) 1 quand n +.
Le meilleur estimateur est celui qui a le plus faible e cart quadratique moyen
relativement a` 2 . Contrairement a` ce que lon pourrait penser, dans les
2
mod`eles gaussiens, il sagit de SX
. On a, en effet :




2(n 1) 4
2
2
2 2
2

<
4
E (SX
2 )2 < E (Sc

X
n2
n1
2n2 3n + 1 < 2n2
1 3n < 0
(b) Pour n 2 et p 2 :
2
(n1 )E(SX
) + (p 1)E(SY2 )
n+p2
2
(n1 ) + (p 1) 2
=
n+p2
2
=

c2 ) =
E(S

2
c2
` cause de lindependance des variables Sc
A
X et SY , on a :

(n1 )2
(p 1)2
2
V(S
)
+
V(SY2 )
X
(n + p 2)2
(n + p 2)2
(n1 )2
2 4
(p 1)2 2 4
=
+
(n + p 2)2 n 1 (n + p 2)2 p 1
2 4
=
n+p2

c2 ) =
V(S

c2 , estimateur de la variance 2 , commune aux deux e chantillons, est un


S
estimateur consistant de 2 puisque sans biais et de variance qui tend vers
zero lorsque n + p +.
c2 est le meilleur estimateur de la variance 2 quand n et p 3.
(c) S
La fonction f definie par f (x) = 2x1
= x2 x12 , x 2 est strictement
x2
decroissante (f 0 (x) = x22 + x23 = 2(1x)
< 0).
x3
2p1
2n1
2
Donc si n p 2, on a : n2 n2 et SX
est le meilleur estimateur de
2
2
2
de par rapport a` SY .
c2 .
Comparons maintenant les e carts quadratiques moyens de S 2 . et S
X

bar-hen.net

260

Solutions




c2 2 )2 E S 2 2 )2
E S
X

2 4
2n 1 4

n+p2
n2
2n 1
2

p + (n 2)
n2
2n2 p(2n 1) + (2n 1)(n 2)
2n2 2n2 5n + 2 + p(2n 1)
n(2p 5) p 2
(9.2)

la relation 9.2 nest pas verifiee pour p = 2. Par contre, pour p 3, la


p2
relation 9.2 est verifiee pour n 2p5
. Donc pour n p 3. (Le cas
p n se traite de la meme facon en permutant X et Y , n et p). En effet :
p2
n p n > p 2 n > 2p5
, puisque 2p 6 2p 5 1.
8. Construction des mod`eles
Soit FT la fonction de repartition et fT la densite de la variable T . Par
definition :


t
FT (t) = P(T < t) = P(2aR < t) = P R <
car a > 0
2a

Donc :FT (t) = FR 2at

1
Par derivation :fT (t) = 2a
fR 2at
Do`u la densite :

t 7 0
, si t 0
fT :
1 t/2
t 7 2 e
, si t > 0
On reconnat une loi exponentielle de param`etre 1/2 ou, ce qui revient au
meme, une loi du khi-deux a` deux degres de liberte. On sait alors que
E(T )=2 et V(T )=4. On en deduit :
E(T ) = E(2aR) = 2aE(R) E(R) = a1
V(T ) = V(2aR) = 4a2 V(R) V(R) = a12
On retrouve les resultats connus pour une loi exponentielle de param`etre
a
On a
Zn = 2a(R1 + R2 + + Rn )
= 2aR1 + 2aR2 + + 2aRn
= T1 + T2 + + Tn
Zn est la somme de n variables independantes et de meme loi du khi-deux
a` deux degres de liberte. Donc Zn suit une loi du khi-deux a` 2n degres de
liberte (propriete dadditivite des 2 ).
bar-hen.net


9. L ES MOD E` LES GAUSSIENS ET LEUR UTILISATION A` L ETUDE
DES MOYENNES ET DES

261

VARIANCES

De meme Wp = 2b(S1 + S2 + + Sp ) suit une loi du khi-deux a` 2p


degres de liberte et
U (n, p) =

p a (R1 + R2 + + Rn )
Zn 2p
=
n b (S1 + S2 + + Sp )
2n Wp

Par definition U (n, p) suit une loi de Fisher-Snedecor a` 2n et 2p degres de


liberte, que lon note F(2n, 2p).
Premier test On dispose dun 12-echantillon (R1 , R2 , . . . , R12 ) On veut tester
H0 : a = 3 contre H1 : a > 3. Pour cela, on choisit la variable Z12 =
2.3(R1 + R2 + + R12 )
Sous H0 , puisque a = 3, Z12 suit une loi du khi-deux a` 24 degres de liberte.
Sous H1 , Z12 ne suit plus la meme loi, mais on peut e crire :
3
3
Z12 = 2a(R1 + R2 + + R12 ) = Z12
a
a

o`u Z12
suit une loi 224 . Puisque, sous H1 , a3 < 1, on peut affirmer que la loi
de Z12 est deplacee vers la gauche par rapport a` la loi du 224 .
On construit donc un test unilateral avec domaine de rejet de H0 a` gauche.
Au niveau = 5%, le domaine dacceptation de H0 est ]13.848 ; +[
On a observe la valeur z12 = 6(0.100+1.197+0.152+ +0.278+0.008) =
25.41. Au niveau 5% lhypoth`ese H0 : a = 3 est acceptable.
Deuxi`eme test On dispose dun 12-echantillon (R1 , R2 , . . . , R12 ) et dun 10-echantillon
(S1 , S2 , . . . , S10 ) independant du precedent.
On veut tester H0 : a = b contre H1 : a 6= b. Pour cela, on choisit la variable
(R1 +R2 ++R12 )
U (12, 10) = 10
12 (S1 +S2 ++S10 )
Sous H0 : 1 = ab et U (12, 10) suit une loi F(24, 20).
Sous H1 , U (12, 10) ne suit plus la meme loi, mais on peut e crire :

Z12 =

b 10 a (R1 + R2 + + R12 )
b
= U (12, 10)
a 12 b (S1 + S2 + + S10 )
a

o`u U (12, 10) suit une loi F(24, 20).


Deux cas sont alors a` envisager :
b
> 1 b > a la loi de U (12, 10) est deplacee vers la droite par rapport a`
a
la loi F(24, 20).
b
< 1 b < a la loi de U (12, 10) est deplacee vers la gauche par rapport a`
a
la loi F(24, 20).
On construit donc un test bilateral.
Au niveau = 5% (2.5% a` gauche, 2.5% a` droite), le domaine dacceptation
de H0 est : ]0.4296 ; 2.4076[
2.4076 est lu directement dans la table pour F(24, 20). 0.4296=1/2.3273 o`u
2.3273 est lu sur la table de F(24, 20).
4.235
On a observe la valeur u(12, 10) = 10
2.434. Au niveau 5%, on rejette
12 1.450
donc H0 .
bar-hen.net

262

Solutions

Estimation Pour determiner un intervalle de confiance de b, on passe par lintermediaire de la variable W20 = 2b(S1 + S2 + + S10 ) qui suit une loi du
khi-deux a` 20 degres de liberte.
Pour un coefficient de securite de 95%, on peut parier que la valeur observee
w20 de W20 verifie les inegalites : 9.591 < w20 < 34.170
or w20 = 2b(1.450) 9.591 < 2.90b < 34.170
Do`u lintervalle de confiance : 3.307 < b < 11.1783
Estimation ponctuelle de b
On sait quun bon estimateur du param`etre E(S) est la variable S = p1 (S1 +
S2 + + Sp ) ; cest un estimateur consistant puisque :
il est sans biais : E(S)=E(S)
sa variance V(S)=V(S)/p tend vers zero si p tend vers +
On en deduit une estimation de E(S)
= 1 (1.450) = 0.145
E(S)
10
on sait dautre part que E(S)=1/b. On peut donc en deduire lestimation :
b =

1
= 6.896 6.9

E(S)

bar-hen.net

Chapitre 10
Le test chi-deux
1

Introduction
` la difference des mod`eles
Le test du 2 est frequemment utilise par les biologistes. A
gaussiens, par exemple, ce test ne sappuie pas sur un mod`ele probabiliste rigoureux,
mais sur une loi asymptotique ; il est donc delicat a` utiliser et il est parfois preferable de
le remplacer, lorsque cest possible, par un test non parametrique plus adapte.
On expliquera dabord les principes du test sur une loi multinomiale, puis, dans ses applications les plus courantes, la methode non parametrique qui en decoule.

2
2.1

Test sur une loi multinomiale


Distribution a` deux classes
Soit une experience aleatoire E susceptible dentraner la realisation dun e venement E1
de probabilite P(E1 ) ou dun e venement E2 de probabilite P(E2 ), E1 et E2 formant un
syst`eme complet (P(E1 ) + P(E2 ) = 1, P(E1 E2 ) = 0)
Soit un ensemble de n experiences identiques a` E et independantes . On lui associe les
variables X1 et X2 representant respectivement le nombre devenements E1 et le nombre
devenements E2 que lon peut observer (X1 + X2 = n). La realisation effective des n
experiences entrane lobservation des valeurs x1 de X1 et x2 de X2 (x1 + x2 = n) ; on
dit que les resultats sont repartis en deux classes, les variables X1 et X2 prenant le nom
deffectifs de classe.
On desire tester lhypoth`ese H0 : P(E1 ) = p1 et P(E2 ) = p2 contre lhypoth`ese H1 :
P(E1 ) 6= p1 et P(E2 ) 6= p2
On sait dej`a resoudre le probl`eme. En effet, compte-tenu de la relation P(E1 ) + P(E2 ) =
1, il suffit de tester P(E1 ) = p1 contre P(E1 ) 6= p1 , ce que lon peut faire a` laide de la
variable X1 B(n, p1 )
X1 admet pour loi asymptotique, lorsque n augmente indefiniment, la loi N (np1 , np1 (1
p1 )) ; ce dernier mod`ele est utilise dans la pratique pour n 100, a` condition que les
produits np1 et n(1 p1 ) aient une valeur minimum de lordre de 5 a` 10. On construit
263

264

Test sur une loi multinomiale

alors un test bilateral avec la variable Y = X1 np1

np1 (1p1 )

consideree comme pratiquement

normale centree reduite, sous H0 .


Soit maintenant la variable :
Z=

(X1 np1 )2 (X2 np2 )2


+
np1
np2

On a :

Z =
=
=
=
=

p2 (X1 np1 )2 + p1 (X2 np2 )2


np1 p2
(1 p1 )(X1 np1 )2 + p1 (n X1 n(1 p1 ))2
np1 (1 p1 )
2
(1 p1 )(X1 np1 ) + p1 (np1 X1 )2
np1 (1 p1 )
2
(X1 np1 )
np1 (1 p1 )
Y2

Etant
donne la relation Z = Y 2 et e tant donne le comportement asymptotique de Y , il
est clair que Z admet pour loi asymptotique une loi de 21 , sous H0 .
Dautre part, pour un niveau , on peut e crire :
1 = P(y /2 < Y < y /2 ) = P(0 Y 2 < y 2/ ) = P(0 Z < z ) avec z = y 2/
2

Il revient donc au meme deffectuer un test bilateral sur Y que deffectuer un test unilateral sur Z avec domaine de rejet a` droite.
On dispose donc dune deuxi`eme methode pour tester H0 contre H1 . La variable Z, qui
peut e tre assimilee sous les conditions precedentes a` une variable 21 (n 100, np1 et
np2 5 a` 10), rend compte globalement des e carts entre les effectifs de classe et leur
esperance (souvent appelees effectifs theoriques). Une valeur nulle de Z signifie laccord parfait avec H0 ; une valeur e levee de Z conduit au rejet de H0 , la borne superieure
z de lintervalle dacceptation (3.841 = (1.96)2 au niveau 5% ; 6.635 = (2.576)2 au
niveau 1%) e tant lue dans les tables des lois de 2 .

2.2

Distribution a` r classes
Plus generalement, soit une experience aleatoire E susceptible dentraner la realisation
dun e venement E1 de probabilite P(E1 ) ou E2 avec la probabilite P(E2 ), . . ., ou Er
avec
Pr la probabilite P(Er ) ; les e venements E1 , E2 , . . . , Er formant un syst`eme complet
( i=1 P(Ei ) = 1, P(Ei Ej ) = 0 pour i 6= j)
Les resultats de n experiences identiques a` E et independantes sont donc repartis en
r classes. A un tel ensemble dexperiences, on associe les variables X1 , X2 , . . . , Xr
representant les effectifs de classe.
bar-hen.net

265

10. L E TEST CHI - DEUX

Le syst`eme (X1 , X2 , . . . , Xr ) obeit a` une loi multinomiale (voir exercice 3 du chapitre 6).
On veut tester lhypoth`ese H0 : P(E1 ) = p1 et P(E2 ) = p2 , . . ., et P(Er ) = pr contre
lhypoth`ese H1 : P(E1 ) 6= p1 ou P(E2 ) 6= p2 , . . ., ou P(Er ) 6= pr
On consid`ere la variable :
r
X
(Xi npi )2
Z=
npi
i=1
On montre que, sous H0 , cette variable admet comme loi asymptotique une loi de 2r1 .
Pratiquement, on utilise ce mod`ele pour n 100, a` conditions que les effectifs theoriques
npi aient tous une valeur minimum de lordre de 5 a` 10.
Il est clair que sous H1 les valeurs e levees de Z sont plus probables que sous H0 . On
construit donc un test unilateral avec domaine de rejet a` droite.
On remarquera que la notion de degres de liberte est assez comprehensible. En fait il ny
a, parmi les variables X1 , X2 , . . . , Xr , que r 1 variables independantes. En effet les
variables sont liees par la relation : X1 + X2 + + Xr = n, d`es que le hasard a attribue
une valeur numerique a` r 1 variables, la valeur de la derni`ere est imposee.
Exemple 10.1 Partant de races pures, un selectionneur a croise des mufliers ivoires
avec des mufliers rouges. Il a obtenu en F1 des mufliers pales puis en F2, apr`es autofecondation des plantes de la generation F1 : 22 mufliers rouges, 52 mufliers pales, 23
mufliers ivoires.
La couleur des fleurs est-elle geree par un couple dall`eles ?
Soient p1 , p2 , p3 les probabilites pour quune plante de la F2 ait respectivement des
fleurs rouges, pales ou ivoires. Soient X1 , X2 , X3 les variables representant le nombre
de plantes a` fleurs rouges, pales et ivoires que lon peut observer sur 97 plantes.
On est amene a` tester, apr`es un raisonnement genetique e lementaire, lhypoth`ese H0 :
p1 = 1/4, p2 = 1/2, p3 = 1/4 contre lhypoth`ese H1 : p1 6= 1/4, ou p2 6= 1/2, ou p3 6= 1/4.
Do`u le tableau :
Phenotypes
Probabilite
Effectif theorique
Effectif observe

Rouge
1/4
24.25
22

Pale
1/2
48.50
52

Ivoire Total
1/4
1
24.25
97
23
97

Les conditions dapplication du test 2 sont satisfaites, a` savoir :


Les classes constituent un syst`eme complet devenements ;
Les 97 experiences sont identiques et independantes ;
leur nombre est assez e leve ;
les effectifs theoriques sont suffisamment e leves.
P3 (Xi 97pi )2
Dans ces conditions, sous H0 , la variable Z =
est pratiquement une
i=1
97pi
2
variable 2 . On effectue un test unilateral avec domaine de rejet a` droite. Lintervalle
dacceptation de H0 est, au niveau 5% : [0, 5.991].
2
2
2
On a observe la valeur z0 = (2.25)
+ (3.50)
+ (1.25)
0.52
24.25
48.5
24.25
On peut accepter lhypoth`ese que la couleur des fleurs des mufliers est geree par un
couple dall`eles.
bar-hen.net

266

Test dajustement

3 Test dajustement
3.1 Principe
Soit une variable Y associee a` une experience E. On veut tester lhypoth`ese H0 : Y a
une certaine loi de probabilite contre lhypoth`ese H1 : Y a une loi differente. Un tel
test sappelle un test dajustement.
Le principe du test du 2 dajustement est le suivant :
On effectue une partition E1 , E2 , . . . , Er de lensemble des valeurs possibles de Y ,
ce qui revient a` constituer un ensemble de r classes auxquelles la loi supposee de Y
permet daffecter les probabilites p1 , p2 , . . . , pr .
Chaque fois que lon effectue une experience E, on peut dire dans quelle classe la
valeur observee de Y se trouve. Donc on peut associer a` un ensemble de n experiences
independantes, identiques a` E, les effectifs de classe X1 , X2 , . . . , Xr et effectuer un
test 2 comme precedemment.
Il doit e tre cependant clair quen realite on teste ainsi, non pas H0 , mais lensemble
(p1 , p2 , . . . , pr ) des probabilites affectees aux classes. Ce nest que dans le cas dune
variable discr`ete, si chaque valeur observable constitue reellement une classe, quon teste
veritablement la loi de Y . Dans le cas dune variable continue, en particulier, pour que
le test garde une certaine signification, il faut un nombre de classes suffisant ; il serait
tout a` fait ridicule de vouloir tester une loi normale en constituant deux classes de part et
dautre de lesperance, chacune de probabilite 1/2.
Bien entendu les conditions dapplication du test 2 doivent e tre toujours respectees.
On sera souvent amene, par exemple a` regrouper des classes deffectifs theoriques trop
faibles.
Exemple 10.2 On admet que la coloration de liris, chez lhomme, est determinee par
un couple dall`eles. La diversite des g`enes complique letude de la transmission de ce
caract`ere ; on sait cependant que la coloration bleue est recessive.
Le p`ere de Monsieur Dupont et le p`ere de Madame Dupont ont les yeux bleus. Monsieur et
Madame Dupont nont pas les yeux bleus ; e tant heterozygotes, sils attendent un enfant,
la probabilite pour quil ait les yeux bleus est 1/4. Sur cinq enfants, le nombre denfants
aux yeux bleus quils peuvent avoir obeit a` une loi binomiale B(5, 1/4)
On a classe selon le nombre denfants aux yeux bleus quelles contiennent 1024 familles
de 5 enfants et dont les parents ont le meme genotype que Monsieur et Madame Dupont.
Soit Y le nombre denfants aux yeux bleus dune telle famille.
On se propose de tester H0 : Y B(5, 1/4) contre H1 : Y 6 B(5, 1/4).
Nombre denfants aux yeux
bleus
Probabilite (sous H0 )
Effectif theorique
Nombre observe de familles

Total

243
1024

405
1024

270
1024

90
1024

15
1024

1
1024

243

405

270

90

15
| {z 1}

1
1024

252

410

265

87

10
| {z 0}

16

1024

10

bar-hen.net

267

10. L E TEST CHI - DEUX

Le tableau ci-dessus resume lensemble des resultats experimentaux et theoriques.


Les condition dapplication du test 2 sont remplies (voir exemple 10.1) :
Les classes constituent un syst`eme complet devenements ;
observer les 1024 familles revient a` effectuer 1024 experiences identiques et independantes ;
le nombre dobservations est suffisant ;
en regroupant les deux derni`eres classes, les effectifs theoriques sont suffisants.
Soient X0 , X1 , X2 , X3 , X4 les effectifs des cinq classes retenues.
405)2
270)2
90)2
16)2
243)2
Sous H0 , la variable Z = (X0243
+ (X1405
+ (X2270
+ (X390
+ (X416
est une
2
variable 4 . Au niveau 5%, lintervalle dacceptation est [0; 9.488].
On a observe z0 = 2.84. Lhypoth`ese H0 est acceptee.
Exemple 10.3 On se propose de verifier si le nombre quotidien daccidents dautomobile, dans une vie donnee, obeit a` une loi de Poisson desperance 1. Pour cela, on
denombre quotidiennement les accidents qui se sont produits sur une duree de 100 jours.
Les resultats experimentaux et theoriques sont resumes dans le tableau suivant :
Nombre quotidien dacci0
dents
Probabilite sous lhypoth`ese 0.3679
P(1)
Nombre theorique de jours
36.79

4, ou plus

Total

0.3679

0.1839

0.0613

0.0190

36.79

18.39

6.13
| {z 1.90}

100

40

17

6|{z}2

100

8.03

Nombre observe de jours

35

Si Y est le nombre daccidents par jour, on veut tester H0 : Y P(1) contre H1 : Y 6


P(1).
Les conditions dutilisation du test sont satisfaites (voir exemple 10.1 et 10.2). On notera
en particulier la necessite de prevoir levenement 4 ou plus pour obtenir un syst`eme
complet et le regroupement des deux derni`eres classes en 3 ou plus pour obtenir un
effectif theorique suffisant (en fait, on a observe 2 fois 4 accidents).
Soient X0 , X1 , X2 , X3 , les effectifs des quatre classes finalement retenues (X2 : nombre
possible de jours, sur 100, avec 2 accidents).
36.79)2
36.79)2
18.39)2
8.03)2
Sous H0 , la variable Z = (X036.79
+ (X136.79
+ (X218.39
+ (X38.03
est une
2
variable 3 .
Sous H1 , les valeurs e levees de Z sont plus probables que sous H0 . Au niveau 5% lintervalle dacceptation de H0 est [0, 7.815].
On a observe la valeur z0 0.47 de Z. On ne rejette pas lhypoth`ese que le nombre
quotidien daccidents de voiture est une variable de Poisson desperance 1.

3.2

Estimation de param`etres
Les lois que lon veut tester, dans un test 2 dajustement, dependent en general dun ou
plusieurs param`etres. La loi B(n, p) depend de p (en general n est connu), la loi P()
depend de , la loi N (, 2 ) depend de et de 2 .
bar-hen.net

268

Test dajustement

Il peut arriver que lon desire tester un type de loi en ignorant la valeur exacte de chacun
des param`etres qui determinent compl`etement la loi. On peut alors proceder a` lestimation ponctuelle de ces param`etres, par lintermediaire destimateurs, a` partir des donnees
experimentales sur lesquelles on desire effectuer le test.
On sait que, les effectifs de classe e tant toujours lies par la relation X1 + X2 + + Xr =
n, on perd toujours un degre de liberte. On admettre que toute estimation dun param`etre
introduit une liaison nouvelle entre les effectifs de classe ce qui se traduit par la perte
supplementaire dun degre de liberte. Do`u la r`egle :
Dans un test 2 dajustement, le nombre de degres de liberte est :
=r1p
o`u r est le nombre de classes et o`u p est le nombre de param`etres estimes a`
partir des observations.
Bien entendu, si les param`etres sont estimes a` partir dune deuxi`eme serie dobservations,
independante de celle sur laquelle on effectue le test, on est ramene au test dune loi a
priori (p = 0)
Exemple 10.4 A` partir des observations precedentes (exemple 10.3), peut-on admettre
que le nombre quotidien daccidents de voiture obeit a` une loi de Poisson ?
Le test precedent devient alors : H0 : Y P() contre H1 : Y 6 P().
On estime , esperance de Y , a` partir de Y , moyenne de 100 observations. Do`u lesti1
(35.0 + 40.1 + 17.2 + 6.3 + 2.4) = 1.
mation : = y0 = 100
Il se trouve, par hasard, que lestimation est e gale a` lesperance choisie a priori dans
lexemple 10.3. On aboutira donc au meme resultat numerique pour la valeur observee
de Z : z0 0.47.
Mais Z est cette fois une variable 22 . Comme 0.47 < 5.991, on ne rejette pas lhypoth`ese
dun mod`ele poissonnien pour le nombre quotidien daccidents.
Exemple 10.5 Soit Y le nombre dimpulsions enregistre par un detecteur dans la mesure
de lintensite dun faisceau de rayons X. On sait que Y est une variable de Poisson dont
lesperance caracterise lintensite du faisceau. Si a une valeur assez e levee, on peut
e crire Y N (, ).
On se propose de tester lhypoth`ese H0 : Y N (, ) contre H1 : Y 6 N (, ), a`
partir de 300 comptages dune minute, effectues dans des conditions identiques. Ce test
presente un interet certain car le mod`ele probabiliste peut e tre perturbe par differents
phenom`enes tels que la stabilite du generateur.
Les 300 comptages ont une moyenne arithmetique de 10000 coups/mn. Ils ont e te repartis
en classes damplitude de 50 coups/mn..

bar-hen.net

269

10. L E TEST CHI - DEUX

Nombre de coups y
y < 9775
9775 y < 9825
9825 y < 9875
9875 y < 9925
9925 y < 9975
9975 y < 10025
10025 y < 10075
10075 y < 10125
10125 y < 10175
10175 y < 10225
10225 y
Total

Nombre dob- Probabilite


servations
(sous H0 )

3
0.0123
8
5
0.0278
15
0.0655
45
0.1210
54
0.1747
65
0.1974
48
0.1747
34
0.1210
24 
0.0655
0.0278
5
7
2
0.0123
300
1.000

Effectifs
theoriques

3.7
12
8.3
19.7
36.3
52.4
59.2
52.4
36.3
19.7 
8.3
12
3.7
300

Le test nest possible quapr`es une estimation du param`etre . Lesperance de Y est


estimee a` laide de la moyenne Y de 300 observations.

Do`u lestimation = y0 = 10000. On en deduit = = 100.


Pour le calcul des probabilites, il faut passer en variable centree reduite : Y 0 = Y 10000
.
100
On obtient (voir table 11.6) :






1
P(9975 Y < 10025) = P(0.25 Y 0 < 0.25) = 2 (0.25) 0.1974
2
1
1
P(10025 Y < 10075)=P(0.25 Y 0 < 0.75)
=
(0.75) (0.25) 0.1747
0
P(9925 Y < 9975) =P(0.75 Y < 0.25)
2
2
0
1
1
P(10075 Y < 10125)=P(0.75 Y < 1.25)
=
(1.25) (0.75) 0.1210
0
P(9875 Y < 9925) =P(1.25 Y < 0.75)
2
2
1
1
P(10125 Y < 10175)=P(1.25 Y 0 < 1.75)
=
(1.75) (1.25) 0.0655
0
P(9825 Y < 9875) =P(1.75 Y < 1.25)
2
2
0
1
1
P(10175 Y < 10225)=P(1.75 Y < 2.25)
=
(2.25) (1.75) 0.0278
0
P(9775 Y < 9825) =P(2.25 Y < 1.75)
2
2

0
1 1
P(Y 10225)=P(Y 2.25)
=
(2.25) 0.0123
0
P(Y < 9775) =P(Y < 2.25)
2 2

Do`u les effectifs theoriques.


Les conditions dapplications du test 2 sont satisfaites (voir exemple 10.1 et 10.2). On
remarquera en particulier que lon a veille a` ce que les classes constituent une partition
des valeurs possibles de Y ; le regroupement des classes extremes permet de remplir la
condition sur les effectifs theoriques.
Soient X1 , X2 , . . . , X9 les effectifs des classes finalement retenues deffectifs theoriques
c 1 , c2 , . . . , c 9 .
P
2
i)
Sous H0 , la variable Z = 9i=1 (Xi c
est une variable 2 a` 9 1 1 = 7 degres de
ci
liberte (un param`etre estime).
bar-hen.net

270

Tests dhomogeneite

Sous H1 les valeurs deviees de Z seront plus probables que sous H0 . Do`u le domaine
dacceptation de H0 , au niveau 5% : [0; 14.067].
On a observe la valeur de Z :
z0 =

4.72
8.72
1.62
5.82
4.42
2.32
4.32
52
42
+
+
+
+
+
+
+
+
8.69
12 19.7 36.3 52.4 59.2 52.4 36.3 19.7 12

On en conclut a` lacceptation du mod`ele probabiliste.

4 Tests dhomogeneite
4.1

Principe
Le test 2 est e galement utilise pour la comparaison de plusieurs e chantillons. Le principe
du test va e tre expose dans un exemple a` deux e chantillons. On le generalise sans peine
pour plusieurs e chantillons.
Exemple 10.6 On a e tudie sur deux e chantillons provenant de deux populations differentes
la repartition des quatre groupes sanguins : O, A, B, AB. Les resultats obtenus sont reportes dans un tableau dit tableau de contingence, a` deux lignes et quatre colonnes :
Groupe
O
A
B AB
1er e chantillon
121 120 79 33
2e` me e chantillon 118 95 121 30
Total
239 215 200 63

Total
353
364
717

On veut tester lhypoth`ese H0 : les quatre groupes sanguins sont repartis de la meme
mani`ere sur les deux populations contre lhypoth`ese H1 : les repartitions sont differentes.
Sous H0 , la probabilite, pour un individu preleve au hasard, detre dun groupe donne
est la meme dans les deux populations. On ne connat pas cette probabilite, sinon le
probl`eme serait resolu ; on peut cependant lestimer et, toujours sous H0 , la meilleure
estimation que lon puisse en donner est la proportion des individus de ce groupe observee sur lensemble des deux e chantillons. Cest ainsi que lon obtient les estimations :

Pour le groupe O p1 = 239/717 0.333

Pour le groupe A p2 = 215/717 0.300


p1 + p2 + p3 + p4 = 1
Pour le groupe B p3 = 200/717 0.279

Pour le groupe AB p4 = 63/717 0.088


La relation p1 + p2 + p3 + p4 = 1 montre quen fait il suffit de trois param`etres pour
determiner compl`etement le mod`ele.
On deduit de lestimation precedente les effectifs theoriques de chaque classe pour un
e chantillon de taille 353 dune part et pour un e chantillon de taille 364 dautre part.
Do`u le tableau :

bar-hen.net

271

10. L E TEST CHI - DEUX

Groupe
1er e chantillon

O
121
(117.7)
2e` me e chantillon
118
(121.3)
Total
239

A
120
(105.9)
95
(109.1)
215

B
79
(98.5)
121
(101.5)
200

AB
33
(31.0)
30
(32.0)
63

Total
353
364
717

Les effectifs theoriques sont entre parenth`eses. On a, par exemple, 117.7 = 0.333 353.
Soient maintenant les variables X1 , X2 , X3 , X4 representant les effectifs de classe du premier e chantillon et Y1 , Y2 , Y3 , Y4 representant les effectifs de classe du deuxi`eme e chantillon.
On pose :
Z =

(X1 117.7)2 (X2 105.9)2 (X3 98.5)2 (X4 31.0)2


+
+
+
117.7
105.9
98.5
31.0
(Y1 121.3)2 (Y2 109.1)2 (Y3 101.5)2 (Y4 32.0)2
+
+
+
+
121.3
109.1
101.5
32.0

Les conditions dapplication du test 2 e tant satisfaites pour chaque e chantillon, sous H0
la variable Z peut e tre consideree comme la somme de deux variables 2 . Lindependance
des deux series dobservations permet de considerer la variable Z comme une variable
2 (propriete dadditivite des 2 ). On est tente de dire quil sagit dune variable 2 a`
2(4 1) = 6 degres de liberte ; cependant lestimation, a` partir des observations, des
trois param`etres qui determinent compl`etement le mod`ele probabiliste baisse le nombre
de degres de liberte a` 6 3 = 3. Do`u Z 23 .
Les valeurs e levees de Z e tant plus probables sous H1 que sous H0 on construit, comme
dans les exemples precedents un test unilateral avec domaine de rejet a` droite ; cest-`adire, au niveau 5%, lintervalle [7.815; +[.
On a observe la valeur de Z :
z0 =

3.32
14.12 19.52
22
3.32
14.12
19.52
22
+
+
+
+
+
+
+
11.74
117.7 105.9
98.5
31.0 121.3 109.1 101.5 32.0

On peut donc conclure au rejet de H0 : les quatre groupes sanguins sont repartis differemment
sur les deux populations do`u proviennent les e chantillons. La valeur observee est meme
assez significative puisque, meme au niveau 1%, on rejetterait H0 .

4.2

Generalisation
On generalise tr`es facilement au cas de m e chantillons repartis en r classes. On est alors
oblige destimer r 1 param`etres.
Do`u le nombre de degres de liberte = m (r 1) (r 1) = (m 1)(r 1).
Les donnees e tant representees dans un tableau a` m lignes et r colonnes, on peut retenir
que le nombre de degres de liberte dans un test 2 dhomogeneite est e gal au nombre de
lignes moins un multiplie par le nombre de colonnes moins un.
Il est bon de resumer les conditions dutilisation dun test chi-deux dhomogeneite :
les classes doivent constituer un syst`eme complet devenements ;
bar-hen.net

272

Tests dhomogeneite

les observation doivent e tre independantes dans chaque serie dobservations et les
series independantes entre elles ; chaque serie dexperiences doit comporter un grand
nombre dobservations ;
les effectifs theoriques doivent avoir des valeurs suffisamment e levees.

4.3

A` propos dun cas particulier


La comparaison de 2 e chantillons dont les observations sont reparties en deux classes
peut donc e tre faite, sous reserve des conditions precedentes, par lintermediaire dun
test 21
Exemple 10.7 On desire interpreter les resultats suivants : le nombre de guerisons du
cancer de la peau a e te de 1712 individus sur 2015 patients pour un traitement A (85%)
et de 757 individus sur 1010 patients pour un traitement B (75%).
Le test 2 permet de tester lhypoth`ese H0 : un individu a la meme probabilite detre
757+1712
gueri, estimee a` 2015+1010
0.8162, dans les deux traitements contre H1 : les deux
traitements sont caracterises par des probabilites de guerison differentes.
On obtient, apr`es calculs :

Premier e chantillon

Deuxi`eme e chantillon

guerison
1712

observes
Effectifs
theoriques (1644.64)
observes 757
Effectifs
theoriques (824.36)
2469

non guerison
303

2015

(370.36)
253
(185.64)
556

1010
3025

Les conditions dutilisation dun test 2 dhomogeneite sont satisfaites.


En designant par X1 et X2 les effectifs de classe du premier e chantillon et par Y1 et Y2
ceux du deuxi`eme, la variable :
Z=

(X1 1644.64)2 (X2 370.36)2 (Y1 824.36)2 (Y2 185.64)2


+
+
+
1644.64
370.36
824.36
185.64

est, sous H0 , assimilee a` une variable 21 .


67.362
67.362
67.362
67.362
On a observe la valeur de Z, z0 = 1644.64
+ 370.36
+ 824.36
+ 185.64
44.95.
3
Ce resultat est tr`es significatif puisque meme a` un niveau << 10 on rejetterait H0 .
On peut, cependant, construire une deuxi`eme interpretation qui presente lavantage de
permettre de tester H0 : un individu a la meme probabilite detre gueri avec les deux
traitements contre H10 : le traitement A donne une probabilite de guerison superieure
a` celle du traitement B. Cette interpretation sappuie sur la comparaison des deux
proportions de guerison.
On designe par p1 la probabilite de guerison avec A et par p2 la probabilite de guerison
avec B, pour un individu quelconque.

bar-hen.net

273

10. L E TEST CHI - DEUX

En conservant les memes notations que plus haut, si X1 designe le nombre de guerisons
susceptibles detre obtenues sur 2015 individus traites par A, on a : X1 B(2015, p1 ). Si
Y1 designe le nombre de guerisons susceptibles detre obtenus sur 1010 individus traites
par B, on a : Y1 B(1010, p2 ).
Il est clair que lon peut e crire, dans cet exemple :




p1 (1 p1 )
Y1
p2 (1 p2 )
X1
N p1 ,
et
N p2 ,
2015
2015
1010
1010
a` cause de la convergence de la loi binomiale vers la loi normale, et, a` cause de lindependance
des deux series dobservations :


X1
Y1
p1 (1 p1 ) p2 (1 p2 )

N p1 p2 ,
+
2015 1010
2015
1010
Donc, sous H0 : p1 = p2 = p :
Y1
X1

N
2015 1010


0, p(1 p)

1
1
+
2015 1010



Pour pouvoir utiliser le mod`ele, il faut connatre la variance de cette loi normale. On
proc`ede alors a` lestimation de param`etre p. La meilleure estimation en est, sous H0 ,
2469
bien sur : 3025
0.8162. On en deduit, sous H0 :
X1
Y1

N (0; 2.23 104 )


2015 1010
Soit maintenant la variable :


X1/2015 Y1/1010
Y1
X1
U=
= 66.96

2015 1010
2.23 102
Sous H0 , on peut donc assimiler cette variable a` une variable N (0, 1). Sous H10 , les valeurs e levees de U sont plus probables que sous H0 . On construit donc un test unilateral
avec domaine de rejet a` droite, soit [1.645; +[ au niveau 5%.
On a observe la valeur de U :


1712
757
u0 = 66.96

6.704
2015 1010
Le traitement A est donc meilleur que le traitement B. On remarque que ce resultat est
tr`es significatif puisque meme a` un niveau 103 on rejetterait H0 .
Si on compare les deux methodes, on peut dabord verifier, relativement aisement que
Z = U 2 (en particulier : 44.95 = 6.7042 aux erreurs darrondi pr`es), les conditions
dutilisation e tant par ailleurs les memes.
Il sagit donc fondamentalement du meme mod`ele probabiliste mais, dans le deuxi`eme
cas, on utilise une variable N (0, 1) et, dans le premier cas, son carre qui est une variable
21 . La deuxi`eme methode permet les tests unilateraux.
On a pu remarquer,
p dans la deuxi`eme methode, que lestimation du param`etre p ne joue
en fait que sur p(1 p). Il est e vident que lerreur introduite e ventuellement par cette
estimation ne doit pas jouer e normement puisque :
bar-hen.net

274

Tests dhomogeneite

On sait que lestimation dune probabilite sur un grand e chantillon est assez precise ;
une sous-estimation de p est compensee, dans une certaine mesure, par une sur-estimation
de 1 p.

bar-hen.net

275

10. L E TEST CHI - DEUX

5 Exercices
1. Soit une variable aleatoire discr`ete associee a` une experience donnee. 640 experience
de ce type, identiques et independantes, ont donne les resultats suivants :
valeur de la variable
Nombre dobservations

0
9

1
48

2
3
159 220

4
138

5
54

6
12

Peut-on accepter lhypoth`ese : la variable suit une loi binomiale B 6, 21

2. Vous avez concu un programme informatique generateur de nombre choisis au


hasard dans lensemble des 10 premiers entiers. Les mille premiers resultats sont
repartis comme suit :
Chiffre
Nombre dobservations

0
1
120 87

2
115

3
103

4
91

5
109

6
92

7
112

8
94

9
77

Peut-on accepter lhypoth`ese que votre programme garantit lequiprobabilite pour


chacun des chiffres.
3. Soit une experience  a` laquelle est associee une variable aleatoire W , a` valeurs
sur {0, 1, 2, 3, 4, 5, 6, 7}. Un ensemble de 1280 experiences independantes et identiques a`  a permis dobserver les resultats suivants :
Valeur de la var. 0
1
2
3
4
5
6 7
Nombre dobs. 13 64 222 322 369 219 62 9
Peut-on accepter lhypoth`ese : la variable W suit une loi binomiale ?
4. Le e tudiants preparant le DEUG Sciences de la Nature et de la vie a` Saint Jerome
sont repartis en deux sections, mais presentent les memes examens. Malgre les
precautions prises, se pose chaque annee le probl`eme de legalite des chances.
Pour une promotion a` lissue des e preuves de la premi`ere session, on vient denregistrer les resultats suivants : pour la section A 104 recus sur 175 candidats, pour
la section B 78 recus sur 144 candidats. Quen pensez-vous ?
5. Une enquete a e te effectue en milieu hospitalier pour determiner si lusage du tabac
favorise lapparition du cancer broncho-pulmonaire. Cette enquete a e te menee de
la mani`ere suivante :
les individus interroges sont repartis en quatre categories selon leur consommation journali`ere en cigarettes : A (non fumeurs), B (de 1 a` 9), C (de 10 a` 19),
D (20 ou plus) ; il sagit dune consommation moyenne e valuee sur les deux
derni`eres annees precedant lenquete.
un premier e chantillon est constitue de cancereux. Un e chantillon temoin a ensuite e te choisi parmi les accidentes, cest-`a-dire parmi des patients hospitalises
pour des raisons qui nont rien a` voir avec le tabac ; de plus, pour e liminer tout
autre facteur exterieur, a` chaque cancereux correspond un temoin de meme a ge,
de meme sexe et interroge par le meme enqueteur.

bar-hen.net

276

Exercices

` partir des resultats ci-dessous, peut-on conclure a` linfluence du tabac ?


A
Categorie
A
Cancereux 25
Temoins 130
Total
155

B
66
136
202

C
177
165
342

D
334
171
505

Total
602
602
1204

bar-hen.net

277

10. L E TEST CHI - DEUX

6 Solutions

1
1. On veut tester lhypoth`ese H0 : la variable U suit une
loi
B
6,
contre lhy2

poth`ese H1 : la variable U ne suit pas une loi B 6, 12 . Il sagit dun test dajustement.
Sous H0 , on peut e crire :
 6
1
1
p1 = P(U = 0) =
=
= P(U = 6) = p7
2
64
 6
1
6
1
p2 = P(U = 1) = C6
=
= P(U = 5) = p6
2
64
 6
1
15
2
=
= P(U = 4) = p5
p3 = P(U = 2) = C6
2
64
 6
1
20
3
p4 = P(U = 3) = C6
=
2
64
Do`u le tableau a` 7 classes :
k : valeur de la variable
0
Effectifs theoriques : 640P(U = k) 10
Effectifs observes
9

1
2
60 150
48 159

3
200
220

4
150
138

5 6
60 10
54 12

On consid`ere lensemble de variables (X1 , X2 , X3 , X4 , X5 , X6 , X7 ) o`u la variable


Xi represente leffectif de la ie` me classe.
P
2
i)
Soit la variable Z = 7i=1 (Xi 640p
640pi
Sous H0 , la variable Z suit pratiquement une loi du chi-deux a` 6 degres de liberte
(640 experiences identiques et independantes, nombre dexperiences suffisamment
e leve, effectifs theoriques suffisamment grand, syst`eme complet devenements).
Sous H1 , les valeurs e levees de Z sont plus probables ; on construit donc un test
unilateral avec domaine de rejet a` droite.
1
81
4
On a observe z = 10
+ 144
+ 150
+ 400
+ 144
+ 36
+ 10
=7
60
200
150
60
Or P(Z < 7) 67.91% < 95%. Au niveau 5%, on accepte H0 .
2. On va tester H0 : la probabilite dapparition dun chiffre donne est, a` chaque tirage,
e gale a` 1/10 contre lhypoth`ese H1 : les differents chiffres, a` chaque tirage, ne sont
pas e quiprobables.
Soient (N0 , N1 , . . . , N9 ) les variables aleatoires representant le nombre dappariP (Ni 100)2
tions de 0, 1, 2, . . . , 9 sur 1000 tirages et soit la variable Z = 10
i=1
100
Sous H0 , la variable Z suit approximativement une loi du chi-deux a` 9 degres
de liberte (100 experiences identiques et independantes, nombre dexperiences
suffisamment e leve, effectifs theoriques (100) superieurs a` 10, syst`eme complet
devenements).
Sous H1 , Z aura tendance a` prendre des valeurs plus e leves que sous H0 ; on
construit donc un test unilateral avec domaine de rejet a` droite.
bar-hen.net

278

Solutions

Au niveau 5%, le domaine dacceptation de H0 est : [0, 16.919[ ; le domaine de


rejet de H0 est [16.919, +[.
On a observe z0 = 17.36. Au niveau 5%, on rejette lhypoth`ese dequiprobabilite ;
il faut revoir le programme.
3. Soit W la variable aleatoire. On veut tester lhypoth`ese H0 : la variable W suit
une loi binomiale contre lhypoth`ese H1 : la variable W ne suit pas une loi binomiale. Il sagit dun test non parametrique dajustement.
Pour pouvoir effectuer le test, il faut calculer la probabilite sous H0 affectee a`
chacun des observables. Si W B(n, p), sachant que n = 7, le calcul sera rendu
possible par lestimation de p a` partir des observations.
On estimera dans un premier temps E(W )=np par W , moyenne empirique des
observations :
np
=W =

1
(0 13 + 1 64 + 3 322 + + 7 9) = 3.5
1280

Do`u p = 1/2
7
1
Sous H0 , on peut alors considerer que P(W = 0)= 21 = 128
= P(W = 7) ; P(W =


7
7
7
21
1)=7 21 = 128
= P(W = 6) ; P(W = 2)=21 21 = 128
= P(W = 5) ; P(W =

7
1
35
3)=35 2 = 128 = P(W = 4)
Do`u le tableau a` huit classes :
Observations 13 64 222 322 369 219 62 9
Theorique
10 70 210 350 350 210 70 10
On consid`ere lensemble des variables (X0 , X1 , X3 , . . . , X6 , X7 ), o`u Xi represente
10)2
leffectif possible de la ie` me classe et on definit la variable : Z = (X010
+
(X1 70)2
(X2 210)2
(X3 350)2
(X4 350)2
(X5 210)2
(X6 70)2
(X7 10)2
+ 210 + 350 + 350 + 210 + 70 + 10
Sous
70
H0 , Z suit approximativement une loi du chi-deux (syst`eme complet devenements,
1280 experiences identiques et independantes, grand nombre dexperiences, tous
les effectifs superieurs a` 10) a` six degres de liberte (8-1-1 puisquun param`etre est
estime).
Sous H1 , les valeurs e levees de Z sont plus probables. On construit donc, au niveau 5% un test unilateral avec domaine de rejet a` droite. On a observe z = 6.77.
Puisque z < 12.592, z est dans le domaine dacceptation de H0 W suit une loi
binomiale.
4.
Recus
Colles
Total
A
104 (99.84) 71 (75.16) 175
B
78 (82.16) 66 (61.84) 144
Total
182
137
319
On designe par p1 la probabilite de reussite dun e tudiant en A et par p2 la probabilite de reussite dun e tudiant en B.
On veut tester H0 : p1 = p2 = p contre H1 : p1 6= p2
bar-hen.net

279

10. L E TEST CHI - DEUX

Sous H0 , la valeur commune p peut e tre estime par p = 182/319 0.5705 On


note X1 le nombre detudiants qui e taient susceptibles detre recus en A et X2 le
nombre detudiants qui e taient susceptibles detre colles en A.
De meme, on note Y1 le nombre detudiants qui e taient susceptibles detre recus en
B et Y2 le nombre detudiants qui e taient susceptibles detre colles en B.
Sous H0 : E(X1 )= 175
p 99.84 E(X2 )=175(1 p) 75.16
et E(Y1 )= 144
p 82.16 E(Y2 )=144(1 p) 61.84
On notera que lensemble {recu,colle} est un syst`eme complet devenements :
lindependance des resultats des e tudiants et des sections, la taille des deux e chantillons
superieurs a` 100 et les effectifs theoriques largement superieurs a` 10.
2

99.84)
Sous H0 et compte tenu du paragraphe precedent, la variable Z = (X199.84
+
2
2
2
(X2 75.16)
(Y1 82.16)
(Y2 61.84)
2
+ 82.16 + 61.84
suit une loi 4 . Sous H1 , Z aura tendance a`
75.16
prendre des valeurs plus e levees que sous H0 .
Do`u un test unilateral avec domaine de rejet a` droite : ]3.841; +[ au niveau 5%
On a observe z 0.894. On est amene a` accepter H0 : pas de difference significative entre les deux resultats.

5. On veut tester H0 : le tabac a une influence sur lapparition du cancer contre lhypoth`ese H1 : le tabac na pas dinfluence.
On va appliquer le test khi-deux de Pearson applique a` la comparaison de deux
e chantillons. On designe par :
T
pC
es pour quun individu choisi parmi les cancereux, ou
A et pA , les probabilit
parmi les accidentes, soit non fumeur.
T
pC
es pour quun individu choisi parmi les cancereux, ou
B et pB , les probabilit
parmi les accidentes, fume de 1 a` 9 cigarettes.
T
pC
es pour quun individu choisi parmi les cancereux, ou
C et pC , les probabilit
parmi les accidentes,fume de 10 a` 19 cigarettes.
T
pC
es pour quun individu choisi parmi les cancereux, ou
D et pD , les probabilit
parmi les accidentes, fume plus de 20 cigarettes.
155
T
Sous H0 pC
c
A = 1204 . Les deux
A = pA = pA que lon peut estimer par p
e chantillons e tant de meme taille, on en deduit les effectifs theoriques,
pour A, e gaux a` 602c
pA = 77.5.
202
T
pC
=
p
=
p
que
lon peut estimer par pc
u des effectifs
B
B = 1204 . Do`
B
B
theoriques, pour B, e gaux a` 602c
pB = 101.
342
T
u des effectifs
pC
=
p
=
p
que
lon
peut
estimer
par pc
C
C = 1204 . Do`
C
C
theoriques, pour C, e gaux a` 602c
pB = 171.
505
C
T
pD = pD = pD que lon peut estimer par pc
u des effectifs
D = 1204 . Do`
theoriques, pour D, e gaux a` 602c
pB = 252.5.
Soient XA , XB , XC , XD et YA , YB , YC , YD les effectifs possibles pour les
quatre classes envisagees et les deux e chantillons.
2

77.5)
101)
171)
252.5)
Soit la variable : Z = (XA77.5
+ (XB101
+ (XC171
+ (XD252.5
+
(YA 77.5)2
(YB 101)2
(YC 171)2
(YD 252.5)2
+
+
+
On a un syst`eme complet
77.5
101
171
252.5

bar-hen.net

280

Solutions

de classes, les resultats observables sur differents individus cancereux ou


temoins, sont independants, les e chantillons sont grands et les effectifs theoriques
superieurs a` 10. Dans ces conditions, on peut dire que, sous H0 , Z suit approximativement une loi du khi-deux a` 3 degres de liberte (tableau de contingence a` 2 lignes et 4 colonnes)
Sous H1 les effectifs possibles auront tendance a` seloigner des effectifs theorique
calcules qui representent leur esperance sous H0 . Donc Z aura tendance a`
prendre des valeurs plus e levees que sous H0 .
On construit donc un test unilateral avec domaine de rejet de H0 a` droite.
Au niveau 5%, on a :
Domaine dacceptation de H0 : [0, 7.815[
Domaine de rejet de H0 : [7.815, +[
2
2
2
2
On a observe z = 2 (52.5)
+ 2 (35)
+ 2 (6)
+ 2 (81.5)
148.42 On rejette donc H0 .
77.5
101
171
252.5
Ce resultat est meme tr`es significatif.
Le tabac a donc une influence sur lapparition du cancer broncho-pulmonaire. La
comparaison des effectifs theoriques et observes montrent clairement quelle est
positive.

bar-hen.net

Chapitre 11
Tables de valeurs numeriques

Tableau 11.1 Factorielles


n
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

n!
6
24
120
720
5040
40320
362880
3628800
39916800
479001600
6227020800
87178291200
1307674368000
20922789888000
355687428096000
6402373705728000
121645100408832000
2432902008176640000

281

282

Tableau 11.2 Test du signe



Soit la variable, a` valeurs enti`eres, X B n, 12 . La table donne, en fonction de n et du niveau , le plus grand entier k, tel que P(X k)
pour un test unilateral ou tel que 2P(X k) pour un test bilateral.
(test bilateral)
0.05 0.10 0.25
(test unilateral)
0.005 0.025 0.05 0.125
0.01

n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45

0
0
0
0
1
1
1
2
2
2
3
3
3
4
4
4
5
5
6
6
6
7
7
7
8
8
9
9
9
10
10
11
11
11
12
12
13
13

0
0
0
1
1
1
2
2
2
3
3
4
4
4
5
5
5
6
6
7
7
7
8
8
9
9
9
10
10
11
11
12
12
12
13
13
14
14
15
15

0
0
0
1
1
1
2
2
3
3
3
4
4
5
5
5
6
6
7
7
7
8
8
9
9
10
10
10
11
11
12
12
13
13
13
14
14
15
15
16
16

0
0
0
1
1
1
2
2
3
3
3
4
4
5
5
6
6
6
7
7
8
8
9
9
10
10
10
11
11
12
12
13
13
14
14
14
15
15
16
16
17
17
18

0.01
n
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90

0.005
13
14
14
15
15
15
16
16
17
17
17
18
18
19
19
20
20
20
21
21
22
22
22
23
23
24
24
25
25
25
26
26
27
27
28
28
28
29
29
30
30
31
31
31
32

(test bilateral)
0.05 0.10
(test unilateral)
0.025 0.05
15
16
16
17
16
17
17
18
17
18
18
19
18
19
18
20
19
20
19
20
20
21
20
21
21
22
21
22
21
23
22
23
22
24
23
24
23
24
24
25
24
25
25
26
25
26
25
27
26
27
26
28
27
28
27
28
28
29
28
29
28
30
29
30
29
31
30
31
30
32
31
32
31
33
32
33
32
33
32
34
33
34
33
35
34
35
34
36
35
36

0.25
0.125
18
19
19
19
20
20
21
21
22
22
23
23
24
24
25
25
25
26
26
27
27
28
28
29
29
30
30
31
31
32
32
32
33
33
34
34
35
35
36
36
37
37
38
38
39

Pour de plus grandes valeurs de n, utiliser lapproximation par une loi normale.
bar-hen.net

283

11. TABLES DE VALEURS NUM E RIQUES

Tableau 11.3 Intervalle de confiance dune probabilite (loi binomiale)


Soit la variable, a` valeurs enti`eres, X B(n, p). La table donne ou permet de calculer
en fonction de n et de la valeur observee x0 , les bornes, exprimees en pour cent, de
lintervalle de confiance de p pour un coefficient de securite de 95%.
Exemple : n = 10 et x0 = 7 34.8% p 93.3%
x
n 0
4
5
6
7
8
9
10

0
1
2
0
0.6
6.8
60.2 80.6 93.2
0
0.5
5.3
52.2 71.6 85.3
0
0.4
4.3
45.9 64.1 77.7
0
0.4 3.7
41.0 57.9 71
0
0.3 3.2
36.9 52.7 65.2
0
0.3 2.8
33.6 48.3 60
0
0.3 2.5
30.8 44.5 55.6

bar-hen.net

3
4
5
19.4 39.8
99.4 100
14.7 28.4 47.8
94.7 99.5 100
11.8 22.3 35.9
88.2 95.7 99.6
9.9 18.4 29
81.6 90.1 96.3
8.5 15.7 24.5
75.5 84.3 91.5
7.5 13.7 21.2
70.1 78.8 86.3
6.7 12.2 18.7
65.2 73.8 81.3

54.1
100
42.1
99.6
34.8
96.8
29.9
92.5
26.2
81.8

59
100
47.3
99.7
40.0
97.2
34.8
93.3

63.1
100
51.7
99.7
44.4
97.5

10

66.4
100
55.5 69.2
99.7 100

284

Tableau 11.4 Lois de Poisson


Soit la variable, a` valeurs enti`ere, X P(). La table donne, pour differentes valeurs de
, les probabilites P(X = k).
Exemple : si = 0.9, P(X = 3) = 4.94% et P(X = 5) = 0.20%

k
0
1
2
3
4
5
6

0.1
0.2
0.3
0.4
0.5
0.6
0.9048 0.8181 0.7408 0.6703 0.6065 0.5488
0.0905 0.1637 0.2222 0.2681 0.3033 0.3293
0.0045 0.0164 0.0333 0.0536 0.0758 0.0988
0.0002 0.0011 0.0033 0.0072 0.0126 0.0198
0.0001 0.0003 0.0007 0.0016 0.0030
0.0001 0.0002 0.0004

0.7
0.4966
0.3476
0.1217
0.0284
0.0050
0.0007
0.0001

0.8
0.4493
0.3595
0.1438
0.0383
0.0077
0.0012
0.0002

0.9
0.4066
0.3659
0.1647
0.0494
0.0111
0.0020
0.0003

bar-hen.net

1
0.3679
0.3679
0.1839
0.0613
0.0153
0.0031
0.0001

11. TABLES DE VALEURS NUM E RIQUES

285

Tableau 11.5 Intervalle de confiance pour une esperance (loi de Poisson)


Soit la variable, a` valeurs enti`ere, X P(). La table donne,`a partir de la valeur observee
x0 , les bornes de lintervalle de confiance de pour un coefficient de securite de 95%.
Exemple : si x0
=
34 23.5

47.5
x0
0
10
20
30
40
50
60
70
80
90

1
0.025
5.572
4.8
5.5
18.4
19.7
12.2
13.0
30.9
32.1
20.2
21.0
42.8
44.0
28.6
29.5
54.4
55.5
37.1
38.0
65.9
67.0
45.8
46.6
77.2
78.4
54.6
55.5
88.4
89.5
63.4
64.3
99.6 100.7
72.4
73.3
110.6 111.7

bar-hen.net

2
0.24
7.22
6.2
21.0
13.8
33.3
21.8
45.2
30.3
56.7
38.8
68.2
47.5
79.5
56.3
90.7
65.2
101.8
74.2
112.8

3
4
5
6
7
8
9
0.62
1.09
1.62
2.20
2.81
3.45
4.12
8.76 10.24 11.67 13.06 14.42 16.76 17.08
6.9
7.6
8.3
9.0
9.8
10.6
11.4
22.3
23.6
24.9
26.1
27.3
28.5
29.7
14.6
15.4
16.2
17.0
17.8
18.6
19.4
34.5
35.7
36.9
38.1
39.3
40.5
41.7
22.7
23.5
24.4
25.2
26.1
26.9
27.8
46.3
47.5
48.6
49.8
50.9
52.1
53.3
31.2
32.0
32.9
33.7
34.6
35.4
36.3
57.8
59.0
60.1
61.3
62.5
63.6
64.7
39.7
40.5
41.4
42.3
43.1
44.0
44.9
69.3
70.5
71.6
72.7
73.9
75.0
76.1
48.4
49.3
50.2
51.0
51.9
52.8
53.7
80.6
81.8
82.9
84.0
85.1
86.2
87.3
57.2
58.1
59.0
59.9
60.8
61.7
62.6
91.8
92.9
94.0
95.1
96.2
97.3
98.4
66.1
67.0
67.9
68.8
69.7
70.8
71.5
102.9 104.0 105.1 106.2 107.3 108.4 109.5
75.1
76.0
76.9
77.8
78.7
79.6
80.5
113.9 115.0 116.1 117.2 118.3 119.4 120.5

286

Tableau 11.6 Loi normale centree reduite


Soit la variable, a` valeurs reelles X N (0, 1), de densite . La table donne, pour
differentes valeurs de x positives :
Z x
1 x2/2 1
y = (x) = e
et (x) =
(t)dt
2
2
0
x
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.55
0.6
0.65
0.6745

y
0.3989
0.3984
0.3970
0.3945
0.3910
0.3867
0.3814
0.3752
0.3683
0.3605
0.3521
0.3429
0.3332
0.3230

1
2 (x)

0
0.0199
0.0398
0.0596
0.0793
0.0987
0.1179
0.1368
0.1554
0.1736
0.1915
0.2088
0.2257
0.2422
0.2500

x
0.7
0.75
0.8
0.85
0.9
0.95
1
1.05
1.1
1.15
1.2
1.25
1.3
1.35
1.4

y
0.3123
0.3011
0.2897
0.2780
0.2661
0.2541
0.2420
0.2299
0.2179
0.2059
0.1942
0.1826
0.1714
0.1604
0.1497

1
2 (x)

0.2580
0.2734
0.2881
0.3023
0.3159
0.3289
0.3413
0.3531
0.3643
0.3749
0.3849
0.3944
0.4032
0.4115
0.4192

x
1.45
1.5
1.55
1.6
1.65
1.7
1.75
1.8
1.85
1.9
1.95
2
2.1
2.2
2.3

y
0.1394
0.1295
0.1200
0.1109
0.1023
0.0940
0.0863
0.0790
0.0721
0.0656
0.0596
0.0540
0.0440
0.0355
0.0283

1
2 (x)

0.4265
0.4332
0.4394
0.4452
0.4505
0.4554
0.4599
0.4641
0.4678
0.4713
0.4744
0.4772
0.4821
0.4861
0.4893

x
2.4
2.5
2.6
2.7
2.8
2.9
3
3.2
3.4
3.6
3.8
4
4.5

y
0.0224
0.0175
0.0136
0.0104
0.0079
0.0060
0.0044
0.0024
0.0012
0.0006
0.0003
0.0001

bar-hen.net

1
2 (x)

0.4918
0.4938
0.4953
0.4965
0.4974
0.4981
0.49865
0.49931
0.49966
0.499841
0.499928
0.499928
0.499997

287

11. TABLES DE VALEURS NUM E RIQUES

Tableau 11.7 Loi normale centree reduite


Soit la variable, a` valeurs reelles, X N (0, 1), de densite . La table donne, pour
differentes valeurs de u positives :
Z u
F (u) = P(X < u) =
(x)dx

Exemple : F (1.35) = P(X < 1.35) = 0.9115 = 0.5 + 21 (1.35) (voir table 11.6)
u
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3.0
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9

0
0.50000
0.53983
0.57926
0.61791
0.65542
0.69146
0.72575
0.75804
0.78814
0.81594
0.84134
0.86433
0.88493
0.90320
0.91924
0.93319
0.94520
0.95543
0.96407
0.97128
0.97725
0.98214
0.98610
0.98928
0.99180
0.99379
0.99534
0.99653
0.99744
0.99813
0.99865
0.99903
0.99931
0.99952
0.99966
0.99977
0.99984
0.99989
0.99993
0.99995

0.01
0.50399
0.54380
0.58317
0.62172
0.65910
0.69497
0.72907
0.76115
0.79103
0.81859
0.84375
0.86650
0.88686
0.90490
0.92073
0.93448
0.94630
0.95637
0.96485
0.97193
0.97778
0.98257
0.98645
0.98956
0.99202
0.99396
0.99547
0.99664
0.99752
0.99819
0.99869
0.99906
0.99934
0.99953
0.99968
0.99978
0.99985
0.99990
0.99993
0.99995

0.02
0.50798
0.54776
0.58706
0.62552
0.66276
0.69847
0.73237
0.76424
0.79389
0.82121
0.84614
0.86864
0.88877
0.90658
0.92220
0.93574
0.94738
0.95728
0.96562
0.97257
0.97831
0.98300
0.98679
0.98983
0.99224
0.99413
0.99560
0.99674
0.99760
0.99825
0.99874
0.99910
0.99936
0.99955
0.99969
0.99978
0.99985
0.99990
0.99993
0.99996

0.03
0.51197
0.55172
0.59095
0.62930
0.66640
0.70194
0.73565
0.76730
0.79673
0.82381
0.84849
0.87076
0.89065
0.90824
0.92364
0.93699
0.94845
0.95818
0.96638
0.97320
0.97882
0.98341
0.98713
0.99010
0.99245
0.99430
0.99573
0.99683
0.99767
0.99831
0.99878
0.99913
0.99938
0.99957
0.99970
0.99979
0.99986
0.99990
0.99994
0.99996

Pour u < 0, on a P(X < u) = 1 F (u)


bar-hen.net

0.04
0.51595
0.55567
0.59483
0.63307
0.67003
0.70540
0.73891
0.77035
0.79955
0.82639
0.85083
0.87286
0.89251
0.90988
0.92507
0.93822
0.94950
0.95907
0.96712
0.97381
0.97932
0.98382
0.98745
0.99036
0.99266
0.99446
0.99585
0.99693
0.99774
0.99836
0.99882
0.99916
0.99940
0.99958
0.99971
0.99980
0.99986
0.99991
0.99994
0.99996

0.05
0.51994
0.55962
0.59871
0.63683
0.67364
0.70884
0.74215
0.77337
0.80234
0.82894
0.85314
0.87493
0.89435
0.91149
0.92647
0.93943
0.95053
0.95994
0.96784
0.97441
0.97982
0.98422
0.98778
0.99061
0.99286
0.99461
0.99598
0.99702
0.99781
0.99841
0.99886
0.99918
0.99942
0.99960
0.99972
0.99981
0.99987
0.99991
0.99994
0.99996

0.06
0.52392
0.56356
0.60257
0.64058
0.67724
0.71226
0.74537
0.77637
0.80511
0.83147
0.85543
0.87698
0.89617
0.91308
0.92785
0.94062
0.95154
0.96080
0.96856
0.97500
0.98030
0.98461
0.98809
0.99086
0.99305
0.99477
0.99609
0.99711
0.99788
0.99846
0.99889
0.99921
0.99944
0.99961
0.99973
0.99981
0.99987
0.99992
0.99994
0.99996

0.07
0.52790
0.56749
0.60642
0.64431
0.68082
0.71566
0.74857
0.77935
0.80785
0.83398
0.85769
0.87900
0.89796
0.91466
0.92922
0.94179
0.95254
0.96164
0.96926
0.97558
0.98077
0.98500
0.98840
0.99111
0.99324
0.99492
0.99621
0.99720
0.99795
0.99851
0.99893
0.99924
0.99946
0.99962
0.99974
0.99982
0.99988
0.99992
0.99995
0.99996

0.08
0.53188
0.57142
0.61026
0.64803
0.68439
0.71904
0.75175
0.78230
0.81057
0.83646
0.85993
0.88100
0.89973
0.91621
0.93056
0.94295
0.95352
0.96246
0.96995
0.97615
0.98124
0.98537
0.98870
0.99134
0.99343
0.99506
0.99632
0.99728
0.99801
0.99856
0.99896
0.99926
0.99948
0.99964
0.99975
0.99983
0.99988
0.99992
0.99995
0.99997

0.09
0.53586
0.57535
0.61409
0.65173
0.68793
0.72240
0.75490
0.78524
0.81327
0.83891
0.86214
0.88298
0.90147
0.91774
0.93189
0.94408
0.95449
0.96327
0.97062
0.97670
0.98169
0.98574
0.98899
0.99158
0.99361
0.99520
0.99643
0.99736
0.99807
0.99861
0.99900
0.99929
0.99950
0.99965
0.99976
0.99983
0.99989
0.99992
0.99995
0.99997

288

Tableau 11.8 Loi normale centree reduite


Soit la variable, a` valeurs reelles, X N (0, 1), de densite . Si u est un nombre positif,
et si on pose :
= P(|X| u) = 2(1 F (u))
la table donne u pour differentes valeurs de .
Exemple :
= P(|X| 1.2) 0.23
= 2(1 F (1.2)) (voir table 11.6)
= 1 (1.2) (voir table 11.7)
u
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
0.50
0.55
0.60
0.65
0.70
0.75
0.80
0.85
0.90
0.95
1.00
1.05
1.10
1.15
1.20
1.25
1.30
1.35
1.40
1.45

100
0.00
3.99
7.97
11.92
15.85
19.74
23.58
27.37
31.08
34.73
38.29
41.77
45.15
48.43
51.61
54.67
57.63
60.47
63.19
65.79
68.27
70.63
72.87
74.99
76.99
78.87
80.64
82.30
83.85
85.29

u
1.50
1.55
1.60
1.65
1.70
1.75
1.80
1.85
1.90
1.95
2.00
2.05
2.10
2.15
2.20
2.25
2.30
2.35
2.40
2.45
2.50
2.55
2.60
2.65
2.70
2.75
2.80
2.85
2.90
2.95

100
86.64
87.89
89.04
90.11
91.09
91.99
92.81
93.57
94.26
94.88
95.45
95.96
96.43
96.84
97.22
97.56
97.86
98.12
98.36
98.57
98.76
98.92
99.07
99.20
99.31
99.40
99.49
99.56
99.63
99.68

u
3.00
3.05
3.10
3.15
3.20
3.25
3.30
3.35
3.40
3.45
3.50
3.55
3.60
3.65
3.70
3.75
3.80
3.85
3.90
3.95
4.00
4.05
4.10
4.15
4.20
4.25
4.30
4.35
4.40
4.45

100
99.730
99.771
99.806
99.837
99.863
99.885
99.903
99.919
99.933
99.944
99.953
99.961
99.968
99.974
99.978
99.982
99.986
99.988
99.990
99.992
99.9937
99.9949
99.9959
99.9967
99.9973
99.9979
99.9983
99.9986
99.9989
99.9991

bar-hen.net

289

11. TABLES DE VALEURS NUM E RIQUES

Tableau 11.9 Lois de Student


Soit T une variable de Student a` degres de liberte, de densite . Si u est un nombre
positif et si on pose :
F (u) = P(T < u) = P
la table donne u pour differentes valeurs de et de P .
P

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100
200

0.55
0.1584
0.1421
0.1366
0.1338
0.1322
0.1311
0.1303
0.1297
0.1293
0.1289
0.1286
0.1283
0.1281
0.1280
0.1278
0.1277
0.1276
0.1274
0.1274
0.1273
0.1272
0.1271
0.1271
0.1270
0.1269
0.1269
0.1268
0.1268
0.1268
0.1267
0.1265
0.1263
0.1262
0.1261
0.1261
0.1260
0.1260
0.1258

bar-hen.net

0.6
0.3249
0.2887
0.2767
0.2707
0.2672
0.2648
0.2632
0.2619
0.2610
0.2602
0.2596
0.2590
0.2586
0.2582
0.2579
0.2576
0.2573
0.2571
0.2569
0.2567
0.2566
0.2564
0.2563
0.2562
0.2561
0.2560
0.2559
0.2558
0.2557
0.2556
0.2550
0.2547
0.2545
0.2543
0.2542
0.2541
0.2540
0.2537

0.65
0.5095
0.4447
0.4242
0.4142
0.4082
0.4043
0.4015
0.3995
0.3979
0.3966
0.3956
0.3947
0.3940
0.3933
0.3928
0.3923
0.3919
0.3915
0.3912
0.3909
0.3906
0.3904
0.3902
0.3900
0.3898
0.3896
0.3894
0.3893
0.3892
0.3890
0.3881
0.3875
0.3872
0.3869
0.3867
0.3866
0.3864
0.3859

0.7
0.7265
0.6172
0.5844
0.5686
0.5594
0.5534
0.5491
0.5459
0.5435
0.5415
0.5399
0.5386
0.5375
0.5366
0.5357
0.5350
0.5344
0.5338
0.5333
0.5329
0.5325
0.5321
0.5317
0.5314
0.5312
0.5309
0.5306
0.5304
0.5302
0.5300
0.5286
0.5278
0.5272
0.5268
0.5265
0.5263
0.5261
0.5252

0.75
1.0000
0.8165
0.7649
0.7407
0.7267
0.7176
0.7111
0.7064
0.7027
0.6998
0.6974
0.6955
0.6938
0.6924
0.6912
0.6901
0.6892
0.6884
0.6876
0.6870
0.6864
0.6858
0.6853
0.6848
0.6844
0.6840
0.6837
0.6834
0.6830
0.6828
0.6807
0.6794
0.6786
0.6780
0.6776
0.6772
0.6770
0.6757

0.8
1.3764
1.0607
0.9785
0.9410
0.9195
0.9057
0.8960
0.8889
0.8834
0.8791
0.8755
0.8726
0.8702
0.8681
0.8662
0.8647
0.8633
0.8620
0.8610
0.8600
0.8591
0.8583
0.8575
0.8569
0.8562
0.8557
0.8551
0.8546
0.8542
0.8538
0.8507
0.8489
0.8477
0.8468
0.8461
0.8456
0.8452
0.8434

0.85
1.9626
1.3862
1.2498
1.1896
1.1558
1.1342
1.1192
1.1081
1.0997
1.0931
1.0877
1.0832
1.0795
1.0763
1.0735
1.0711
1.0690
1.0672
1.0655
1.0640
1.0627
1.0614
1.0603
1.0593
1.0584
1.0575
1.0567
1.0560
1.0553
1.0547
1.0500
1.0473
1.0455
1.0442
1.0432
1.0424
1.0418
1.0391

0.9
3.0777
1.8856
1.6377
1.5332
1.4759
1.4398
1.4149
1.3968
1.3830
1.3722
1.3634
1.3562
1.3502
1.3450
1.3406
1.3368
1.3334
1.3304
1.3277
1.3253
1.3232
1.3212
1.3195
1.3178
1.3163
1.3150
1.3137
1.3125
1.3114
1.3104
1.3031
1.2987
1.2958
1.2938
1.2922
1.2910
1.2901
1.2858

0.95
6.3137
2.9200
2.3534
2.1318
2.0150
1.9432
1.8946
1.8595
1.8331
1.8125
1.7959
1.7823
1.7709
1.7613
1.7531
1.7459
1.7396
1.7341
1.7291
1.7247
1.7207
1.7171
1.7139
1.7109
1.7081
1.7056
1.7033
1.7011
1.6991
1.6973
1.6839
1.6759
1.6706
1.6669
1.6641
1.6620
1.6602
1.6525

0.975
12.7062
4.3027
3.1824
2.7765
2.5706
2.4469
2.3646
2.3060
2.2622
2.2281
2.2010
2.1788
2.1604
2.1448
2.1315
2.1199
2.1098
2.1009
2.0930
2.0860
2.0796
2.0739
2.0687
2.0639
2.0595
2.0555
2.0518
2.0484
2.0452
2.0423
2.0211
2.0086
2.0003
1.9944
1.9901
1.9867
1.9840
1.9719

0.99
31.8210
6.9645
4.5407
3.7469
3.3649
3.1427
2.9979
2.8965
2.8214
2.7638
2.7181
2.6810
2.6503
2.6245
2.6025
2.5835
2.5669
2.5524
2.5395
2.5280
2.5176
2.5083
2.4999
2.4922
2.4851
2.4786
2.4727
2.4671
2.4620
2.4573
2.4233
2.4033
2.3901
2.3808
2.3739
2.3685
2.3642
2.3451

0.995
63.6559
9.9250
5.8408
4.6041
4.0321
3.7074
3.4995
3.3554
3.2498
3.1693
3.1058
3.0545
3.0123
2.9768
2.9467
2.9208
2.8982
2.8784
2.8609
2.8453
2.8314
2.8188
2.8073
2.7970
2.7874
2.7787
2.7707
2.7633
2.7564
2.7500
2.7045
2.6778
2.6603
2.6479
2.6387
2.6316
2.6259
2.6006

290

Tableau 11.10 Lois du chi-deux


Si est le nombre de degres de liberte dune variable 2 de densite , si u est un nombre
positif et si on pose :
F (u) = P(T < u) = P
la table donne u pour differentes valeurs de et de P .
P

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
60
70
80
90
100
200

0.01
0.00
0.02
0.11
0.29
0.55
0.87
1.23
1.64
2.08
2.55
3.05
3.57
4.10
4.66
5.22
5.81
6.40
7.01
7.63
8.26
8.89
9.54
10.19
10.85
11.52
12.19
12.87
13.56
14.25
14.95
15.65
16.36
17.07
17.78
18.50
19.23
19.96
20.69
21.42
22.16
22.90
23.65
24.39
25.14
25.90
26.65
27.41
28.17
28.94
29.70
37.48
45.44
53.54
61.75
70.06
156.43

0.025
0.00
0.05
0.21
0.48
0.83
1.23
1.68
2.17
2.70
3.24
3.81
4.40
5.00
5.62
6.26
6.90
7.56
8.23
8.90
9.59
10.28
10.98
11.68
12.40
13.11
13.84
14.57
15.30
16.04
16.79
17.53
18.29
19.04
19.80
20.56
21.33
22.10
22.87
23.65
24.43
25.21
25.99
26.78
27.57
28.36
29.16
29.95
30.75
31.55
32.35
40.48
48.75
57.15
65.64
74.22
162.72

0.05
0.00
0.10
0.35
0.71
1.14
1.63
2.16
2.73
3.32
3.94
4.57
5.22
5.89
6.57
7.26
7.96
8.67
9.39
10.11
10.85
11.59
12.33
13.09
13.84
14.61
15.37
16.15
16.92
17.70
18.49
19.28
20.07
20.86
21.66
22.46
23.26
24.07
24.88
25.69
26.50
27.32
28.14
28.96
29.78
30.61
31.43
32.26
33.09
33.93
34.76
43.18
51.73
60.39
69.12
77.92
168.27

0.1
0.01
0.21
0.58
1.06
1.61
2.20
2.83
3.48
4.16
4.86
5.57
6.30
7.04
7.78
8.54
9.31
10.08
10.86
11.65
12.44
13.23
14.04
14.84
15.65
16.47
17.29
18.11
18.93
19.76
20.59
21.43
22.27
23.11
23.95
24.79
25.64
26.49
27.34
28.19
29.05
29.90
30.76
31.62
32.48
33.35
34.21
35.08
35.94
36.81
37.68
46.45
55.32
64.27
73.29
82.35
174.83

0.2
0.06
0.44
1.00
1.64
2.34
3.07
3.82
4.59
5.38
6.17
6.98
7.80
8.63
9.46
10.30
11.15
12.00
12.85
13.71
14.57
15.44
16.31
17.18
18.06
18.93
19.82
20.70
21.58
22.47
23.36
24.25
25.14
26.04
26.93
27.83
28.73
29.63
30.53
31.44
32.34
33.25
34.15
35.06
35.97
36.88
37.79
38.70
39.62
40.53
41.44
50.64
59.89
69.20
78.55
87.94
183.00

0.3
0.14
0.71
1.42
2.19
2.99
3.82
4.67
5.52
6.39
7.26
8.14
9.03
9.92
10.82
11.72
12.62
13.53
14.43
15.35
16.26
17.18
18.10
19.02
19.94
20.86
21.79
22.71
23.64
24.57
25.50
26.43
27.37
28.30
29.24
30.17
31.11
32.05
32.99
33.93
34.87
35.81
36.75
37.69
38.64
39.58
40.52
41.47
42.42
43.36
44.31
53.80
63.34
72.91
82.51
92.12
189.04

0.4
0.27
1.02
1.86
2.75
3.65
4.57
5.49
6.42
7.35
8.29
9.23
10.18
11.12
12.07
13.02
13.98
14.93
15.89
16.85
17.80
18.76
19.72
20.69
21.65
22.61
23.57
24.54
25.50
26.47
27.44
28.40
29.37
30.34
31.31
32.28
33.25
34.22
35.19
36.16
37.13
38.10
39.07
40.04
41.02
41.99
42.96
43.94
44.91
45.88
46.86
56.62
66.39
76.18
85.99
95.80
194.31

0.5
0.45
1.38
2.36
3.35
4.35
5.34
6.34
7.34
8.34
9.34
10.34
11.34
12.33
13.33
14.33
15.33
16.33
17.33
18.33
19.33
20.33
21.33
22.33
23.33
24.33
25.33
26.33
27.33
28.33
29.33
30.33
31.33
32.33
33.33
34.33
35.33
36.33
37.33
38.33
39.33
40.33
41.33
42.33
43.33
44.33
45.33
46.33
47.33
48.33
49.33
59.33
69.33
79.33
89.33
99.33
199.33

0.6
0.70
1.83
2.94
4.04
5.13
6.21
7.28
8.35
9.41
10.47
11.52
12.58
13.63
14.68
15.73
16.77
17.82
18.86
19.91
20.95
21.99
23.03
24.06
25.10
26.14
27.17
28.21
29.24
30.28
31.31
32.34
33.38
34.41
35.44
36.47
37.50
38.53
39.56
40.59
41.62
42.65
43.67
44.70
45.73
46.76
47.78
48.81
49.84
50.86
51.89
62.13
72.35
82.56
92.76
102.94
204.43

0.7
1.07
2.40
3.66
4.87
6.06
7.23
8.38
9.52
10.65
11.78
12.89
14.01
15.11
16.22
17.32
18.41
19.51
20.60
21.68
22.77
23.85
24.93
26.01
27.09
28.17
29.24
30.31
31.39
32.46
33.53
34.59
35.66
36.73
37.79
38.85
39.92
40.98
42.04
43.10
44.16
45.22
46.28
47.33
48.39
49.45
50.50
51.56
52.61
53.66
54.72
65.22
75.68
86.11
96.52
106.90
209.98

0.8
1.64
3.21
4.64
5.98
7.28
8.55
9.80
11.03
12.24
13.44
14.63
15.81
16.98
18.15
19.31
20.46
21.61
22.75
23.90
25.03
26.17
27.30
28.42
29.55
30.67
31.79
32.91
34.02
35.13
36.25
37.35
38.46
39.57
40.67
41.77
42.87
43.97
45.07
46.17
47.26
48.36
49.45
50.54
51.63
52.72
53.81
54.90
55.99
57.07
58.16
68.97
79.71
90.40
101.05
111.66
216.60

0.9
2.70
4.60
6.25
7.77
9.23
10.64
12.01
13.36
14.68
15.98
17.27
18.54
19.81
21.06
22.30
23.54
24.76
25.98
27.20
28.41
29.61
30.81
32.00
33.19
34.38
35.56
36.74
37.91
39.08
40.25
41.42
42.58
43.74
44.90
46.05
47.21
48.36
49.51
50.65
51.80
52.94
54.09
55.23
56.36
57.50
58.64
59.77
60.90
62.03
63.16
74.39
85.52
96.57
107.56
118.49
226.02

0.95
3.84
5.99
7.81
9.48
11.07
12.59
14.06
15.50
16.91
18.30
19.67
21.02
22.36
23.68
24.99
26.29
27.58
28.86
30.14
31.41
32.67
33.92
35.17
36.41
37.65
38.88
40.11
41.33
42.55
43.77
44.98
46.19
47.39
48.60
49.80
50.99
52.19
53.38
54.57
55.75
56.94
58.12
59.30
60.48
61.65
62.82
64.00
65.17
66.33
67.50
79.08
90.53
101.87
113.14
124.34
233.99

0.975
5.02
7.37
9.34
11.14
12.83
14.44
16.01
17.53
19.02
20.48
21.92
23.33
24.73
26.11
27.48
28.84
30.19
31.52
32.85
34.16
35.47
36.78
38.07
39.36
40.64
41.92
43.19
44.46
45.72
46.97
48.23
49.48
50.72
51.96
53.20
54.43
55.66
56.89
58.12
59.34
60.56
61.77
62.99
64.20
65.41
66.61
67.82
69.02
70.22
71.42
83.29
95.02
106.62
118.13
129.56
241.05

0.99
6.63
9.21
11.34
13.27
15.08
16.81
18.47
20.09
21.66
23.20
24.72
26.21
27.68
29.14
30.57
31.99
33.40
34.80
36.19
37.56
38.93
40.28
41.63
42.97
44.31
45.64
46.96
48.27
49.58
50.89
52.19
53.48
54.77
56.06
57.34
58.61
59.89
61.16
62.42
63.69
64.95
66.20
67.45
68.70
69.95
71.20
72.44
73.68
74.91
76.15
88.37
100.42
112.32
124.11
135.80
249.44

bar-hen.net

291

11. TABLES DE VALEURS NUM E RIQUES

Tableau 11.11 Lois de Fisher-Snedecor


Soit F une variable dont la loi est celle de Fisher
2 degres de liberte, de densite . La table donne,
(1 , 2 ) les valeurs u pour lesquelles P(F < u) =

1
2
3
4
5
6
8
2 1
1
161.4 199.5 215.7 224.6 230.2 234.0 238.9
2
18.51 19.00 19.16 19.25 19.30 19.33 19.37
3
10.13 9.55
9.28
9.12 9.01 8.94 8.84
4
7.71
6.94
6.59
6.39
6.26
6.16
6.04
5
6.61
5.79
5.41
5.19
5.05
4.95
4.82

Snedecor, a` 1 et
pour divers couples
G(u) = 0.95
12
24
>25
243.9 249.0 254.3
19.41 19.45 19.50
8.74
8.64 8.53
5.91
5.77
5.63
4.68
4.53
4.36

6
7
8
9
10

5.99
5.59
5.32
5.12
4.96

5.14
4.74
4.46
4.26
4.10

4.76
4.35
4.07
3.86
3.71

4.53
4.12
3.84
3.63
3.48

4.39
3.97
3.69
3.48
3.33

4.28
3.87
3.58
3.37
3.22

4.15
3.73
3.44
3.23
3.07

4.00
3.57
3.28
3.07
2.91

3.84
3.41
3.12
2.90
2.74

3.67
3.23
2.93
2.71
2.54

11
12
13
14
15

4.84
4.75
4.67
4.60
4.54

3.98
3.88
3.80
3.74
3.68

3.59
3.49
3.41
3.34
3.29

3.36
3.26
3.18
3.11
3.06

3.20
3.11
3.02
2.96
2.90

3.09
3.00
2.92
2.85
2.79

2.95
2.85
2.77
2.70
2.64

2.79
2.69
2.60
2.53
2.48

2.61
2.50
2.42
2.35
2.29

2.40
2.30
2.21
2.13
2.07

16
17
18
19
20

4.49
4.45
4.41
4.38
4.35

3.63
3.59
3.55
3.52
3.49

3.24
3.20
3.16
3.13
3.10

3.01
2.96
2.93
2.90
2.87

2.85
2.81
2.77
2.74
2.71

2.74
2.70
2.66
2.63
2.60

2.59
2.55
2.51
2.48
2.45

2.42
2.38
2.34
2.31
2.28

2.24
2.19
2.15
2.11
2.08

2.01
1.96
1.92
1.88
1.84

21
22
23
24
25

4.32
4.30
4.28
4.26
4.24

3.47
3.44
3.42
3.40
3.38

3.07
3.05
3.03
3.01
2.99

2.84
2.82
2.08
2.78
2.76

2.68
2.66
2.64
2.62
2.60

2.57
2.55
2.53
2.51
2.49

2.42
2.40
2.38
2.36
2.34

2.25
2.23
2.20
2.18
2.16

2.05
2.03
2.00
1.98
1.96

1.81
1.78
1.76
1.73
1.71

26
27
28
29
30

4.22
4.21
4.20
4.18
4.17

3.37
3.35
3.34
3.33
3.32

2.98
2.96
2.95
2.93
2.92

2.74
2.73
2.71
2.70
2.69

2.59
2.57
2.56
2.54
2.53

2.47
2.46
2.44
2.43
2.42

2.32
2.30
2.29
2.28
2.27

2.15
2.13
2.12
2.10
2.09

1.95
1.93
1.91
1.90
1.89

1.69
1.67
1.65
1.64
1.62

40
60
120
>120

4.08
4.00
3.92
3.84

3.23
3.15
3.07
2.99

2.84
2.76
2.68
2.60

2.61
2.52
2.45
2.37

2.45
2.37
2.29
2.21

2.34
2.25
2.17
2.10

2.18
2.10
2.02
1.94

2.00
1.92
1.83
1.75

1.79
1.70
1.61
1.52

1.51
1.39
1.25
1.00

bar-hen.net

292

Tableau 11.12 Lois de Fisher-Snedecor


Soit F une variable dont la loi de Fisher Snedecor, a` 1 et 2 degres de liberte, de densite
. La table donne, pour divers couples (1 , 2 ) les valeurs u pour lesquelles P(F < u) =
G(u) = 0.99

1
2
3
4
5
6
8
12
24
>25
2 1
1
4052. 4999. 5403. 5625. 5764. 5859. 5982. 6106. 6234. 6366.
2
98.50 99.00 99.17 99.25 99.30 99.33 99.37 99.42 99.46 99.50
3
34.12 30.82 29.46 28.71 28.24 27.91 27.49 27.05 26.60 26.12
4
21.20 18.00 16.69 15.98 15.52 15.21 14.80 14.37 13.93 13.46
5
16.26 13.27 12.06 11.39 10.97 10.67 10.29 9.89
9.47 9.02
6
7
8
9
10

13.74
12.25
11.26
10.56
10.04

10.92
9.55
8.65
8.02
7.56

9.78
8.45
7.59
6.99
6.55

9.15
7.85
7.01
6.42
5.99

8.75
7.46
6.63
6.06
5.64

8.47
7.19
6.37
5.80
5.39

8.10
6.84
6.03
5.47
5.06

7.72
6.47
5.67
5.11
4.71

7.31
6.07
5.28
4.73
4.33

6.88
5.65
4.86
4.31
3.91

11
12
13
14
15

9.65
9.33
9.07
8.86
8.68

7.20
6.93
6.70
6.51
6.36

6.22
5.95
5.74
5.56
5.42

5.67
5.41
5.20
5.03
4.89

5.32
5.06
4.86
4.69
4.56

5.07
4.82
4.62
4.46
4.32

4.74
4.50
4.30
4.14
4.00

4.40
4.16
3.96
3.80
3.67

4.02
3.78
3.59
3.43
3.29

3.60
3.36
3.16
3.00
2.87

16
17
18
19
20

8.53
8.40
8.28
8.18
8.10

6.23
6.11
6.01
5.93
5.85

5.29
5.18
5.09
5.01
4.94

4.77
4.67
4.58
4.50
4.43

4.44
4.34
4.25
4.17
4.10

4.20
4.10
4.01
3.94
3.87

3.89
3.79
3.71
3.63
3.56

3.55
3.45
3.37
3.30
3.23

3.18
3.08
3.00
2.92
2.86

2.75
2.65
2.57
2.49
2.42

21
22
23
24
25

8.02
7.94
7.88
7.82
7.77

5.78
5.72
5.66
5.61
5.57

4.87
4.82
4.76
4.72
4.68

4.37
4.31
4.26
4.22
4.18

4.04
3.99
3.94
3.90
3.86

3.81
3.76
3.71
3.67
3.63

3.51
3.45
3.41
3.36
3.32

3.17
3.12
3.07
3.03
2.99

2.80
2.75
2.70
2.66
2.62

2.36
2.31
2.26
2.21
2.17

26
27
28
29
30

7.72
7.68
7.64
7.60
7.56

5.53
5.49
5.45
5.42
5.39

4.64
4.60
4.57
4.54
4.51

4.14
4.11
4.07
4.04
4.02

3.82
3.78
3.75
3.73
3.70

3.59
3.56
3.53
3.50
3.47

3.29
3.26
3.23
3.20
3.17

2.96
2.93
2.90
2.87
2.84

2.58
2.55
2.52
2.49
2.47

2.13
2.10
2.06
2.03
2.01

40
60
120
>120

7.31
7.08
6.85
6.64

5.18
4.98
4.79
4.60

4.31
4.13
3.95
3.78

3.83
3.65
3.48
3.32

3.51
3.34
3.17
3.02

3.29
3.12
2.96
2.80

2.99
2.82
2.66
2.51

2.66
2.50
2.34
2.18

2.29
2.12
1.95
1.79

1.80
1.60
1.38
1.00

bar-hen.net

293

11. TABLES DE VALEURS NUM E RIQUES

Tableau 11.13 Valeurs critiques du test de Mann-Whitney


n1 est leffectif du plus petit des deux e chantillons. Quand la valeur observee de U est
e gale ou inferieure a` la valeur donnee dans la table, H0 peut e tre rejete au niveau de
signification choisi.
n
n1 2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
n2

n1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

Seuil de signification a` 0.001 pour un test unilateral


Seuil de signification a` 0.002 pour un test bilateral
9
10 11 12 13 14 15 16
17

18

19

20

0
2
5
9
13
17
21
25
29
34
38
43
47
52
57
61
66
70

0
3
6
10
14
18
23
27
32
37
42
46
51
56
61
66
71
76

0
3
7
11
15
20
25
29
34
40
45
50
55
60
66
71
77
82

0
3
7
12
16
21
26
32
37
42
48
54
59
65
70
76
82
88

1
2
3
5
7
8
10
12
14
15
17
19
21
23
25
26
9
0
2
4
7
10
12
15
17
20
23
26
28
31
34
37
39
42
45
48

0
1
3
5
6
8
10
12
14
17
19
21
23
25
27
29
32

0
2
4
6
8
10
12
15
17
20
22
24
27
29
32
34
37

0
2
4
7
9
12
14
17
20
23
25
28
31
34
37
40
42

1
3
5
8
11
14
17
20
23
26
29
32
35
38
42
45
48

1
3
6
9
12
15
19
22
25
29
32
36
39
43
46
50
54

1
4
7
10
14
17
21
24
28
32
36
40
43
47
51
55
59

Seuil de signification a` 0.025 pour un test unilateral


Seuil de signification a` 0.05 pour un test bilateral
10
11
12
13
14
15
16
0
3
5
8
11
14
17
20
23
26
29
33
36
39
42
45
48
52
55

0
3
6
9
13
16
19
23
26
30
33
37
40
44
47
51
55
58
62

1
4
7
11
14
18
22
26
29
33
37
41
45
49
53
57
61
65
69

1
4
8
12
16
20
24
28
33
37
41
45
50
54
59
63
67
72
76

1
5
9
13
17
22
26
31
36
40
45
50
55
59
64
67
74
78
83

bar-hen.net

1
5
10
14
19
24
29
34
39
44
49
54
59
64
70
75
80
85
90

1
6
11
15
21
26
31
37
42
47
53
59
64
70
75
81
86
92
98

2
5
8
11
15
19
23
27
31
35
39
43
48
52
56
60
65
17

18

19

20

2
6
11
17
22
28
34
39
45
51
57
63
67
75
81
87
93
99
105

2
7
12
18
24
30
36
42
48
55
61
67
74
80
86
93
99
106
112

2
7
13
19
25
32
38
45
52
58
65
72
78
85
92
99
106
113
119

2
8
13
20
27
34
41
48
55
62
69
76
83
90
98
105
112
119
127

n
n1 2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
n2

n1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

9
1
3
6
9
12
15
18
21
24
27
30
33
36
39
42
45
48
51
54

Seuil de signification a` 0.01 pour un test unilateral


Seuil de signification a` 0.02 pour un test bilateral
9
10 11 12 13 14 15
16 17

18

19

20

0
2
5
9
12
16
20
23
27
31
35
39
43
47
51
55
59
63
67

0
4
9
14
19
24
30
36
41
47
53
59
65
70
76
82
88
94
100

1
4
9
15
20
26
32
38
44
50
56
63
69
75
82
88
94
101
107

1
5
10
16
22
28
34
40
47
53
60
67
73
80
87
93
100
107
114

1
3
5
7
9
11
14
16
18
21
23
26
28
31
33
36
38
40

1
3
6
8
11
13
16
19
22
24
27
30
33
36
38
41
44
47

1
4
7
9
12
15
18
22
25
28
31
34
37
41
44
47
50
53

2
5
8
11
14
17
21
24
28
31
35
38
42
46
49
53
56
60

0
2
6
10
13
17
22
26
30
34
38
43
47
51
56
60
65
69
73

0
3
7
11
15
19
24
28
33
37
42
47
51
56
61
66
70
75
80

Seuil de signification a` 0.05 pour un test unilateral


Seuil de signification a` 0.1 pour un test bilateral
10
11
12
13
14
15
16
1
4
7
11
14
17
20
24
27
31
34
37
41
44
48
51
55
58
62

1
5
8
12
16
19
23
27
31
34
38
42
46
50
54
57
61
65
69

2
5
9
13
17
21
26
30
34
38
42
47
51
55
60
64
68
72
77

2
6
10
15
19
24
28
33
37
42
47
51
56
61
65
70
75
80
84

2
7
11
16
21
26
31
36
41
46
51
56
61
66
71
77
82
87
92

3
7
12
18
23
28
33
39
44
50
55
61
66
72
77
83
88
94
100

3
8
14
19
25
30
36
42
48
54
60
65
71
77
83
89
95
101
107

0
3
7
12
16
21
26
31
36
41
46
51
56
61
66
71
76
82
87
17
3
9
15
20
26
33
39
45
51
57
64
70
77
83
89
96
102
109
115

0
4
8
13
18
23
28
33
38
44
49
55
60
66
71
77
82
88
93
18
0
4
9
16
22
28
35
41
48
55
61
68
75
82
88
95
102
109
116
123

19
0
4
10
17
23
30
37
44
51
58
65
72
80
87
94
101
109
116
123
130

20
4
11
18
25
32
39
47
54
62
69
77
84
92
100
107
115
123
130
138

294

Tableau 11.14 Valeur critique du test du nombre de paires au seuil de 5%


n2

n1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

n2

n1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

2
2
2
2
2
2
2
2
2
3
3
3
3
3
3

2
2
2
2
2
2
2
2
2

9
9

2
2
2
3
3
3
3
3
3
3
3
4
4
4
4
4

2
2
3
3
3
3
3
4
4
4
4
4
4
4
5
5
5

2
2
3
3
3
3
4
4
4
4
5
5
5
5
5
5
6
6

2
2
3
3
3
4
4
5
5
5
5
5
6
6
6
6
6
6

2
3
3
3
4
4
5
5
5
6
6
6
6
6
7
7
7
7

9
9
10 10
10 11
11 12
11 12
13
13
13
13

Valeurs inferieures
9 10 11 12 13
2
2
2 2
2
2 2
3 3
3
3 3
3 3
4
4 4
4 4
4
4 5
4 5
5
5 5
5 5
5
6 6
5 5
6
6 6
5 6
6
7 7
6 6
7
7 7
6 7 7
7
8
6 7 7
8
8
7 7 8
8
9
7 7 8
8
9
7 8 8
9
9
7 8 9
9 10
8 8 9
9 10
8 8 9 10 10
8 9 9 10 10

14
2
2
3
4
5
5
6
7
7
8
8
9
9
9
10
10
10
11
11

15
2
3
3
4
5
6
6
7
7
8
8
9
9
10
10
11
11
11
12

16
2
3
4
4
5
6
6
7
8
8
9
9
10
10
11
11
11
12
12

17
2
3
4
4
5
6
7
7
8
9
9
10
10
11
11
11
12
12
13

18
2
3
4
5
5
6
7
8
8
9
9
10
10
11
11
12
12
13
13

19
2
3
4
5
6
6
7
8
8
9
10
10
11
11
12
12
13
13
13

20
2
3
4
5
6
6
7
8
9
9
10
10
11
12
12
13
13
13
14

Valeurs superieures
9 10 11 12 13

14

15

16

17

18

19

20

11
12
13
13
14
14
14
14
15
15
15

11
12
13
14
14
15
15
16
16
16
16
17
17
17
17
17

13
14
14
15
16
16
16
17
17
18
18
18
18
18
18

15
16
17
18
19
20
20
21
22
22
23
23
23
24

15
16
18
18
19
20
21
22
22
23
23
24
24
25

17
18
19
20
21
21
22
23
23
24
25
25
25

17
18
19
20
21
22
23
23
24
25
25
26
26

17
18
19
20
21
22
23
24
25
25
26
26
27

17
18
20
21
22
23
23
24
25
26
26
27
27

17
18
20
21
22
23
24
25
25
26
27
27
28

13
14
15
16
16
17
17
18
18
18
19
19
19
20
20

13
14
15
16
17
17
18
19
19
19
20
20
20
21
21

13
14
16
16
17
18
19
19
20
20
21
21
21
22
22

15
16
17
18
19
19
20
20
21
21
22
22
23
23

bar-hen.net

295

11. TABLES DE VALEURS NUM E RIQUES

Tableau 11.15 Probabilites associees aux valeurs aussi extremes que les valeurs de U
observees du test de Mann-Whitney
La taille des deux e chantillons ne peut e tre superieure a` 8.

n
U 1
0
1
2
3
4
5

n2 = 3
1
2
0.25
0.1
0.50
0.2
0.75
0.4
0.60

n
U 1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18

1
0.143
0.286
0.428
0.571

2
0.036
0.071
0.143
0.214
0.321
0.429
0.571

n
U 1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32

1
0.111
0.222
0.333
0.444
0.556

2
0.022
0.044
0.089
0.133
0.200
0.267
0.356
0.444
0.556

bar-hen.net

n
U 1
0
1
2
3
4
5
6
7
8

3
0.05
0.10
0.20
0.35
0.50
0.65

n2 = 6
3
0.012
0.024
0.048
0.083
0.131
0.190
0.274
0.357
0.452
0.548

3
0.006
0.012
0.024
0.042
0.067
0.097
0.139
0.188
0.248
0.315
0.387
0.461
0.539

4
0.005
0.010
0.019
0.033
0.057
0.086
0.129
0.176
0.238
0.305
0.381
0.457
0.545

n2 = 8
4
0.002
0.004
0.008
0.014
0.024
0.036
0.055
0.077
0.107
0.141
0.184
0.230
0.285
0.341
0.404
0.467
0.533

1
0.200
0.400
0.600

n2 = 4
2
0.067
0.133
0.267
0.400
0.600

5
0.002
0.004
0.009
0.015
0.026
0.041
0.063
0.089
0.123
0.165
0.214
0.268
0.331
0.396
0.465
0.535

6
0.001
0.002
0.004
0.008
0.013
0.021
0.032
0.047
0.066
0.090
0.120
0.155
0.197
0.242
0.294
0.350
0.409
0.469
0.531

5
0.001
0.002
0.003
0.005
0.009
0.015
0.023
0.033
0.047
0.064
0.085
0.111
0.142
0.177
0.217
0.262
0.311
0.362
0.416
0.472
0.528

6
0.000
0.001
0.001
0.002
0.004
0.006
0.010
0.015
0.021
0.030
0.041
0.054
0.071
0.091
0.114
0.141
0.172
0.207
0.245
0.286
0.331
0.377
0.426
0.475
0.525

3
0.028
0.057
0.114
0.200
0.314
0.429
0.571

4
0.014
0.029
0.057
0.100
0.171
0.243
0.343
0.443
0.557

n
U 1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
7
0.000
0.000
0.001
0.001
0.002
0.003
0.005
0.007
0.010
0.014
0.020
0.027
0.036
0.047
0.060
0.076
0.095
0.116
0.140
0.168
0.198
0.232
0.268
0.306
0.347
0.389
0.433
0.478
0.522

8
0.000
0.000
0.000
0.001
0.001
0.001
0.002
0.003
0.005
0.007
0.010
0.014
0.019
0.025
0.032
0.041
0.052
0.065
0.080
0.097
0.117
0.139
0.164
0.191
0.221
0.253
0.870
0.323
0.360
0.399
0.439
0.480
0.520

n
U 1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
1
0.125
0.250
0.375
0.500
0.625

2
0.028
0.056
0.111
0.167
0.250
0.333
0.444
0.556

1
0.167
0.333
0.500
0.667

n2 = 5
2
3
0.047
0.018
0.095
0.036
0.190
0.071
0.286
0.125
0.429
0.196
0.571
0.286
0.393
0.500
0.607

n2 = 7
3
4
0.008
0.003
0.017
0.006
0.033
0.012
0.058
0.021
0.092
0.036
0.133
0.055
0.192
0.082
0.258
0.115
0.333
0.158
0.417
0.206
0.500
0.264
0.583
0.324
0.394
0.464
0.538

5
0.001
0.003
0.005
0.009
0.015
0.024
0.037
0.053
0.074
0.101
0.134
0.172
0.216
0.265
0.319
0.378
0.438
0.500
0.562

4
0.008
0.016
0.032
0.056
0.095
0.143
0.206
0.278
0.365
0.452
0.548

5
0.004
0.008
0.016
0.028
0.048
0.075
0.111
0.155
0.210
0.274
0.345
0.421
0.500
0.579

6
0.001
0.001
0.002
0.004
0.007
0.011
0.017
0.026
0.037
0.051
0.069
0.090
0.117
0.147
0.183
0.223
0.267
0.314
0.365
0.418
0.473
0.527

7
0.000
0.001
0.001
0.002
0.003
0.006
0.009
0.013
0.019
0.027
0.036
0.049
0.064
0.082
0.104
0.130
0.159
0.191
0.228
0.267
0.310
0.355
0.402
0.451
0.500
0.549

296

Tableau 11.16 Valeurs critiques du test des rangs pour e chantillons apparies, de Wilcoxon

n
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25

(test unilateral)
0.05 0.025 0.01 0.005
(test bilateral)
0.1 0.05 0.02 0.01
2
0
3
2
0
5
4
2
0
8
6
3
2
10
8
5
3
13
11
7
5
17
14
10
7
21
17
13
10
25
21
16
13
30
25
20
16
35
30
24
20
41
35
28
23
47
40
33
28
53
46
38
32
60
52
43
38
67
59
49
43
75
66
56
49
83
73
62
55
91
81
69
61
100
89
77
68

bar-hen.net

Annexe A
Fonction de plusieurs variables
1

Introduction
Definition A.1 On appelle fonction numerique de n variables reelles une application f
dune partie D de Rn dans R. On dit que f est definie sur le domaine D.
On note :


f:

D
R
(x1 , x2 , . . . , xn ) 7 f (x1 , x2 , . . . , xn )

ou plus simplement f : (x1 , x2 , . . . , xn ) 7 f (x1 , x2 , . . . , xn ) sil ny a pas dambigute


sur D.
On note e galement :

D R
f:
H 7 f (H)
o`u H = (x1 , x2 , . . . , xn ) est un point de Rn appartenant a` D.
Exemple A.1
la fonction f : (x, y) 7 ax2 + bxy + cy 2 o`u a, b et c sont des reels donnes, est une
2
fonction numerique de deux
pvariables reelles, definie sur R .
la fonction f : (x, y) 7 R2 (x2 + y 2 ) est une fonction numerique de deux variables reelles definie pour tout couple (x, y) tel que (x2 + y 2 ) R2 , R e tant un reel
positif donne.
2
2
est une fonction numerique de deux variables reelles
la fonction f : (x, y) 7 xx2 y
+y 2
2
definie sur D = R \ {(0, 0)}.

2 y2
la fonction f : (x, y) 7 x z3
est une fonction numerique de trois variables reelles
definie pour tout triplet (x, y, z) tel que : y 2, z 6= 3.

1.1

Representation graphique
Dans le cas particulier dune fonction de deux variables, on peut utiliser des representations
geometriques.

297

298

Introduction

Si on choisit, par exemple, un tri`edre orthonorme direct, un couple (x, y) de D est


represente par un point H du plan xOy, auquel on peut associer les M (x, y, f (x, y)).
Si D est represente par une surface plane, alors lensemble des points M (x, y, f (x, y))
constitue e galement une surface.
p
Exemple A.2 Soit f : (x, y) 7 R2 (x2 + y 2 ). Le domaine de definition D defini
par (x2 + y 2 ) R2 est represente par lensemble des points du disque circulaire de
centre
pO et de rayon R.
z = R2 (x2 + y 2 ) (x2 +y 2 +z 2 = R2 et z 0). Lensemble des points M (x, y, z)
forme une demi-sph`ere de centre O et de rayon R.
Dans le cas particulier dune fonction de trois variables, il est encore possible de representer
le domaine de definition D par un ensemble de points de lespace reel.
Pour une fonction de n variables, avec n > 3, on ne peut e videmment plus donner de
representation globale.

1.2

Limite
La notion de limite dune fonction de plusieurs variables sintroduit comme pour les
fonctions dune variable. On a, par exemple, pour une fonction de deux variables (la
generalisation est aisee) :
Definition A.2 On dit que f (x, y) = f (H) tend vers une limite L lorsque (x, y) tend
(x0 , y0 ) ou lorsque H(x, y) tend H(x0 , y0 ), si :
 > 0, > 0 tel que (|x x0 | < et |y y0 | < avec (x, y) 6= (x0 , y0 )) |f (H)L| < 
On e crit :
lim f (H) =

HH0

lim

f (x, y) = L

(x,y)(x0 ,y0 )

On notera :
que la definition implique que la fonction f est definie sur un pave ouvert entourant
H0 (un voisinage de H0 ).
que la definition entrane lunicite de la limite ; lorsquelle existe ;
quon peut e crire un definition e quivalente :
 > 0, > 0 tel que ||HH0 || < avec H 6= H0 |f (H) L| < 
que les theor`emes, concernant la somme, le produit, et le quotient de deux fonctions
admettant une limite lorsque H tend vers H0 , senoncent et setablissent comme dans
le cas des fonctions dune variable ;
quil est aise de definir une limite infinie ainsi quune limite de f (H) quand H seloigne
indefiniment.
1
Exemple A.3 Soit f : (x, y) 7 (x + y) sin x2 +y
2
f nest pas definie en (0, 0) mais on a lim(x,y)(0,0) f (x, y) = 0. En effet (x + y) 0 et
1
sin x2 +y
e.
2 demeure born

bar-hen.net

299

A. F ONCTION DE PLUSIEURS VARIABLES

y2
Exemple A.4 Soit f : (x, y) 7 x z3
.
On consid`ere H0 (1, 3, 3) o`u f nest pas definie. On a :

lim f (H) = +

si

z z+0

lim f (H) =

si

z z0

HH0
HH0

Il convient de preciser si H tend vers H0 avec une cote superieure ou une cote inferieure.

1.3

Continuite
La notion de continuite decoule naturellement de la notion de limite. On aura en particulier pour une fonction de deux variables :
Definition A.3 On dit quune fonction f : (x, y) 7 f (x, y) est continue au point (x0 , y0 )
si :
lim
f (x, y) = f (x0 , y0 )
(x,y)(x0 ,y0 )

Une fonction continue en tout point dun domaine est dite continue sur ce domaine.
Theor`eme A.1 Si f et g sont deux fonctions continues au point M0 , il en est de meme
pour des fonctions f + g, f ( R), f g et si g(M0 ) 6= 0, f/g.
Il sagit l`a dune consequence des theor`emes sur les limites.
Exemple A.5 Soit la fonction f : (x, y) 7 3x y + 1.
Cette fonction est definie sur R2 . Elle est continue sur R2 , ce que lon peut demontrer en
sappuyant sur la definition de la continuite. Quel que soit (x0 , y0 ), on a :

 > 0, = > 0 tel que : (|x x0 | < , |y y0 | < et (x, y) 6= (x0 , y0 )) |f (x, y)f (x0 , y0 )| < 
4
En effet |x x0 | < 4 3|x x0 | < 34
Or |f (x, y) f (x0 , y0 )| = |3(x x0 ) (y y0 )| 3|x x0 | + |y y0 |.
Donc |x x0 | < 4 et |y y0 | < 4 |f (x, y) f (x0 , y0 )| < 

2 Fonctions composees
On peut envisager plusieurs types de composition

2.1

Fonction de fonction
Soit u une fonction de variables x1 , x2 , . . . , xn . Soit f une fonction dune variable. On
peut definir la fonction :
: (x1 , x2 , . . . , xn ) 7 f (u(x1 , x2 , . . . , xn ))
sous reserve, bien entendu, que u(x1 , x2 , . . . , xn ) appartienne au domaine de definition
de f .
bar-hen.net

300

Fonctions composees

p
Exemple A.6 La fonction : (x, y, z) 7 x2 + y 2 + z 2 est obtenue
par composition
de la fonction u : (x, y, z) 7 x2 + y 2 + z 2 par la fonction f : u 7 u.
Theor`eme A.2 Si u est une fonction, de deux variables, continue au point (x0 , y0 ) et si
f est une fonction, dune variable, continue au point (x0 , y0 ), la fonction : (x, y) 7
f (u(x, y)) est continue au point (x0 , y0 ).
On generalise aisement au cas o`u u est une fonction de n variables.
En effet puisque f est continue au point u0 = u(x0 , y0 ), on peut trouver > 0 tel que :
|u u0 | < |f (u) f (u0 )| < 
Mais u est continue au point (x0 , y0 ) ; il est donc possible de choisir > 0 tel que :
(|x x0 | < et |y y0 | < ) |u(x, y)u(x0 , y0 )| < . Donc il est possible d choisir
> 0 tel que :
(|x x0 | < et |y y0 | < ) |u(x, y)u(x0 , y0 )| < |f (u(x, y))f (u(x0 , y0 ))| < 

Exemple A.7 La fonction : (x, y, z) 7

2.2

x2 + y 2 + z 2 est continue dans R3

Fonction composee
Soit : (u, v, w) 7 (u, v, w) une fonction de 3 variables. Soient f : x 7 u = f (x),
g : x 7 v = g(x), h : x 7 h(x), trois fonctions dune variable. On peut donc definit la
fonction :
F : x 7 (f (x), g(x), h(x))
sous reserve que le point (f (x), g(x), h(x)) appartienne au domaine de definition de .
Une telle fonction est dite fonction composee de f , g et h par . On notera que F est
fonction dune variable. On generalise aisement au cas o`u F est fonction de n variables.
Exemple A.8 La fonction
2

cos2 x ex
F :7
x2
est une fonction composee. Elle est obtenue en composant les fonctions : x 7 u = cos2 x,
2
x 7 v = ex , x 7 w = x2 par la fonction (u, v, w) 7 uv
w
Theor`eme A.3 Si f , g et h sont des fonctions, dune variable, continues en x0 et si est
une fonction, de trois variables, continue au point u0 = f (x0 ), v0 = g(x0 ), w0 = h(x0 ),
la fonction F : x 7 (f (x), g(x), h(x)) est continues en x0 .
On generalise aisement au cas o`u est une fonction de n variables.
Ce theor`eme se demontre aisement, en utilisant le meme schema que pour la demonstration
du theor`eme A.2.
Exemple A.9 La fonction
cos2 x ex
F :7
x2

est continue sur R .


bar-hen.net

301

A. F ONCTION DE PLUSIEURS VARIABLES

2.3 Autre cas


Soient les fonctions u : (x, y) 7 u(x, y), v : (x, y) 7 v(x, y), w : (x, y) 7 w(x, y) et
soit la fonction f : (u, v, w) 7 f (u, v, w). On peut alors definir la fonction :
F : (x, y) 7 f (u(x, y), v(x, y), w(x, y))
sous reserve que le point (u(x, y), v(x, y), w(x, y)) appartienne au domaine de definition
de f .
On generalise aisement a` la composition de n fonctions de p variables par une fonction
de n variables.
Exemple A.10 La fonction
F 7

x2 y 2
x2 + y 2

est obtenue en composant les fonctions u(x, y) 7 u = x2 y 2 et (x, y) 7 v = x2 + y 2


par la fonction (u, v) 7 uv
Theor`eme A.4 Si les fonctions, de deux variables, u, v et w sont continues au point
(x0 , y0 ) et si la fonction de trois variables, est continue au point (u(x0 , y0 ), v(x0 , y0 ), w(x0 , y0 )),
la fonction
F : (x, y) 7 f (u(x, y), v(x, y), w(x, y))
est continue au point (x0 , y0 ).
Ce theor`eme se demontre aisement, en utilisant le meme schema que pour la demonstration
du theor`eme A.2.
Exemple A.11 La fonction
x2 y 2
F
7
x2 + y 2
est continue sur R2 \ {(0, 0)}

3 Derivees partielles
Definition A.4 Soit la fonction de deux variables f : (x, y) 7 f (x, y).
On appelle derivee partielle de f , par rapport a` la variable x et au point (x0 , y0 ), le
nombre sil existe :
fx0 (x0 , y0 ) =

f
f (x0 + h, y0 ) f (x0 , y0 )
(x0 , y0 ) = lim
h0
x
h

On appelle de meme derivee de f , par rapport a` la variable y et au point (x0 , y0 ), le


nombre sil existe :
fy0 (x0 , y0 ) =
bar-hen.net

f
f (x0 , y0 + k) f (x0 , y0 )
(x0 , y0 ) = lim
k0
y
k

302

Derivees partielles

Si en tout point dun domaine D il existe des derivees partielles, les fonctions f
:
x
f
f
f
(x, y) 7 x (x, y) et y : (x, y) 7 y (x, y) sont appelees derivees partielles premi`eres
de f , par rapport a` x et par rapport a` y.
On generalise aisement cette definition a` une fonction de n variables.
On remarque que la derivee partielle par rapport a` x, au point (x0 , y0 ), nest autre que la
derivee, au point x0 , de la fonction : x 7 f (x, y0 ). Pour la derivee partielle par rapport
a` y, il sagit de la derivee, au point y0 , de la fonction : y 7 f (x0 , y).
On en deduit la r`egle pratique : pour determiner une derivee partielle, il suffit de deriver
comme on en a lhabitude par rapport a` la variable consideree, les autres variables e tant
considerees comme des constantes.
Exemple A.12 La fonction f : (x, y) 7 5x2 xy + 2y 2 est definie et continue sur R2 .
Sur R2 , elle admet pour derivees partielles :
f
f
: (x, y) 7 10x y et
: (x, y) 7 x + 4y
x
y
Exemple A.13 La fonction f : (x, y) 7 x2 sin y est definie et continue sur R2 . Sur R2 ,
elle admet pour derivees partielles :
f
f
: (x, y) 7 2x sin y et
: (x, y) 7 x2 cos y
x
y

3.1

Derivees partielles secondes


Les fonctions derivees partielles premi`eres, dune fonction f de plusieurs variables, peuvent
elles-memes admettre des derivees partielles ; on les appelle derivees partielles secondes
de f .
On peut e videmment envisager e galement des derivees partielles dordre superieur.
Pour une fonction de deux variables f : (x, y) 7 f (x, y), il faut a priori envisager quatre
derivees partielles secondes :
 
 
f
2f
f
2f
00
00
=
=
f
,
=
= fxy
2
x
x x
x2
y x
xy
 
 
f
2f
f
2f
00
=
= fyx ,
= 2 = fy002
x y
yx
y y
y
Exemple A.14 La fonction f : (x, y) 7 5x2 xy + 2y 2 admet, sur R2 , les derivees
partielles secondes :
2f
2f
(x,
y)

7
10
;
(x, y) 7 1
x2
xy
2f
2f
(x, y) 7 1 ;
(x, y) 7 4
yx
y 2
bar-hen.net

303

A. F ONCTION DE PLUSIEURS VARIABLES

Exemple A.15 La fonction f : (x, y) 7 x2 sin y admet, sur R2 , les derivees partielles
secondes :
2f
(x, y) 7 2 sin y
x2
2f
(x, y) 7 2x cos y
yx

2f
;
(x, y) 7 2x cos y
xy
2f
;
(x, y) 7 x2 sin y
2
y

On remarque, sur ces deux exemples que lon a :

2f
xy

2f
yx

Theor`eme A.5 Si, dans le voisinage du point (x0 , y0 ), la fonction f : (x, y) 7 f (x, y)
admet des derivees partielles premi`eres continues et si les derivees partielles secondes
00
00
fxy
et fyx
existent et sont continues, on a :
00
00
fxy
(x0 , y0 ) = fyx
(x0 , y0 )

On admettra ce theor`eme qui se generalise aisement et permet de considerer les derivations


successives par rapport aux variables dans un ordre quelconque.
Sous reserve de la continuite des derivees partielles, la fonction f : (x, y) 7 f (x, y)
2
2
2f
nadmet que trois derivees partielles secondes xf2 , xy
et yf2 et quatre derivees partielles
troisi`emes :

3
3
3f
, f , f
x3 x2 y xy 2

et

3f
y 3

Exemple A.16 Reprenons la fonction f : (x, y) 7 x2 sin y. On peut facilement verifier


legalite des derivees partielles :
3f
xyy
3f
yxy
3f
yyx
On note que

3f
xy 2

: (x, y) 7 2x sin y
: (x, y) 7 2x sin y
: (x, y) 7 2x sin y

: (x, y) 7 2x sin y.

Theor`eme A.6 Soient les fonctions u : x 7 u(x) et v : x 7 v(x) derivables en x0 ;


on pose u0 = u(x0 ) et v0 = v(x0 ). Soit la fonction : (u, v) 7 (u, v) admettant
au voisinage du point (u0 , v0 ) des derivees partielles premi`eres continues en (u0 , v0 ). La
fonction composee F : x 7 [u(x), v(x)] admet pour derivee en x0 :
F 0 : 0u [u(x0 ), v(x0 )] u0 (x0 ) + 0v [u(x0 ), v(x0 )] v 0 (x0 )
` laccroissement x de la
On consid`ere les valeurs x0 et x0 + x de la variable x. A
variable correspondent les accroissements :
u = u(x0 + x) u(x0 )
v = v(x0 + x) v(x0 )
F = F (x0 + x) F (x0 )
bar-hen.net

304

Derivees partielles

On a
F (x0 + x) F (x0 ) = [u(x0 + x), v(x0 + x)] [u(x0 ), v(x0 )]
= (u0 + u, v0 + v) (u0 , v0 )
On peut e crire :
F (x0 +x)F (x0 ) = (u0 + u, v0 + v)(u0 , v0 +v)+(u0 , v0 +v)(u0 , v0 )
On applique le theor`eme des accroissements finis a` la fonction : u 7 (u, v0 + v), qui
est derivable :
(u0 + u, v0 + v) (u0 , v0 + v) = u0u (u0 + 1 u, v0 + v) 0 < 1 < 1
On applique le theor`eme des accroissements finis a` la fonction : v 7 (u0 + u, v), qui
est derivable :
(u0 , v0 + v) (u0 , v0 ) = v0v (u0 , v0 + 2 v) 0 < 2 < 1
Il en resulte :
F (x0 + x) F (x0 ) = u0u (u0 + 1 u, v0 + v) + v0v (u0 , v0 + 2 v)
Et donc :
u 0
v 0
F (x0 + x) F (x0 )
=
u (u0 + 1 u, v0 + v) +
(u0 , v0 + 2 v)
x
x
x v
Lorsquon fait tendre x vers zero, e tant donnees la derivabilite de u et v et la continuite de 0u et 0v , on obtient comme limite du second membre : u0 (x0 )0u (u0 , v0 ) +
v 0 (x0 )0v (u0 , v0 ). Il en resulte que F est derivable en x0 et que :
F 0 (x0 ) = u0 (x0 )0u (u0 , v0 ) + v 0 (x0 )0v (u0 , v0 )
Lorsque u et v sont derivables sur un intervalle [a, b] et 0u et 0v sont continues sur le
domaine correspondant a` [a, b] on obtiendra comme fonction derivee de F :
F 0 = u0 0u + v 0 0v

u(x)
.
v(x)
u 0
vu0 uv 0
v = v2
v2

Exemple A.17 Soit F : x 7


On obtient : F 0 = v1 u0

Exemple A.18 Soit F : x 7 log[u(x)v(x)].


0
0
On obtient : F 0 = u1 u0 + v1 v 0 = uu + vv
Exemple A.19 Soit F : x 7 u(x)v(x).
On obtient : F 0 = vu0 + uv 0
bar-hen.net

305

A. F ONCTION DE PLUSIEURS VARIABLES

Quelques remarques :
1. Le theor`eme A.6 se generalise aisement au cas o`u est une fonction de n variables.
si, par exemple, on a F [u(x), v(x), w(x)], on obtient :
F 0 = u0 0u + v 0 0v + w0 0w
cest-`a-dire que lon a :
F 0 (x) = u0 (x)0u [u(x), v(x), w(x)]+v 0 (x)0v [u(x), v(x), w(x)]+w0 (x)0w [u(x), v(x), w(x)]
2. Si on consid`ere la composition de fonctions de plusieurs variables par une autre
fonction, le theor`eme A.6 sapplique e galement aux derivees partielles, sous reserve
des conditions de validite.
Soit par exemple F : (x, y) 7 [u(x, y), v(x, y)], on aura :
 F
= 0u u
+ 0v u
x
x
x
F :
F
= 0u u
+ 0v u
y
y
y
si les fonctions u et v admettent des derivees partielles en (x, y) et si admet des derivees
partielles au voisinage de (u(x, y), v(x, y)) continues en ce point.
Exemple A.20 La fonction F : x 7

cos2 xex
x2

admet pour derivees, sur R :


2

 cos2 xex
ex
cos2 x 
x2
F : x 7 2 (2 cos x sin x) +
2xe

2x
x
x2
x4
0

Exemple A.21 La fonction F : (x, y) 7


(
F :

bar-hen.net

F
(x, y)
x
F
(x, y)
y

7
7

x2 y 2
x2 +y 2

admet pour derivees partielles, sur R :

2 y 2
1
2x (xx2 +y
2 )2 2x
x2 +y 2
x2 y 2
1
(2y) (x2 +y2 )2 2y
x2 +y 2

=
=

4xy 2
(x2 +y 2 )2
4x2 y
(x2 +y 2 )2

306

Exercices

4 Exercices
1. Determiner les
pdomaines de definition des fonctions f et g definies par :
f (x, y) = 25 x2 y 2
g(x, y) = x2 2 si x2 y 2 6= 0, et g(0, 0) = 0
x y

2. On designe par :
f la fonction a` valeurs reelles definie sur R2 par :
 1
si 0 x < y
y
f (x, y) =
0 ailleurs
g la fonction reelle definie sur R par :
 y
ye
g(y) =
0

si y 0
si y < 0

h la fonction reelle definie sur R2 par :


h(x, y) = g(y)f (x, y)
(a) Definir D lensemble de R2 sur lequel la fonction h prend des valeurs non
nulles et donner une representation geometrique de cet ensemble.
R +
(b) Calculer lintegrale f (x) = 0 h(x, y)dy. (on prendra soin dutiliser la
question precedente).
(c) Donner, en fonction de x et y, lexpression explicite de :
(
h(x,y)
si x 0
f (x)
h(x, y) =
0
si x < 0
Pour quelles valeurs des variables x et y cette quantite est-elle non nulle ?
(d) Calculer lintegrale suivante dependant du param`etre a :
Z +
Q(a, x) =
(y a)2 h(x, y)dy
0

(e) Donner en fonction de x la valeur a0 du param`etre a qui rend minimum


lintegrale Q(a, x).
3. Determiner et representer graphiquement le domaine de definition des fonctions f
et g definies par :
f (x, y) = p
log[(16x2 y 2 )(x2 + y 2 4)]
g(x, y) = 6 (2x + 3y)
4. Determiner si les fonction suivantes ont une limite (x, y) 7 (0, 0) :
2
2
f : (x, y) 7 xx2 y
+y 2
g : (x, y) 7

|x+y|
x2 +y 2

bar-hen.net

307

A. F ONCTION DE PLUSIEURS VARIABLES

3 3

y
h : (x, y) 7 xx2 +y
2
Ces fonctions, completees par : (0, 0) 7 0, sont-elles continues a` lorigine ?

5. Peut-on rendre continues a` lorigine, en les definissant en ce point, les fonctions


definies par :
f (x, y) = sin(x+y)
x+y
g(x, y) = x2xy
+y 2
6. Determiner et representer graphiquement le domaine de definition de la fonction :
f : (x, y) 7

sin x sin y
xy

Trouver une fonction g qui prenne la meme valeur que f partout o`u celle-ci est
definie et qui soit continue dans tout le plan.
7. Montrer que la fonction (x, y) 7
seloigne a` linfini.

x+y
x2 +y 2

admet une limite lorsque le point M (x, y)

8. La fonction f , definie par f (x, y) = exy a-t-elle une limite lorsque le point
M (x, y) seloigne a` linfini.
9. Soit la fonction f :

f:

(x, y) 7 x2 + 2y ,
(x, y) 7 0
,

si (x, y) 6= (1, 2)
si (x, y) = (1, 2)

Cette fonction est-elle continue au point (1, 2) ?


10. Calculer les derivees partielles des fonction suivantes :
f1 (x, y) 7 2x2 3xy + 4y 2
2
2
f2 (x, y) 7 xy + yx
f3 (x, y) 7 sin(2x 3y)
2
f4 (x, y) 7 ex +xy
11. Calculer les derivees partielles secondes des fonction suivantes :
f1 (x, y) 7 x2 + 3xy + y 2
f2 (x, y) 7 x cos y y cos x
f3 (x, y) 7 xy
f4 (x, y) 7 log(xy)
f5 (x, y) 7 arctan xy
f6 (x, y) 7 log 21 2
x +y

12. On consid`ere la fonction f :



(x, y) 7 x22xy
,
+y 2
f:
(x, y) 7 0
,

si (x, y) 6= (0, 0)
si (x, y) = (0, 0)

Montrer que les derivees partielles fx0 (0, 0) et fy0 (0, 0) existent. La fonction est-elle
continue au point (0, 0) ?

bar-hen.net

308

Exercices

1
13. Montrer que la fonction definie par U (x, y, z) = (x2 +y 2 +y 2 ) /2 verifie lequation
aux derivees partielles de Laplace :

2U
2U
2U
+
+
=0
x2
y 2
z 2
x
y
z
14. Soit la fonction f : (x, y, z) 7 e /y + e /z + e /x . Determiner le domaine de
definition de D de f ; la fonction est-elle continue en D ? Calculer les derivees
partielles, premi`eres et secondes, de f .

15. Soit la fonction f : (x, y) 7 x2 + y 2 . Calculer, en appliquant le theor`eme A.6, la


derivee de F : t 7 f (a cos t, b sin t).
p
16. Soit la fonction F : r 7 F (r). On pose r = x2 + y 2 + z 2 , ce qui permet de
p
2
2
2
definir la fonction f : (x, y, z) 7 f ( x2 + y 2 + z 2 ). Calculer xf2 + yf2 + zf2 .
Determiner F pour que lon ait :

2f
x2

2f
y 2

2f
z 2

= 0.

bar-hen.net

Annexe B
Integrales multiples
1
1.1

Integrale double
Notion dintegrale double
Soit une fonction f : (x, y) 7 z = f (x, y), definie sur un domaine D ferme et supposee
nulle a` lexterieur de D.


Lespace e tant muni dun rep`ere orthorme direct (O, i , j , k ), lorsque le point H(x, y)
se deplace dans D, le point M (x, y, z) decrit une surface S.
On designe par a et b les bornes inferieures et superieures des abcisses dun point de
contour de D et par c et d les bornes inferieures et superieures des ordonnees dun point
de ce meme contour.
On partage [a, b] par les valeurs x0 = a < x1 < x2 < . . . < xi < . . . < xm = b
et [c, d] par les valeurs y0 = c < y1 < y2 < . . . < yj < . . . < ym = d
ce qui permet de definir un ensemble de mn rectangles recouvrant D.
Soit Eij le rectangle [xi1 , xi ] [yj1 , yj ], de dimensions xi = xi xi1 et yj =
yj yj1 .
On choisit arbitrairementPdansP
Eij un point Hij .
n
On consid`ere la somme i=1 m
j=1 f (Hij )xi yj .
Si cette somme tend vers une limite I, lorsque m et n tendent vers linfini de mani`ere a`
ce que sup xi et sup yj tendent vers zero, independamment de la facon dont on fait
les partages et dont on choisit les points Hij , on dit que f est integrable sur D, que I est
lintegrale de f sur d et on pose :
Z Z
I=
f (x, y)dxdy
D

On peut demontrer en particulier que si f est continue sur D, lintegrale existe toujours.

1.2

Calcul dune integrale double


Le calcul dune integrale double se ram`ene au calcul de deux integrales definies.

309

310

Integrale double

Limitons-nous, dans un premier temps, au cas o`u les parall`eles aux axes qui coupent le
contour de domaine D ont en commun avec D un segment.
On peut choisir des points Hij dabcisse i , constante pour tous les rectangles dune
rangee parall`ele a` Oy et dordonnee j , constante pour tous les rectangles dune rangee
parall`ele a` Ox.
On obtient alors la somme double :
n X
m
X

f (i , j )xi yj

i=1 j=1

que lon peut


Pe crire :

Pn
m
x
f
(
,

)y
i
i
j
j
i=1
j=1
Or lorsque n + avec sup yj 0, il est clair que :
lim

m
X

2 (i )

f (i , j )yj =

f (i , y)dy = F (i )
1 (i )

j=1

et lorsque n + avec sup xi 0, on obtient :


lim

n
X

F (x)dx

F (i )xi =
a

j=1

Finalement :
Z Z

Z
dxdy =

2 (i )

f (x, y)dy

dx
a

1 (i )

Cette e criture signifie que, x e tant fixe, on int`egre dabord par rapport a` y ; la fonction 2
admet pour graphe la partie superieure du contour de D, la fonction 1 la partie inferieure.
On obtient alors une fonction de x quil reste a` integrer de a a` b.
En inversant lordre de la mise en facteurs, on obtiendrait e galement :
Z Z

Z
dxdy =

2 (y)

f (x, y)dx

dy
c

1 (y)

RR
Exemple B.1
(x + y 2 )dxdy o`u D est defini par {x 0, y 0, x + y 1}. Il est
D
facile de representer le domaine (premier quadrant en dessous de la droite y = 1 x)
Premier calcul :
1x
Z 1 Z 1x
Z 1 
y3
2
I =
dx
(x + y )dy =
dx xy +
3 0
0
0
0


Z 1
4 1
1
1
x
1
=
(1 x3 )dx =
x
=
3
4 0 4
0 3

bar-hen.net

311

B. I NT E GRALES MULTIPLES

Deuxi`eme calcul :
Z

I =

1y

dy
(x + y )dx =
0
0

Z 1
3
1
=
y 3 + y 2 y +
dy
2
2
0
1
 4
y
y3 y2 y
1
=
= +

+
4
2
2
2 0 4
0

1.3

x2
dy
+ xy 2
2


1y
0

Proprietes
1. Lintegrale double se calculant par deux integrales simples successives, il resulte de
la linearite dune integrale definie que lintegrale double est une expression lineaire
de la fonction a` integrer, lorsque le domaine dintegration est fixe :
Z Z
Z Z
Z Z
[g(x, y) + h(x, y)]dxdy =
g(x, y)dxdy +
h(x, y)dxdy
D
D
D
Z Z
Z Z
f (x, y)dxdy =
f (x, y)dxdy , R
D

2. On peut montrer e galement que si le domaine D est la reunion de deux domaines


disjoints D1 et D2 , on a :
Z Z
Z Z
Z Z
f (x, y)dxdy =
f (x, y)dxdy +
f (x, y)dxdy
D

D1

D2

Cette propriete permet detendre la notion dintegrale double a` des domaines de


forme generale.

1.4

Cas particuliers
1. Le domaine dintegration est un rectangle.
On a alors :
Z Z
Z
f (x, y)dxdy =

f (x, y)dy

dx
c

Les bornes de la premi`ere integrale ne sont pas fonction de x.


2. Le domaine dintegration est un rectangle et f (x, y) = g(x)f (y).
Dans ce cas :
Z Z
Z b Z d
f (x, y)dxdy =
dx
g(x)f (y)dy
D
a
c
 Z d

Z b
g(x)dx
f (y)dy
=
a

Lintegrale double est alors le produit de deux integrales simples.


bar-hen.net

312

Integrale double

RR
Exemple B.2
xydxdy o`u D est defini par : 0 x 1 et 0 y 2.
D
h 2 i1 h 2 i 2
R1
R2
y
=1
On a : I = 0 xdx 0 ydy = x2
2
0

1.5

Calcul de volumes et de surfaces


Si f (x, y) est positif ou nul en tout point du domaine D, le produit f (Hij )xi yj est
e gal au volume dun parallelepip`ede rectangle de surface de base xi yj et de hauteur
f (Hij ). En sommant sur i et sur j, on obtient un volume qui, a` la limite, est e gal au
volume V de la portion de cylindre, de generatrices parall`eles a` Oz, limite par la base D
et par la surface S. On posera donc :
Z Z
V =
f (x, y)dxdy
D

Par contre, si f (x, y) nest pas forcement positif ou nul, on parlera de volume algebrique.
Les portions situees en dessous du plan xOy e tant comptees negativement (voir propriete 2).
Si on consid`ere maintenant
la fonction f : (x, y) 7 1, definie sur un domaine D, il est
RR
clair que lintegrale
dxdy donne le volume dun cylindre de base D et de hauteur 1.
D
Le nombre obtenu est donc e galement laire de la surface D. On posera donc :
Z Z
S=
dxdy
D

Exemple B.3 (Volume dune sph`ere). Une sph`ere de centre O et de rayon R admet pour
e quation, par rapport a` un rep`ere orthonorme dorigine O : x2 + y 2 + z 2 = R2
La demi-sph`ere S situee au-dessus du plan xOy a pour e quation :
p
x2 + y 2 + z 2 = R2 et z 0 z = R2 x2 y 2
p
Cest donc le graphe de la fonction f : (x, y) 7 R2 x2 y 2 definie sur le domaine
D : x2 + y 2 R 2 .
Le volume limite par la demi-sph`ere S et le plan xOy est donc :
Z Z p
I =
R2 x2 y 2 dxdy
D

R2 x2

R2 x2 y 2 dy sur D, pour x fixe, R2 x2 y R2 x2


R2 x2
R
r
Z R
Z R2 x2
y2
2
2
=
dx
R x 1 2
dy
R x2
R
R2 x2
Z

dx

On pose :
t = arcsin

y
y
= sin t et t

2
2
R 2 x2
R 2 x2

dy = R2 x2 cos tdt
p
1 sin2 t = | cos t| = cos t ( 0 si 2 t 2 )
bar-hen.net

313

B. I NT E GRALES MULTIPLES

Finalement :
Z R
Z
2
2
I=
(R x )dx


R
2

x3
2
cos tdt =
(R x )dx =
R x
= R3
2
2
3 R 3
R
Z

Do`u le volume de la sph`ere


4
V = 2I = R3
3
Exemple B.4 (Aire du cercle) Soit un cercle de centre O et de rayon R. On a :
Z Z
Z R
Z R2 x2
S=
dxdy =
dx
dy
R2 x2

R2 x2 dx
Z Rr
x2
= 2R
1 2 dx
R
R
= 2

On pose
u = arcsin

On obtient
Z
2
S = 2R

cos udu = 2R

= sin u et u
R
R
2
2
dx
=
R
cos
udu
p
1 sin2 u = | cos u| = cos u

1.6




1 + cos 2u
sin 2u 2
2 u
= 2R2 = R2
du = 2R
+
2
2
4
2

Changement de variables
RR
Soit lintegrale double
f (x, y)dxdy.
D
Pour faciliter les calculs, il est souvent commode de changer de variables. Sans aller
jusqu`a la justification, relativement compliquee, du procede, il convient cependant den
connatre les r`egles.
Le changement de variables, dans un integrale double, consiste a` passer dun couple
(x, y) a` un autre couple (u, v) par lintermediaire dune application (x, y) 7 (u, v).
Lorsque le point H(x, y) decrit le domaine D, son image K(u, v) va decrire un nouveau
domaine .
Lapplication doit donc e tre bijective.
Considerons maintenant les fonctions et definies par : x = (u, v) et y = (u, v),
les formules de changement de variables.
On appelle determinant fonctionnel ou Jacobien des fonctions et le determinant :


D(x, y) x0u x0v
=
= x0u yv0 x0v yu0
D(u, v) yu0 yv0
bar-hen.net

314

Integrale double

Sous reserve de la continuite des fonctions et et de leurs derivees partielles sur , on


a:


Z Z
Z Z
D(x, y)

dudv
f (x, y)dxdy =
f ((u, v), (u, v))

D(u,
v)
D

Application : utilisation des coordonnees polaires



` tout point M du plan muni du rep`ere orthonorme (O,
A
i , j , k ), on associe ses coor

donnees cartesiennes x et y qui sont telles que : OM = x i + y j .

On peut e galement lui associer ses coordonnees polaires r et : si


u est le vecteur

unitaire parall`ele et de meme sens que OM , on a :

OM = r
u (r 0) , = ( \
i ,
u )(0 < 2)
Dans ces conditions, il est clair que se donner (x, y), cest se donner (r, ) et reciproquement ;
lapplication (x, y) 7 (r, ) est bijective.
On a : x = r cos et y = r sin


D(x, y) cos r sin
=
= r cos2 + r sin2 = r
sin r cos
D(r, )


D(x, y)
=r
r 0
D(r, )
et on peut e crire :
Z Z

Z Z
f (x, y)dxdy =

f (r cos , r sin )rdrd

RR p
Exemple B.5 On avait a` calculer : I =
R2 x2 y 2 dxdy
D
On
en coordonnees polaires. On obtient :
R R passe
R2 r2 rdrd o`u est defini par : 0 r R, 0 < 2.

Do`u
Z 2 Z R
I =
d
R2 r2 rdr
cas particulier 2 du paragraphe 1.4
0
0

R
1 2
2
2 3/2
= 2 (R r )
= R3
3
3
0
et donc
4
V = R3
3
RR 2
2
Exemple B.6
x
+
y
dxdy
o`
u
D
est
d
e
fini par x 0, y 0 et x2 + y 2 2.
D


Dans un plan muni dun rep`ere orthonorme (O, i , j , k ), le domaine D est represente
par le quart de cercle, de centre O et de rayon 2, situe dans le premier quadrant. On
passeR en
ees polaires et on obtient :
R coordonn
3
I=
r
drd
o`
u est defini par : 0 r 2, 0 < 4 .

Do`u
 4 2
Z Z 2

4
r

d
r3 dr = []04
=
I=
4 0
4
0
0
bar-hen.net

315

B. I NT E GRALES MULTIPLES

2 Integrale triple
2.1 Notion dintegrale triple
Soit une fonction f : (x, y, z) 7 t = f (x, y, z), definie sur un domaine D ferme et
supposee nulle a` lexterieur de D.


Lespace e tant muni dun rep`ere orthorme direct (O, i , j , k ), D peut e tre represente
par lensemble des points dun volume limite par une surface fermee S.
On designe par a et b, c et d, e et f les bornes inferieures et superieures des abcisses, des
ordonnees et des cotes des point de S.
On partage [a, b] par les valeurs x0 = a < x1 < x2 < . . . < xi < . . . < xm = b
[c, d] par les valeurs y0 = c < y1 < y2 < . . . < yj < . . . < ym = d
et [e, f ] par les valeurs z0 = e < z1 < z2 < . . . < zk < . . . < zp = f
et on quadrille lespace par des plans dabcisses x0 , x1 , . . . , xm des plans dordonnee
y0 , y1 , . . . , yn et des plans de cote z0 , z1 , . . . , zp , ce qui permet de definir un ensemble de
mnp parallelepip`edes rectangles recouvrant D.
On designe par Eijk le parallelepip`ede rectangle
[xi1 , xi ] [yj1 , yj ] [zk1 , yk ]
de dimensions xi = xi xi1 , yj = yj yj1 et zk = zk zk1 .
On choisit arbitrairement dans chaque parallelepip`ede Eijk un point Mijk .
Soit maintenant la somme :
p
m X
n X
X
f (Mijk )xi yj zk
i=1 j=1 k=1

Si cette somme tend vers une limite I, lorsque m, n et p tendent vers linfini de mani`ere
a` ce que sup xi , sup yj et sup zk tendent vers zero, independamment de la facon
dont on fait les partages et du point Mijk , on dit que f est integrable sur D, que I est
lintegrale triple de f sur D et on pose :
Z Z Z
f (x, y, z)dxdydz
D

On peut demontrer, en particulier, que, si f est continue sur D, lintegrale existe.

2.2

Calcul dune integrale triple


Le calcul dune integrale triple se ram`ene au calcul dune integrale double et dune
integrale simple donc, finalement, au calcul de trois integrales simples successives.
On peut choisir Mijk = (i , j , k ) ; ceci revient a` choisir meme abcisse pour tous les
points de premier indice i, meme ordonnee pour tous les points de deuxi`eme indice j
et meme cote pour tous les points de troisi`eme indice k. On peut alors e crire la somme
triple :
p
m X
n X
X
i=1 j=1 k=1

bar-hen.net

f (i , j , k )xi yj zk =

p
X
k=1

zk

m X
n
X
i=1 j=1

f (i , j , k )xi yj

316

Integrale triple

` la limite, la somme double est lintegrale double de f (x, y, k ) par rapport a` x et y,


A
k e tant fixe, sur un domaine D(k ) obtenu par lintersection de D par le plan de cote
z = k .
Cette integrale double est e videmment fonction de k . Il ne reste plus qu`a sommer sur k
ce qui, a` la limite est une integrale simple sur z. On e crira donc successivement :
Z Z Z
Z f Z Z
f (x, y, z)dxdydz =
dz
f (x, y, z)dxdy
D

Z Z Z

D(z)
f

Z
f (x, y, z)dxdydz =

2 (z)

dz

2 (y,z)

f (x, y, z)dx

dy
1 (z)

1 (y,z)

Cette notation signifie que x et y e tant fixees, on int`egre dabord par rapport a` x ; les
bornes de cette premi`ere integrale dependant en general de (y, z). On int`egre ensuite par
rapport a` y, z e tant fixe ; les bornes de cette deuxi`eme integrale dependant en general de
z. Enfin on int`egre par rapport a` z.
Bien entendu lordre dintegration choisi ici est arbitraire ; on pourrait commencer a`
integrer dabord par rapport a` z, x et y e tant fixes, puis par rapport a` x, y e tant fixe,
enfin par rapport a` y.
RRR
2
2
Exemple B.7
xyzdxdydz o`u D est defini par : x 0, y 0, z 0, xa2 + yb2 +
D
z2
1 (a > 0, b > 0, c > 0).
c2
Le domaine D peut ici e tre represente par un huiti`eme dellipsode. On a
q
q
Z a
Z b 1 x22
Z c 1 x22 y22
a
a
b
I =
xdx
ydy
zdz
0

0
a

0
q
2
b 1 x2

c2
ydy
2


x2 y 2
=
xdx
1 2 2
a
b
0
0
q
2
x
 2
b 1 2
Z
a
c2 a
y
x2 y 2
y4
=
xdx
2 2
2 0
2
a 2
4b 0
"




2 #
Z
c2 b2 a
x2
x2 x3
x2
x
=
1 2 x 1 2
1 2
dx
2
2 2 0
a
a
a
a
2


b 2 c 2 a2 a2 a2 a2 a2 a2 a2
=

2
2
4
4
6
4
4
12
2 2 2
abc
=
48
Le produit xi yj zk est e gal au volume du parallelepip`ede rectangle Eijk .
Soit maintenant la fonction :

(x, y, z) 7 1 sur D
g:
(x, y, z) 7 0 ailleurs
Z

Il est clair quen multipliant xi yj zk par g(Mijk ) et en sommant sur i, j et k, on obtient un volume qui, a` la limite, est e gal au volume de la portion de lespace representant
D.
bar-hen.net

317

B. I NT E GRALES MULTIPLES

2.3 Changement de variables


Soient les formules de changement de variables :
x = (u, v, w) , y = (u, v, w) et z = (u, v, w)
definissant une correspondance bijective entre lensemble D des points (x, y, z) et lensemble des points (u, v, w). On admettra que, sous reserve de la continuite des fonctions , et et de leurs derivees partielles :


Z Z Z
Z Z Z
D(x, y, z)

dudvdw
f (x, y, z)dxdydz =
f ((u, v, w), (u, v, w), (u, v, w))

D(u,
v,
w)
D

o`u

D(x,y,z)
D(u,v,w)

est le Jacobien des fonctions , et defini par le determinant :


0

xu x0v x0w


D(x, y, z)
= yu0 yv0 yw0
D(u, v, w) 0
zu zv0 zw0

2.4

Generalisation
On peut envisager des integrales n-uples de fonctions de n variables. Le support geometrique
fera e videmment totalement defaut d`es que n > 3, ce qui nest pas necessairement
genant.
En fait le processus de calcul sera le meme que pour les integrales doubles et triples.

3 Rappels de mecanique
Lespace est muni dun rep`ere orthonorme Oxyz
Pour un
Pensemble de points isoles Ai (xi , yi , zi ) affectes dune masse mi , de masse totale
M = i mi , on definit :
P

le centre de masse G(X, Y, Z) par la relation vectorielle i mi GAi = O . On en deduit


P

M OG = i mi OAi , do`u les coordonnees de G :


X=

1 X
1 X
1 X
mi xi , Y =
mi yi , X =
mi zi
M i
M i
M i

le moment dinertie par rapport a` un point, a` un axe, ou a` un plan :


X
I=
mi d2i
i

o`u di est la distance du point Ai au point, a` laxe, ou au plan par rapport auquel le
moment dinertie est calcule.
bar-hen.net

318

Rappels de mecanique

Pour une tige porte par laxe Ox, de masse specifique (lineaire) (x), (a, b) e tant lensemble des abcisses des points de la tige, on obtient :
Z b
Z b
1
M=
(x)dx , X =
x(x)dx , (Y = Z = 0)
M a
a
Z b
I=
d2 (x)(x)dx
a

o`u d(x) est la distance du point A(x) de la tige, a` lelement par rapport auquel I est
calcule.
Pour un plaque plane situe sur le plan xOy, de masse specifique (superficielle) (x, y),
D e tant lensemble des couples (x, y) associes aux points de la plaque, on obtient :
Z Z
M =
(x, y)dxdy
D
Z Z
1
x(x, y)dxdy
X =
M
Z ZD
1
Y =
y(x, y)dxdy , (Z = 0)
M
D
Z Z
I=
d2 (x, y)(x, y)dxdy
D

o`u d(x, y) est la distance du point A(x, y) de la plaque, a` lelement par rapport auquel I
est calcule.
Pour un solide, a` 3 dimensions, de masse specifique (x, y, z), e tant lensemble des
triplets (x, y, z) definissant les points du solide, on a :
Z Z Z
Z Z
1
M=
(x, y, z)dxdydz , X =
x(x, y, z)dxdydz
M

D
Z Z
Z Z
1
1
Y =
y(x, y, z)dxdydz , Z =
z(x, y, z)dxdydz
M
M
D
D
Z Z
I=
d2 (x, y, z)(x, y, z)dxdydz
D

o`u d(x, y, z) est la distance du point A(x, y, z) du solide, a` lelement par rapport auquel
I est calcule.
Si le solide est homog`ene, la masse specifique est constante.

bar-hen.net

319

B. I NT E GRALES MULTIPLES

4 Exercices
RR

xydxdy, o`u D est defini par {x 0, y 0, y 1 2x}


RR
2. Calculer, par deux methodes differentes :
xydxdy, o`u D1 est defini par {x
D1
RR
2
2
2
0, y 0, x + y R } Calculer
xydxdy, o`u D2 est defini par {x 0, y
D2
2
2
2
0, x + y R , x + y R > 0}
RR
3. Calculer
x sin(x + y)dxdy, o`u D est defini par {0 x , 0 y 2 }
D
R + R +
1
4. Calculer 0
dxdy
(x2 +y 2 +a2 )2
0
1. Calculer

5. Calculer laire plane limitee par les courbes dequations, dans un rep`ere orthonorme y = x2 et y = 2 x2
6. Lespace est muni dun rep`ere orthonorme Oxyz. Calculer le moment dinertie, par
rapport a` laxe Oz, dune plaque homog`ene situe dans le plan xOy et limitee par
les courbes dequations : y 2 = 4x, x = 0, y = 2.
7. Determiner le centre de masse dune plaque semi-circulaire homog`ene, de centre
O et de rayon R.
RR
1
8. Calculer
dxdy o`u D est defini par {x 1, y 1, x + y 3}
D (x+y)2
RR
9. Calculer D x2xy
dxdy o`u D est le triangle de sommets : O(0, 0), A(a, a), B(a, 0)
+y 2
avec a > 0, les trois points e tant reperes par rapport a` un syst`eme orthonorme xOy.
RR 1
10. Calculer
dxdy o`u D est defini par {0 x 1, 0 y 1, x + y 1}
D x+y
RRR 2
11. Calculer
z dxdydz o`u D est defini par {x2 + y 2 + z 2 R2 }
R R RD
12. Calculer
zdxdydz o`u V est defini par {x 0, y 0, z 0, x + y + z a}
R R RV
13. Calculer
zd(x+y+z)dydz o`u V est defini par {h z h, x2 +y 2 R2 }
V
14. Calculer le volume, la masse, le moment dinertie par rapport a` son axe de revolution,
dun cone de revolution homog`ene, de hauteur H et de rayon de base R. Determiner
son centre de masse.
R R 1 (x2 +y2 )
R + 1 x2/
2 dx.
e
15. Calculer
e 2
dxdy. En deduire
R2

16. Calculer la surface dun cercle de rayon R.


17. Calculer le volume dune sph`ere de rayon R.
18. Calculer laire plane limitee par les courbes dequation : y 2 = 4x et y = 2x 4,
dans un rep`ere orthonorme.
19. Calculer laire et determiner le centre de masse dune plaque plane homog`ene limitee par une courbe dequation polaire :
(a) r2 = a2 cos 2 avec 4
(b) r = a cos avec 2

20. Lespace est muni dun rep`ere orthonorme. Calculer le volume et determiner le
centre de masse dun solide homog`ene limite par la surface dequation x2 +y 2 +z =
9 et le plan z = 0.

bar-hen.net

320

Exercices

21. Calculer le volume et determiner le centre de masse du solide homog`ene limite par
les plans dequations : x = 0, y = 0, z = 0, xa + yb + zc = 1, (a, b, c R+ )
22. Calculer le moment dinertie par rapport a` une de ses aretes dune plaque rectangulaire homog`ene.

bar-hen.net

321

B. I NT E GRALES MULTIPLES

5 Solutions
1. On a :
Z Z
I =

xydxdy =
D
1/
2

Z
=


xdx

0
1/
2

1
2

(x 4x2 + 4x3 )dx

1 x2 4x3
=

+ x4
2 2
3
1
=
96
RR

ydy

0

2 12x

y
2

12x

Z
xdx

2. Soit I1 =

1/
2

 12
0

1
=
2

1
4
1

+
8 24 16

xydxdy.

D1

(a) on a

Z
I1 =

R2 x2

xdx

ydy

0
R

Z
=
0

y2
xdx
2


R2 x2
0


R
2
1
1
x4
2
3
2x
=
(R x x )dx =
R

2 0
2
2
4 0
4
R
=
8
Z

(b) On peut e galement e crire, en passant en coordonnees polaires :


Z Z
I1 =
r2 cos sin rdrd o`u 1 est defini par {0 2 , 0 r R}
1

Z /2
=

sin
2
4
R
=
8

 2 

Soit maintenant I2 =
Z
I2 =

r
4

RR
D2

R
0

xydxdy. On a :

R2 x2

xdx
0

r3 dr

0
2

bar-hen.net

cos sin d

ydy
Rx

322

Solutions

Z
=
0

y2
xdx
2


R2 x2
Rx


R
3
1
2x4
1
2
2
2
2
2x
(R x R x + 2Rx)xdx =
R

=
2 0
2
3
4 0
4
R
=
12
Z

3.
Z /2

Z
I =

xdx
0

sin(x + y)dy
0

xdx [ cos(x + y)]0 /2

Z0 



=
x cos x +
+ cos x dx
2
0
Z
=
x(cos x + sin x)dx
0


R
R
On int`egre par parties
udv = uv vdu en posant x = u dx = du et
(cos x + sin x)dx = dv v = sin x cos x
Z

I = [x(sin x cos x)]0


(sin x cos x)dx = [ cos x sin x]0 = 2
0

R + R +
1
4. Soit I = 0
dxdy. Le domaine dintegration peut e tre represente
(x2 +y 2 +a2 )2
0
dans un plan, muni dun rep`ere orthonorme, par le premier quadrant.
On passe en coordonnees polaires :
Z /2
I=


+
r

dr =
2
= 2
2
2
2
2
(r + a )
2
r +a 0
2a

Z
d

5. Dans un plan muni dun rep`ere orthonorme, laire a` calculer est limitee par deux
paraboles admettant y 0 Oy pour axe de symetrie et symetriques entre elles par rapport a` la droite dequation y = 1. Ces deux paraboles se coupent en A(1, 1) et
B(1, 1) : y = 2 x2 = x2 x2 = 1 x = 1. On a :
Z Z
S

dxdy =

Z
dx

2x2

x2


1
x3
8
dy =
(2 2x )dx = 2x 2
=
3 1 3
1
Z

6. La plaque plane est la surface entre laxe Oy, la droite y = 2 et la courbe y 2 = 4x.
On a, si D est lensemble des (x, y) definissant la plaque de masse specifique :
Z Z
I =

(x + y )dxdy =
D

Z
dy

y 2/
4

(x2 + y 2 )dx

bar-hen.net

323

B. I NT E GRALES MULTIPLES

 y2/4

Z 2 6
y
y4
x3
2
=
=
dy
+y x
+
dy
3
192
4
0
0
0
 7
2
y
y5
=
+
1344 20 0
178
=

105
Il est dusage dexprimer un moment dinertie en fonction de la masse M du solide.
Si S est laire de la plaque, on a :
Z Z
Z Z
M=
dxdy =
dxdy = S
Z

Z Z

y 2/
4


3 2

y
2
2
3 178
89
= M = I= M
= M
12 0 3
3
2 105
35
D
0
0
7. On choisit le rep`ere orthonorme Oxy de mani`ere que Oy soit laxe de symetrie de
la plaque. Soient la masse specifique (constante) de la plaque, M sa masse, D
lensemble des (x, y) definissant la plaque. Soit G(x, y) le centre de masse cherche.
On a :
Z Z
Z Z

X=
xdxdy =
r cos rdrd
M
M
D

, en passant en coordonnees polaires. est defini par : {0 , 0 r R}


Z
Z R

R3
X=
cos d
r2 dr =
[sin ]0 = 0
M 0
M 3
0
Ce resultat e tait previsible puisque Oy est un axe de symetrie. Le centre de masse
est donc situe sur Oy et a pour ordonnee :
Z Z
Z Z
Z
Z R

R3
2
Y =
ydxdy =
r sin rdrd =
sin d
r dr =
[ cos ]0
M
M
M 0
M 3
D

0
cest-`a-dire
2 3
Y =
R
3M
RR
RR
Or M =
dxdy = D dxdy = 12 R2 M = R2 2 . Finalement :
D
S=

dxdy =

dy

dx =

4
R 0.4244R
3
8. Le domaine dintegration est facile a` representer. On a :
Z Z
Z 2 Z 3x
1
1
dxdy =
dx
dy
2
(x + y)2
D (x + y)
1
1
3x
Z 2 
1
=
dx
(x + y) 1
1

Z 2
1
1
=
+
dx
3 x+1
1
h
x i2
3 1
= log(x + 1)
= log
3 1
2 3
Y =

bar-hen.net

324

Solutions

9. Soit I =

RR

xy
dxdy.
D x2 +y 2

On passe en coordonnees polaires :


r2 cos sin
rdrd
r2

Z /4
Z a
cos
=
cos sin d
rdr
Z Z

I =

Z /4

a
cos sin d
2 cos2
0
Z /4
sin
a2
d
=
2 0 cos

a2
= [log(cos )]0 /4
2

a2
a2
=
log 2 =
log 2
2
4
=

10. Soit I =

1
dxdy.
D x+y
R1
1
dy 1y x+y
dx
0

RR

R1
1
dy[log(x
+
y)]
=
log(1 + y)dy.
1y
0
0

R
R
On int`egre par parties :
udv = uv vdu en posant dv = dy v = y et
log(1 + y) = u du = dy
On a I =

R1

R1

1+y

1
y
I = [y log(1 +

dy
0 1+y
Z 1
Z 1
1+y
1
= log 2
dy +
dy
0 1+y
0 1+y
= log 2 [y]10 + [log(1 + y)]10
= 2 log 2 1 0.3863

y)]10

RRR 2
11. Soit I =
z dxdydz.
D
Lespace e tant muni dun rep`ere orthonorme dorigine O, le domaine dintegration
peut e tre represente par lensemble des points situes a` linterieur dune sph`ere de
centre O et de rayon R. La symetrie de revolution autour de laxe Oz sugg`ere le
passage aux coordonnees cylindres, cest-`a-dire le changement : x = r cos ; y =
r sin ; z = z. Le domaine dintegration e tant defini par 0 2, 0 r R,
z 2 + r 2 R2 .


cos r sin 0


D(x,y)
Le Jacobien de cette transformation est D(u,v)
= sin r cos 0 = r
0
0
1
Do`u |J| = |r| = r.
finalement
Z
Z Z Z
2
I=
z rdrddz =

Z
rdr

d
0

R2 r 2

R2 z 2

Z
dz = 2
0

2 2 2 3/2
(R r ) rdr
3
bar-hen.net

325

B. I NT E GRALES MULTIPLES

h
iR
2
4
2
2 5/2
Do`u I = 2

(R

r
)
= 15
R5
3
5
0
RRR
12. Soit I =
zdxdydz.
V
On remarque que x + y + z 0 a 0. Les triplets (x, y, z) du domaine V sont
tels que :
0xayz
0 y a z la condition 12 impliquant a y z 0 y a z
0 z a la condition
impliquant
a
Ra
R12
R ayza z
R a0 zR az
az
On en deduit I = 0 zdz 0 dy 0
dx = 0 zdz 0 (a y z)dy
az Z a

a

Z a
1
1 2 z2
z3 z4
a4
y2
2
=
(az) zdz =
a
2a +
=
zdz (a z)y
2 0
2
2
3
4 0 24
0 2
0
Lespace e tant muni dun rep`ere orthonorme, le domaine dintegration V peut e tre
represente par une pyramide de sommet O.
RRR
13. Soit I =
(x + y + z)dxdydz.
V
Lespace e tant muni dun rep`ere orthonorme Oxyz, le domaine dintegration V
peut e tre represente par lensemble des points situes a` linterieur dun cylindre de
revolution autour de laxe Oz. On a :
Z R
Z R2 x2
Z h
I =
dy
(x + y + z)dz
dx
R2 x2

R2 x2

h

z2
xz + yz +
dy
=
dx
2 h
R2 x2
R
Z R
Z R2 x2
=
dx
2h(x + y)dy
Z

R2 x2


R2 x2
y2
=
2hdx xy +
2 R2 x2
R
Z R

=
2h2x R2 x2 dx
Z

Do`u


R
2 2
2 3/2
I = 2h (R x )
=0
3
R

On aurait pu obtenir le meme resultat en passant en coordonnees cylindriques (voir


exercice 11).
14. On choisit un rep`ere orthonorme Oxyz dont lorigine est le sommet du cone et
Oz laxe de revolution. Soit D lensemble des triplets (x, y, z) correspondant aux
points situes a` linterieur du cone. On designera par : V le volume du cone, sa
masse specifique (constante), M sa masse, I son moment dinertie par rapport a`
Oz, et G(X, Y, Z) son centre de masse. On a :
Z Z Z
Z Z Z
V =
dxdydz =
rdrddz
D

bar-hen.net

326

Solutions

en passant en coordonnees cylindriques.


Le domaine dintegration est defini par {0 2 ; 0 z H ; 0 r
R
z}.
H
h iH
R 2 R H R R z
R H R2 2
R2 z 3
Donc V = 0 d 0 dz 0H rdr = 2 12 0 H
z
dz
=

= 13 R2 H
2
H2
3
0
RRR
1
2
On a M =
dxdydz
=
V
=
R
H
3
D
RRR
RRR
R 2 R H R R z
2
2
On a I =
(x +y )dxdydz =
rr2 drddz = 0 d 0 dz 0H r3 dr =
D

R H R4 4
1
R4 H 5
1
3
4
2
2 41 0 H
4 z dz = 2 H 4 5 = 10 R H = 10 M R
Le cone e tant homog`ene, il est e vident que le centre de masse G(X, Y, Z) est sur
laxe Oz, donc X = Y = 0 (`a verifier). On a :
RRR
RRR
R 2 R H
R Rz

H
Z = M1
zdxdydz
=
zrdrddz
=
d
zdz
rdr =
M i
M 0
D

0
0
h
H
R
2
2
4
H R 3

R
z
2 21 0 H
= 14 M R2 H 2 = 34 H
2 z dz = M H 2
M
4
0
RR
R + 1 2 R + 1 2
1
2
2
15. Il est clair que lon a : J =
e 2 (x +y ) dxdy = e 2 x dx e 2 y dy =
RR
R + 1 2
I I = I 2 en posant I = e 2 u du
R R 1 r2
Or si on passe en coordonnees polaires, on : J =
e 2 rdrd o`u est defini

par : {0 2, r 0}
h
i+
R 2 R + 1 r2
21 r 2
2
2
donc J = 0 d 0 e
rdr = []0 e
= 2 1 = 2
0

R + 1 1 u2
On en deduit I = 2 et donc 2 e 2 du = 1
RR
2
2
2
16. On a S =
dxdy o`u DRest
D
R defini par x + y R . En passant en coordonnees
polaires, on obtient : S =
rdrd o`u est defini par {0 2, r R

h 2 iR
R 2 R R
r
donc S = 0 d 0 rdr = []2
= R2
0
2
0
RRR
2
2
2
2
17. On a : V =
dxdydz o`u D est defini par
D
R R xR + y + z R . En passant
en coordonnees polaires, on obtient : V =
rdrddz o`u est defini par

{0 2, 0 r R, z 2 + r2 R2 }
iR
h
R 2 R R
R R2 r2
R 2 R R
2
2
2 3/2
2
2

donc V = 0 d 0 rdr R2 r2 dz = 0 d 0 r2 R r dr = 2 3 (R r )
=
0

4
R3
3

bar-hen.net