Anda di halaman 1dari 13

Probabilits

Dnombrement et lois discrtes

I - Vocabulaire des probabilits


Une exprience alatoire est une exprience plusieurs issues possibles, dont le rsultat ne peut tre prdit avec
certitude, mais qui doit tre reproductible grce un contexte connu et bien dfini. Par exemple : le jet dun d 6 faces
peut tre reproduit un nombre quelconque de fois sans que les conditions ne changent, lexprience a 6 issues possibles et
son rsultat ne peut tre prdit.
Mais "on ne sait pas rien". Par exemple,
. le d prcdent ne peut produire quun rsultat entier parmi ~1, 6
. et ces 6 rsultats possibles se produiront en moyenne autant de fois les uns que les autres.
Cette dernire formulation est de type statistique : en jetant 600 fois le d, on peut sattendre ce que chacune des 6
valeurs possibles sortent environ 100 fois. Lobjectif du Calcul des Probabilits est de se placer en amont de lexprience
et de quantifier a priori les diffrentes possibilits.
On reprend les notations de la thorie des ensembles, mais avec un vocabulaire diffrent :
. une ventualit ou issue est lun des rsultats possibles de lexprience
. lunivers de lexprience est lensemble de toutes les ventualits
. un vnement A est une partie de ; on notera indiffremment A ou A P()
. lvnement contraire est le complmentaire dans , le contraire dun vnement A est not A
. un vnement lmentaire est un singleton de
. un vnement se ralise lorsque le rsultat de lexprience est lune de ses ventualits ; en consquence :
. lunivers lui-mme est qualifi dvnement certain puisquil contient toutes les ventualits, et
. lensemble vide est appel vnement impossible puisquil ne contient aucune ventualit
. 2 vnements A et B disjoints (i.e. A B = ) sont dits incompatibles puisque, nayant aucune ventualit commune,
ils ne peuvent se raliser simultanment.
. A B signifie que B contient (au moins) toutes les ventualits de A : on dira "A implique B"
. un systme complet dvnements est une partition de en parties toutes non vides, cest--dire une famille dvnements non impossibles, incompatibles 2 2 et dont la runion est .
Une probabilit sur est une application p dfinie de P() dans [0, 1] vrifiant :
. p() = 1
. pour toute famille (Ai )iI dvnements incompatibles (i.e. tels que i , j Ai A j = ),

G X
p Ai =
p(Ai )
iI

iI

(t symbolise la runion disjointe, i.e. la runion de 2 ensembles disjoints ou de 2 vnements incompatibles ; crire A t B
sous-entend en particulier que A B = ; autre notation : A ] B)
Le couple (, p) est appel univers probabilis.
Lexprience du d peut tre reformule avec la terminologie des probabilits :
. = ~1, 6
. k , p({k}) = 1/6.

II - Premires proprits
Une probabilit possde de nombreuses proprits corollaires de sa dfinition :
= 1 p(A) .
= p(A) + p(A)
= 1, soit p(A)
1. A P(), A t A = , donc p(A t A)
= p() = 0
En particulier, p()
G
X
2. Si (Ei )iI est un systme complet dvnements, alors
Ei = et
p(Ei ) = 1
iI

iI

X
G
p(A Ei )
Plus gnralement : A P(), A =
(A Ei ), donc p(A) =
iI

iI

3. (A, B) P()2 , si A B, alors B = (B \ A) t A et donc p(B) = p(B \ A) + p(A), do


A B p(A) p(B) et p(B \ A) = p(B) p(A)
4. (A, B) P()2 , posons A0 = A \ (A B) et B0 = B \ (A B).
Alors A0 t (A B) = A soit p(A) = p(A0 ) + p(A B), donc p(A0 ) = p(A) p(A B).
De mme p(B0 ) = p(B) p(A B).
Mais on a galement A B = A0 t (A B) t B0 , donc p(A B) = p(A0 ) + p(A B) + p(B0 ), soit
p(A B) = p(A) + p(B) p(A B)
et en gnral
p(A B) p(A) + p(B)
avec galit uniquement en cas dvnements incompatibles.
Si lunivers est discret, fini ou dnombrable, i.e. = {i |i I N}, alors une probabilit p dans sera entirement
dtermine par les probabilit de tous les vnements lmentaires p({i })X
pour i I.
p({i }) = 1. Alors :
Ces probabilits lmentaires doivent tre telles que i I, p({i }) > 0 et
iI

A P(), p(A) =

p({i })

i A

Si de plus est fini et si tous les vnements lmentaires ont la mme probabilit , on dit que lexprience est
quiprobable. Alors :
X
p({i }) = .card(), donc =
p() = 1 =
iI

X
1
p({ei }) = .card(A).
, et A P(), p(A) =
card()
A
i

Donc :
A P(), p(A) =

card(A)
card()

Le jet dun d 6 faces constitue une exprience quiprobable univers fini = {1, 2, 3, 4, 5, 6}.
Donc, pour tout vnement A dans cette exprience : p(A) = card(A)/6. Ainsi par exemple :
. p("le rsultat est impair") = p({1, 3, 5}) = 3/6 = 1/2
. p("le rsultat est au moins 5") = p({5, 6}) = 2/6 = 1/3
. p("le rsultat nest pas 3") = p({3}) = 1 p({3}) = 1 1/6 = 5/6

III - Dnombrements
Dans tout ce paragraphe, lunivers est suppos de cardinal fini n > 1. Le dnombrement est lopration qui consiste
connatre le cardinal dun vnement de , et donc sa probabilit si est quiprobable.
1. nombre dvnements de :
Card(P()) = 2n

2. nombre dvnements dun produit cartsien :


Card(A B) = Card(A). Card(B)

et

k N , Card(Ak ) = (Card(A))k

On considre ci-dessous les vnements constitus du choix dun nombre donn p dissues parmi les n issues de .
Ce choix peut se faire avec ou sans remise, et avec ou sans ordre, soit 4 possibilits :
3. choix sans remise mais avec ordre : arrangement.
Pour obtenir un arrangement, on a n possibilits pour la premire issue choisie, puis n 1 pour la deuxime, etc...
Le nombre darrangements de p issues parmi n est donc :
Anp = n(n 1)...(n p + 1) =

n!
(n p)!

Si p = n, on parle dune permutation des lments de . Lensemble des permutations de est not S(), et
Card(S()) = n!

4. choix simultan, donc sans remise ni ordre : combinaison.


Les arrangements sont en fait les permutations dune combinaison, chaque combinaison de p lments donne ainsi
p! arrangements diffrents. Le nombre de combinaisons de p issues parmi n est donc
!
n
Ap
n!
n(n 1)...(n p + 1)
=
= n =
p
p!
p!(n p)!
p!

5. choix avec remise et avec ordre : ces vnements sont au nombre de n p (n possibilits pour chaque lment choisi)
6. choix avec remise mais sans ordre : on admet que ces vnements sont au nombre de np =

n+p1
p

IV - Probabilits conditionnelles et indpendance


Par dfinition, on dit que lvnement "A sachant B", se ralise exactement quand A se ralise alors que B sest dj
ralis, ce qui revient considrer B comme certain et sintresser dsormais lvnement A B : la probabilit de A
sachant B dans est gale celle de lvnement A B relativement au nouvel univers B, ce que lon crit
pB (A) =

p(A B)
p(B)

ou bien

p(A B) = pB (A)p(B)

pB (A) est appele probabilit conditionnelle de "A sachant B", elle est aussi note p(A|B).
Deux vnements A et B seront dits indpendants (et on note A y B) si la ralisation de lun ne dpend pas du fait
que, par ailleurs, on sache si lautre sest ralis ou pas, i.e. si pB (A) = p(A) ou (et cest quivalent) si pA (B) = p(B).
On en dduit que
A y B p(A B) = p(A)p(B)
On observe au passage que les vnements impossible et certain sont trivialement indpendants de tout vnement.
Les 2 formules prcdentes, prsentes ici comme des proprits naturelles, sont le plus souvent donnes comme des
dfinitions.
Exemple dans lexprience quiprobable du d :
1. soit A = "le rsultat est pair" et B = "le rsultat est au moins 4" : p(A) = 3/6 = 1/2 et p(B) = 3/6 = 1/2.
On jette le d, quelquun le regarde et annonce que le rsultat est pair, ce rsultat est donc 2, 4 ou 6, ce qui pour B
ne laisse plus que les possibilits 4 ou 6, donc 2 possibilits parmi 3 : pA (B) = 2/3.
Donc pA (B) , p(B) : A et B ne sont pas indpendants.
Vrifions avec A|B : aprs avoir jet le d, quelquun le regarde et annonce que le rsultat est au moins 4, cest donc
4, 5 ou 6, dont 2 sont pairs, soit 2 possibilits parmi 3 pour A|B : pB (A) = 2/3 , p(A).
On peut galement vrifier que A B = {4, 6}, donc p(A B) = 2/6 , p(A)p(B).
2. soit A = "le rsultat est multiple de 3" et B = "le rsultat est au moins 4" : p(A) = 2/6 = 1/3 et p(B) = 1/2.
On jette le d, quelquun le regarde et annonce que le rsultat est multiple de 3, ce rsultat est donc 3 ou 6, ce qui
pour B ne laisse plus que la possibilit 6, donc 1 possibilit parmi 2 : pA (B) = 1/2.
Donc pA (B) = p(B) : A et B sont indpendants.
Vrifions avec A|B : aprs avoir jet le d, quelquun le regarde et annonce que le rsultat est au moins 4, cest donc
4, 5 ou 6, dont un seul est multiple de 3, soit 1 possibilit parmi 3 pour A|B : pB (A) = 1/3 = p(A).
On peut galement vrifier que A B = {6}, donc p(A B) = 1/6 = p(A)p(B).
Lorsque les vnements A et B ne sont pas indpendants, les probabilits pB (A) et pA (B) sont lies puisque :
p(A B) = pB (A)p(B) = pA (B)p(A)
On obtient par exemple
pA (B) = pB (A)

p(B)
p(A)

Ces formules permettent de dmontrer les thormes qui suivent.

V - Formules classiques
do on dduit que p(A) = p(A B) + p(A B),
cest la
Partons de la dcomposition A = (A B) t (A B),

formule des probabilits totales : p(A) = pB (A).p(B) + pB (A).p( B)


que lon peut gnraliser un systme complet dvnements (Ei )iI puisque p(A) =

p(A Ei ) :

iI

p(A) =

pEi (A).p(Ei )

iI

Et puisque les 2 faons diffrentes dcrire p(A B) donnent pB (A)p(B) = pA (B)p(A), on en dduit la
formule de Bayes : pA (B) =

pB (A)p(B)

pB (A)p(B) + pB (A)p( B)

que lon peut galement gnraliser tout systme complet dvnements (Ei )iI :
pE j (A)p(E j )
j I, pA (E j ) = X
pEi (A)p(Ei )
iI

Enfin, si (Ai )iI est une famille dvnements tels que

iI

Ai , , on crit la rcurrence immdiate :

. p(A1 A2 ) = pA1 (A2 )p(A2 ), donc


. p(A1 A2 A3 ) = pA1 A2 (A3 )p(A1 A2 ) = pA1 A2 (A3 )pA1 (A2 )p(A1 ), dont
. etc... jusqu la

Y
\
pA0i (Ai )
formule des probabilits composes : p Ai = p(A1 )
iI

Cest la formule quutilise la disposition "en arbre".

i>1

avec

A0i =

\
j<i

Aj

VI - Variable alatoire relle discrte


Dans un univers probabilis (, p), on appelle variable alatoire relle (ou v.a.r.) toute application X de vers R.
Si = {i | i I} est fini, X est appele variable alatoire relle discrte (v.a.r.d.) : X() est fini galement, et on notera
X() = {xi | i ~1, n}, les xi tant numrots dans lordre croissant, i.e. i < j xi < x j .
Les vnements de P() peuvent alors tre reformuls et prendre par exemple lune des formes suivantes :
. "X = a" = {i | X(i ) = a}
. "X a" = {i | X(i ) a}
. "X > a" = {i | X(i ) > a} = "X a"
. "a X b" = {i | a X(i ) b}
. etc...
Les variables alatoires ont t inventes pour attribuer un gain un vnement dans un jeu de hasard. Par exemple
avec une course de chevaux :
= {toutes les combinaisons}

combinaison gagnante dans lordre

X = 100 fois la mise

combinaison gagnante dans le dsordre

X = 10 fois la mise

combinaison non gagnante

X=0

La fonction de rpartition de X est la fonction F X dfinie sur R par F X (x) = p(X x).
Sur un univers discret :
x R, F X (x) =

p(X = xi )

xi x

donc une fonction de rpartition est en escalier, croissante, continue sauf en les xi o elle nest continue qu gauche, et
vrifie (rappelons que les xi sont numrots dans lordre croissant) :

x < x1 , F X (x) = 0, en particulier lim F X (x) = 0

x x , F (x) = 1, en particulier lim F (x) = 1


n
X
X

x+

X(), p(X = ) = F X () lim F X (x)


x

VII - Lois de probabilit discrtes


Les lois discrtes permettent de modliser rigoureusement les phnomnes physiques, mais ces phnomnes ont souvent des univers dont le cardinal est si grand quon les remplace par des univers et des lois continus.
Considrons par exemple :
. une temprature alatoire entre 10C et 20C : a priori, il sagit de nimporte quel nombre rel de lintervalle [10, 20].
Mais en pratique, la valeur de cette temprature nest accessible que par lintermdiaire dun instrument de mesure (ici :
un thermomtre), dont la lecture utilise une graduation qui ne permet de fait pas laccs toute valeur relle, mais uniquement des valeurs discrtes : si la prcision de lecture est par exemple au dixime de degr, les seules valeurs accessibles
lexprimentateur seront 10,0C, 10,1C, etc... La loi thorique dune telle mesure est donc une loi uniforme discrte
sur lunivers = ~100, 200/10, dans la pratique on prfrera supposer lunivers continu 0 = [10, 20] et utiliser la loi
uniforme continue adapte ;
. ltude du comportement dune quantit macroscopique de matire, constitue de particules discrtes (les atomes dun
gaz, les ions dun plasma, etc...) : cest la physique statistique, qui sappuie sur la physique quantique pour chaque particule. Cela a conduit des rsultats fondamentaux (description du mouvement brownien par A. Einstein, lien entre lnergie
interne U ou la temprature absolue T et lagitation moyenne des particules, dfinition de lentropie par Boltzmann, etc...)
ou des nigmes toujours sujettes interprtation thorique (interaction dun lectron avec lui-mme dans lexprience
dcrite par Feynmann mais ralise bien plus tard, corrlation de 2 photons polariss co-mis mais distants, etc...).
Le simple bon sens rejoint les mathmatiques grce un raisonnement par labsurde : nous sommes entours de
phnomnes alatoires (i.e. ayant plusieurs rsultats possibles et imprvisibles).
Si lunivers de ces phnomnes tait continu, chaque issue aurait une probabilit nulle et serait donc impossible...
Et pourtant, en permanence, lune des issues de ces vnements alatoires se ralise : lunivers de tous les phnomnes
naturels est donc discret.

Dans ce qui suit, = {xi i ~1, n} est fini (n > 1). Une probabilit sur est une application p : P() [0, 1].
Si on note pi = p({xi }) pour tout i ~1, n, on dfinit ainsi sur une loi de probabilit L = {(xi , pi ) | i ~1, n}.
Cette seule donne
X permet de calculer ensuite la probabilit de tout vnement A puisque A = {xi | i I ~1, n} et

donc p(A) =

pi .

iI

Les lois discrtes les plus usites sont :


1. la loi de Bernoulli (p)
= {a, b}, p({a}) = p ]0, 1[ et p({b}) = q = 1 p ; a et b sont parfois appels succs et chec.
2. la loi uniforme U
Cest celle dun univers quiproble : = {k | k ~1, n} et k ~1, n, p({k }) = 1/n.
Exemple : la loi de X ="le rsultat du jet dun d 6 faces" est U~1,6 .
3. la loi gomtrique G(p)
On rpte k fois une exprience de Bernoulli (p) jusquau premier succs : = N , lvnement {k} consiste en
k 1 checs suivis dun succs, donc
k N , p({k}) = p.(1 p)k1
Cette loi modlise tout phnomne qui "ne vieillit pas", i.e. dont la probabilit de succs ne change pas avec le
temps.
Cest le cas par exemple de la radio-activit, quelle soit naturelle ou artificielle : la probabilit de dsintgration
dun atome donn est invariable dans le temps, lvnement {k} correspond sa dsintgration linstant t = k
(et donc sa non-dsintgration aux instants antrieurs). Cette loi est la base dapplications physiques comme les
horloges atomiques, ltude de la dure de vie (demi-vie) et donc de dangerosit de certains matriaux, etc...
On lapplique galement ltude des files dattente.
Lorsque p est trs petit, on lui substitue une approximation continue : la loi exponentielle.
4. la loi binomiale B(n, p) des tirages successifs avec remise et sans ordre
Elle compte le nombre k de succs lors de la rptition de n variables de Bernoulli (p) identiques et indpendantes :
= ~0, n, et
!
n k
p (1 p)nk
k ~0, n, p({k}) =
k
Les 2 conditions "identiques" et "indpendantes" des expriences de Bernoulli successives correspondent souvent
une approximation de la ralit.
Considrons par exemple un tireur larc. Aprs son premier tir :
. le vent peut changer : les expriences ne sont pas identiques, et/ou
. il peut tenir compte du rsultat pour ajuster le tir suivant : les expriences ne sont pas indpendantes.
Lorsque n est grand, lusage des formules prcdentes peut savrer numriquement inconfortable, notamment avec
des vnements de la forme "X K", o les probabilits peuvent tre la fois nombreuses et (donc) difficiles
valuer avec prcision car trs petites. On lui substitue alors une approximation continue par la loi de Laplace-Gauss
p
(dite "normale") N(np, np(1 p)).
Lorsque de plus p est petit, on peut prfrer une approximation par une loi de Poisson, dtaille plus loin.

5. la loi hypergomtrique H(N, N1 , n) des tirages successifs sans remise et sans ordre
On dispose dune population de N individus subdivise en 2 groupes (selon un certain critre) deffectifs N1 et N2 ,
avec donc N1 + N2 = N.
On choisit simultanment (donc sans remise ni ordre) n individus de cette population (avec n min(N1 , N2 )) et on
compte le nombre k de ces individus qui appartiennent au premier sous-groupe. Donc = ~0, n, et
N  N 
1

k ~0, n, p({k}) =

nk

N 
n

Cette loi modlise rigoureusement le prlvement dun chantillon, dans lequel un mme individu ne peut videmment figurer plusieurs fois ( tirage sans remise).
Mais les coefficients binomiaux peuvent savrer difficiles calculer pour des grandes valeurs de N, N1 et/ou N2 :
on lui substitue alors une approximation par une loi binomiale, dtaille plus loin.
6. la loi de Poisson P()
On considre un vnement se produisant en moyenne fois par unit de temps, cette frquence moyenne tant
invariable dans le temps, k est le nombre de ralisations de lvnement pendant une unit de temps donne :
= N, et on admettra que
k N, p({k}) =

k
e
k!

Exemples dapplication :
. nombre de voitures passant une barrire de page pendant un temps donn ;
. nombre davions dcollant dun aroport pendant un temps donn ;
. nombre de personnes passant lune des caisses dun supermarch pendant un temps donn ;
. nombre de voitures fabriques par jour sur une chane de montage ;
. etc...

quoi sert de connatre la loi dune v.a.r.d. ?


Considrons lexemple des avions qui dcollent dun aroport (loi de Poisson), le paramtre reprsentant le nombre
moyen davions par heure. Si lon a observ que laroport sature (i.e. formation dune file dattente, soit au sol soit en
lair) partir dun nombre davions K par heure, on peut calculer la probabilit p(X K), qui pourra :
. tre interprte comme la probabilit dtre saturation pendant une heure donne,
. servir valuer le nombre dheures de saturation pendant 1 journe ou 1 mois,
. et donc permettre dajuster en amont la valeur de pour contrler ce taux de saturation.
Pour la gestion de la circulation automobile, cela a donn la clbre institution "Bison Fut".

VIII - Paramtres dune loi de probabilit discrte


Pour une variable alatoire relle discrte X, on dfinit :
son esprance mathmatique :
son moment centr dordre s :

E(X) =

n
X

s (X) =

xi .p(X = xi )

i=1
n
X

(xi E(X)) s .p(X = xi )

i=1

2 est appel variance, sa racine carre est lcart-type : V(X) = 2 (X) et (X) =

V(X).

Si E(X) = 0, X est dite centre. Si V(X) = 1, X est dite rduite.


Et si lon dveloppe lexpression de V(X), il vient :
V(X)

n
X

(xi E(X))2 .p(X = xi ) =

i=1

n
X

xi2 .p(X = xi ) 2E(X).

i=1

n 
X

n
X


xi2 2xi .E(X) + E(X)2 .p(X = xi )

i=1

xi .p(X = xi ) + E(X)2

i=1
2

n
X

p(X = xi )

i=1

E(X 2 ) 2E(X).E(X) + E(X) .1

On obtient la formule de Knig-Huyghens :


V(X) = E(X 2 ) E(X)2
qui snonce ainsi : "variance gale moyenne des carrs moins moyenne au carr".
Lesprance mathmatique concide avec la notion statistique de moyenne : cest un paramtre de position, ainsi que
le mode, la mdiane, la mdiale, etc...
La variance quantifie lloignement des issues de la v.a. par rapport son esprance mathmatique : cest un paramtre
de dispersion, ainsi que lcart moyen, lintervalle inter-quartiles, etc...
Enfin, lcart-type na dautre intrt que de fournir un paramtre de dispersion qui sexprime dans la mme ventuelle
unit physique que la variable tudie : si X est exprime en kg, sa variance le sera en kg2 .

Esprance et variance des lois usuelles :

U~1,n
G(p)

E(X)

V(X)

n+1
2
1
p

n2 1
12
1p
p2

B(n, p)

np

np(1 p)

H(N, N1 , n)

n NN1

n NN1

P()

10

N2 Nn
N N1

IX - Approximation dune loi discrte par une autre


Approximation dune loi hypergomtrique H(N, N1 , n) par une loi binomiale
Si N1 et N2 (et donc N) sont (trs) grands par rapport n, alors k ~0, n,
!
N1
N1 (N1 1)...(N1 k + 1) N1 k

=
k!
k!
k
et de mme

!
N2
N2 nk

nk
(n k)!

donc
p({k})

N1 k N2 nk
k! (nk)!
Nn
n!

et

!
Nn
N

n
n!

 N k  N nk
n!
1
2
k!(n k)! N
N

Dans ce cas, on voit que lon peut approcher la loi H(N, N1 , n) par la loi binomiale B(n, N1 /N) :
si n  N, k ~0, n, p({k})

!
n  N1 k 
N1 nk
1
k N
N

Cette approximation est cohrente avec la variance (H et B ont dj la mme esprance) :


VH = np(1 p)

Nn
np(1 p) = VB
N 1 nN

Approximation dune loi binomiale B(n, p) par une loi de Poisson


Posons = np : si est fix, p 0 n +.
On suppose la fois que n est grand et que p est petit (par rapport 1), et soit k un entier fix.
!
!
!
!
n
n(n 1)...(n k + 1) nk
1
2
k1
=
1
1
... 1
.
1.
=
k!
k!
n
n
n
k
Or : si 1 i < k, 1 ni 1.
n+

n
Comme les facteurs 1 ni sont en nombre k 1 fix, leur produit reste quivalent 1 :
k




nk

nk
2. ln (1 p)
= ln (1 n )
= n ln(1 n ) k ln(1 n ).



Or : ln(1 n ) n , donc ln (1 p)nk + nk : (1 p)nk e


n+
n+
n+
n+
!
k
k
k
n k
n
(np)

.pk .e =
e = e
3. bilan : pB ({k}) =
p (1 p)nk
n+ k!
k
k!
k!
p0

n+

nk
k!

Quand la fois n est grand et p petit (de sorte que np conserve une valeur ni trop grande ni trop petite), on peut donc
approcher la loi B(n, p) par la loi de Poisson P(np).
Cette approximation est cohrente avec les esprances et variances : puisque p est petit, VB = np(1 p) np = EB ,
alors que EP = VP = = np.

11

Exercices
Exercice 1 : dmonstrations en lien avec le cours
!
n
X
n
1. dmontrer que n N,
= 2n , en dduire que, si est fini, Card(P()) = 2Card()
k
k=0
2. dmontrer quun univers fini possde autant dvnements de cardinal pair que de cardinal impair
3. uniquement par des dnombrements, dmontrer que
!
!
n
n
=
i. n N, k ~0, n,
k
nk
!
!
!
n
n
n
+
1

+
=
ii. n N , k ~0, n 1,
k
k+1
k+1
! X
!
!
n
a+b
a
b
iii. (formule de Vandermonde) (a, b) N , n ~0, a + b,
=
n
k nk
k=0
2

4. dmontrer les formules donnant lesprance mathmatique et la variance des lois discrtes usuelles
5. dmontrer que, si X est une v.a.r.d., alors (a, b) R2 , E(aX + b) = aE(X) + b et V(aX + b) = a2 V(X)

Exercice 2 : applications directes du cours


1. montrer que A y B A y B A y B A y B
= 1 pB (A), mais quen gnral pB (A) , 1 pB (A)
2. montrer que (A, B) P()2 , pB (A)
3. soient et 0 2 univers finis, f une surjection de sur 0 , et {Ei0 | i I} un systme complet dvnements de 0 .
Montrer que { f 1 (Ei0 ) | i I} constitue un systme complet dvnements de .
4. montrer que la loi gomtrique est sans mmoire, i.e. (k, n) (N )2 , pX>k (X > n + k) = p(X > n)
5. montrer que, si X et X 0 suivent 2 lois de Poisson P() et P(0 ), alors X + X 0 suit la loi P( + 0 ).

Exercice 3 : pour approfondir


! X
!
n
n
X
n
1 n
1. pour n N, calculer
k
et
k
k+1 k
k=0
k=0
2. dans une classe de 60 lves, quelle est la probabilit que (au moins) 2 aient la mme date danniversaire ?
3. dans une population qui comprend autant dhommes que de femmes, on a constat quune affection touche 1 femme
sur 10000 et 4 hommes sur 10000. La mme enqute observe que 70% des femmes affectes sont fumeuses, cette
frquence tant de 90% chez les hommes.
Un journaliste a conclu quune fumeuse a moins de "chances" dtre affecte quun fumeur : quen pensez-vous ?
4. 10% des individus dune population sont porteurs dun gne Z. Un test a t dvelopp pour le dtecter : il est positif
sur 95% des porteurs de Z, et ngatif sur 97% des non-porteurs.
Pour amliorer sa fiabilit, le test est systmatiquement appliqu 2 fois.
Quelle est la probabilit de ne pas tre porteur du gne Z si les 2 rsultats sont ngatifs ?
5. en Lorraine, on a observ, que sil fait beau un jour donn, la probabilit quil fasse beau le lendemain est de 1/2,
alors que, sil pleut, la probabilit quil pleuve le lendemain est de 2/3. On note respectivement un et vn la probabilit
des vnements "il fait beau" et "il pleut" un jour n. Aujourdhui (n = 0), il fait beau.
i. Pour tout entier n, exprimer un+1 et vn+1 en fonction de un et vn
ii. Vrifier que u et v sont arithmtico-gomtriques, et expliciter un et vn en fonction de n
iii. Interprter les limites des suites u et v

12

6. en bourse, un titre peut monter (M), descendre (D) ou rester stable (S). Entre un jour et le lendemain ( ]0, 1/2[),
un titre donn change dtat avec la probabilit , et donc conserve son tat avec la probabilit 12, ce que rsume
le tableau suivant :
n

# n+1

1 2

1 2

1 2

On note respectivement n , n et n les probabilits que le titre monte, descende ou soit stable le jour n. Aujourdhui
(n = 0), le titre est stable.
i. Exprimer n+1 , n+1 et n+1 en fonction de n , n et n
ii. Vrifier que , et sont arithmtico-gomtriques, puis expliciter n , n et n en fonction de n
iii. Interprter leurs limites respectives
7. on lance 3 ds 6 faces et on appelle X le nombre de valeurs distinctes obtenues. Quelle est la loi de X ? Calculer
son esprance et sa variance.
8. dans un bureau de poste, la probabilit pour quune personne entre pendant une minute donne est p = 0, 1.
i. soit X le nombre de personnes qui se prsentent entre 10h et 11h : quelle est la loi suivie par X ?
ii. par quelle loi peut-on lapprocher ?
iii. Calculer p(X 10) selon les 2 modles.
9. un lot de 15 ampoules contient 5 ampoules dfectueuses ; on choisit au hasard 3 des 15 ampoules : quelle est la
probabilit que
i. 1 exactement soit dfectueuse ?
ii. au moins 1 soit dfectueuse ?
iii. les 3 soient dfectueuses ?

Exercice 4 : pour se casser la tte


1. si X est une v.a.r.d, on dfinit sa fonction gnratrice par G X (t) = E(t X ). Dmontrer que E(X) = G0X (1)
2. avec un jeu de foire : on place une mise sur un chiffre de 1 6, puis on lance 3 ds, et on remporte k + 1 fois sa mise
si le chiffre choisi apparat sur k d(s), 1 k 3.
premire vue, il y a 3 1/6 = 1 chance sur 2 quun chiffre choisi sorte sur au moins 1 d, le jeu semble donc
favorable au joueur : est-ce le cas ?
3. avec un jeu tlvis : un gagnant doit choisir son cadeau parmi 3 botes indiscernables, lune contient une grosse
somme dargent et les 2 autres sont vides ; il choisit la bote n2, et le prsentateur lui indique que la bote n1 est
vide : le gagnant doit-il modifer son choix ?

13

Anda mungkin juga menyukai