Anda di halaman 1dari 15

Probabilités et

variables aléatoires

Mme AKDIM
EST d’Essaouira
TM.1
2009-2010
Notion de Probabilité
► Expériences aléatoires: On parle d'expérience aléatoire quand les résultats de
l'expérience dépendent du hasard.
Expérience 1. On jette un dé cubique et on lit le numéro de la face supérieure.
► Ensemble fondamental Ω : ensemble des résultats possibles pour une expérience
donnée (événements certains).
► Événements: Les événements sont les résultats d'une expérience qui peuvent se
produire ou non
Expérience 2. On peut considérer par exemple l'événement A1 « le numéro obtenu
est pair »; ou l'événement A2 « le numéro obtenu est supérieur ou égal à 4 ».
Expérience 3. On peut considérer par exemple l'événement B « la somme des deux
numéros obtenus est égale à 6 ».
Deux événements particuliers.
► L'événement impossible I : n'est jamais réalise (dans l'expérience 1, on pourrait le
définir par « le numéro obtenu est égal à 7 »).
► L'événement certain C: est toujours réalise (dans l'expérience 1, on pourrait le définir
par « le numéro obtenu est un entier compris entre 1 et 6 »).
Événements et ensembles.
► Composition d’événements
Réunion : A U B A ou B « un ou l'autre, ou tous les deux »
Intersection : A ∩ B A et B « A et B se produisent tous les deux »
si A ∩ B = ∅ alors A et B sont disjoints. On dit « deux événements incompatibles »
Complémentarité : A ‾ L'événement contraire de A (celui qui se produit exactement
quand A ne se produit pas) .
► Interprétions des événements comme des ensembles:

l'expérience 2. Ω= {f1, f2, f3, f4, f5, f6} alors

A1 = f2 U f4 U f6 = { 2, 4, 6 }, A2 =f4 U f5 Uf6 = { 4, 5, 6 }, A1 ∩ A2 ≠ ∅
I = ∅, C = Ω, ‾ = ∅,
Ω A‾ 1= {1, 3, 5}

l'expérience 3. Ω = {f1, f2, f3, f4, f5, f6}2 = {(ω1, ω2) / ω1, ω2 entiers compris entre 1 et 6}


alors B = { (1, 5), (2, 4), (3, 3), (4, 2), (5, 1) }, I = ∅ , C = Ω, ∅ = Ω
Approche intuitive des probabilités
Expérience répétée n fois

f1 f2 f3 f4 f5 f6 Total

Fréquences n1 n2 n3 n4 n5 n6 n
Absolues
Fréquences n1/n n2/n n3/n n4/n n5/n n6/n 1
relatives

Freq (A1) = (n2+ n4+ n6)/n.


Freq (A1 U A2) = (n2+ n4+ n5+ n6)/n ≠ Freq(A1) + Freq(A2).

Lorsque n → ∞ la fréquence relative d’un événement tend vers


la probabilité de cet événement
Espace probabilisé fini
Définition 1: Soit E une expérience aléatoire et Ω son univers associé. On appelle
probabilité sur (Ω, P(Ω)) toute application P de l’ensemble des événements P(Ω)
dans [0,1] vérifiant les trois axiomes suivants :
A1 : ∀ A ∈ P(Ω) 0 ≤ P(A) ≤ 1.
A2 : P(Ω) = 1.
A3 : Pour tout A et B tels que A ∩ B= ∅ alors P(A U B) = P(A) + P(B).
Définition 2: Le triplet (Ω, P(Ω), P) est appelé espace de probabilité fini; pour tout
événement A le réel positif P(A) est appelé probabilité de l'événement A. On a:
 P(∅) = 0
 P(A) ≤ 1

 P(A) = 1 - P(A)
 si A ⊂ B alors P(A) ≤ P(B)
 P(A U B) = P(A) + P(B) - P(A ∩ B)

Définition 3: On dit qu'il y a Equiprobabilité lorsque les probabilités de tous les


événements élémentaires sont égales. S’il y a n événements élémentaires chacun
possède une probabilité de 1/n d’apparaître. On dit aussi que P est la probabilité
uniforme on a: Card A
P(A) =
Card Ω
Exemple:P(A1)=P(A2) = 3/6; P(B) = 5/36
Probabilité conditionnelle
Définition
Soit P une probabilité sur un univers Ω et soit A un événement de probabilité non nulle.
La probabilité que l’événement B soit réalisé sachant que A l’est déjà est défini par:

P( B / A ) = P(A ∩ B) . On l’appelle probabilité conditionnelle.

Propriétés P(A)
 P(Ω / A) =1
 P(B υ C /A) = P(B /A) + P(C /A)
 P(A ∩ B) = P(A / B).P(B) = P(B /A).P(A). Cette formule est appelée formule des
probabilités composées.
Théorème de Bayes:
P( A / B ) = P( B /A ) . P(A)

P(B)
Indépendance en probabilité: A et B sont indépendants ssi P(A ∩ B) = P(A).P(B)
Donc on a:
P(A / B) = P(A ∩ B) / P(B) = P(A).P(B) / P(B) = P(A).
De même P(B / A) = P(B).
Exercices
Exercice 1.
Soit une boîte contenant 4 boules blanches et 3 boules noires.
1) Quelle est la probabilité de tirer (sans remise) une boule blanche suivie d'une noire ?
2) Quelle est la probabilité de l’événement « la deuxième boule tirée de l'urne est noire »

Exercice 2.
Deux machines M1 et M2 fabriquent des tiges. Elles produisent respectivement 1/3 et 2/3 de
la production. La machine M1 sort 5% de tiges défectueuses et M2 en sort 6%. Soit
les événements A : « la tige est fabriquée par M1 » B : « la tige est fabriquée par M2 »
».D : « la tige est défectueuse
1) Quelle est la probabilité que la tige soit fabriquée par M1 ?
2) On tire une tige de la production de M1. Quelles est la probabilité qu’elle soit
défectueuse?
3) On tire une tige de la production. Quelle est la probabilité pour qu’elle provienne de M1
et qu’elle soit défectueuse ?
4) On tire une tige de la production. Quelle est la probabilité pour qu’ elle soit
défectueuse ?
5) Quelle est la probabilité qu’une pièce défectueuse ait été fabriquée par M1 ?
Variables Aléatoires discrètes
Définition 1. variable aléatoire :
Soit Ω l’ensemble des événements élémentaires {(ω1, ω2,…, ωn}. faisons correspondre un
nombre X prenant l'une des valeurs {x1, ... , xk , ... , xn }, lorsque l'événement élémentaire
correspondant se réalise. Le nombre X est appelé variable aléatoire.
La formulation (X = xi) exprime qu’on obtient l’éventualité ωi. La quantité P(xi) représente
P(X=xi), la probabilité que la v.a. X prenne la valeur xi . On peut aussi écrire pi. Ces
probabilités sont évidemment telles que :
p1+ ... +pi+... + p n = 1.
Définition 2. Loi de probabilité :
La correspondance (xi , pi) est appelée loi de probabilité (ou distribution de probabilité) de la
variable aléatoire X. La variable aléatoire est dite discrète si les valeurs de X sont
discrètes.
Définition 3. Fonction de répartition :
Soit X une v.a. prenant les valeurs x1, x2, …, x n avec les probabilités p1, p2, …, p n La fonction
de répartition pour une v.a. X est définie par:
F(x) = P(X ≤ x) = Σi≤x pi
Exemple.1
 Si Pile, A gagne 1 dh
 Si Face, A perd 1 dh Ω : { Pile, Face}
 G la variable aléatoire « gain de A » G = +1 si Pile et G = -1 si Face.
 donc P(G = +1) = P(G = -1) = ½ La distribution de G : {(+1, 1/2), (-1, 1/2)}
Loi de Bernouilli
Soit une urne contenant des boules blanches et des boules rouges, ces dernières en
proportion « p ».
On tire, au hasard, une boule dans l'urne, et on considère les deux événements
élémentaires :

 ω1 : la boule est blanche,


 ω2 : la boule est rouge.

Attachons à ω1 et ω2 un nombre X qui prend

 la valeur 0 si ω1 est réalisé,


 la valeur 1 si ω2 est réalisé.

Ce nombre est une variable aléatoire discrète qui est appelée variable de Bernouilli de
paramètre p, notée Bernouilli (p), dont la loi de probabilité est donnée par les deux
probabilités :

P(X = 1) = p et P(X = 0) = (1 – p)

qui ont bien une somme égale à 1.


Loi binomiale
 La loi binomiale découle, elle aussi, de la prise en considération du modèle d'une urne.
Considérant une urne contenant des boules rouges et des boules blanches, les premières
en proportion « p », on convient de prélever n boules et on s'intéresse à la variable
aléatoire X : nombre de boules rouges parmi les n boules tirées. On cherche la probabilité
P(X=k).
 On prélève une boule, puis une autre après remise de la première dans l'urne.
 « p » est la probabilité de prélever une boule rouge.
 « 1 - p » est la probabilité de prélever une boule blanche.

donc la probabilité de l'ensemble de l'échantillon est p k(1 – p) n-k .


 Le résultat obtenu se réfère arbitrairement à un certain ordre d'arrivée des boules rouges
et blanches, or on n'est pas intéressé par la probabilité d'une combinaison particulière de k
boules rouges parmi les n boules, mais par la probabilité de l'ensemble des Cnk
combinaisons possibles. Cette probabilité s'écrit :
P(X=k) = Cnk pk(1 – p)n-k .
 Une v.a. X suit une loi binomiale de paramètres n et p ssi ∀ k ∈ {1…,n} on a :

P(X=k) = C nk p k(1 – p) n-k .

 On utilise une loi binomiale chaque fois qu’une même expérience à 2 éventualités. Elle est
notée B(n,p).
Loi de Poisson
A chaque couple de valeurs n et p correspond, dans le cas d'un tirage non
exhaustif, une loi binomiale B(n,p). Pour des raisons de commodité de calcul,
les statisticiens se sont efforcés de trouver des lois approchées plus facile à
utiliser. La loi de Poisson est l'une d'elles. Elle correspond aux hypothèses :
 n grand

 p petit

le produit n . p = m étant fini. On peut écrire dans ces conditions : X suit une loi de
Poisson de paramètre m (m > 0) ssi :
mk
P(X = k) = e
-m
k!

La loi de Poisson présente donc l'intérêt de simplifier les calculs. En pratique, on


utiliser l'approximation de Poisson si n ≥ 50 et p ≤ 0.01.
Variables Aléatoires continues
Définition 1. Variable aléatoire continue:
une v.a. continue est une v.a. qui prend des valeurs liées les unes aux autres de façon
continue, ceci veut dire que chaque valeur particulière est impossible à atteindre, dans ce
cas seuls les intervalles qui peuvent avoir des probabilités strictement positives.
Exemple: Si l’on note par X la taille d’un étudiant, on sait qu’il est impossible que X soit égale
à 1,70 m, mais il se peut qu’on obtienne 1,68 m < X < 1,80 m.
Définition 2. Fonction de densité:
Le comportement d’une v.a. X continue sera décrit à l’aide d’une fonction f(x) dite fonction de
densité, telle que la probabilité que X prenne une valeur entre les bornes a et b soit
déterminée par la surface entre a et b sous le graphique de f(x):
P(a ≤ X ≤ b) = ∫ab f (x) dx
 f(x) ≥ 0 pour tout x.

 La surface totale sous le graphique de f(x) doit être égale à 1.

Définition 3. Fonction de répartition:


A toute fonction de densité est associée une fonction de répartition, et ces deux fonctions
sont liées de la façon suivante:
F(x) = ∫-∞ x f (t) dt = P(X ≤ x), réciproquement f(x)= =F’(x)
On a alors: P(a ≤ X ≤ b) = F(b) – F(a) = ∫ab f (x) dx
dF(x)
dx
Loi Normale (Gauss)
Une v.a. X est dite de loi normale si sa fonction de densité est
f(x) = 1 μ)2 / 2σ2
σ √2π e -(x-

Ou μ et σ2 désignent l’espérance et la variance de X. On note X ~ N ( μ , σ ).

X - μX
Z= σX ~ N ( 0 , 1 ) dite Loi Normale Centrée Réduite.

• Fonction de densité symétrique


par rapport à μ
• Fonction de densité passe par un
maximum pour x = μ

→ utilisation de la table de la Loi normale centrée réduite:


Exemple: p(z ≤ 1,67) = 0,95254, p(z ≤ -1,67) = 1- p(z ≤ 1,67) = 1- 0,95254
Caractéristique de Position
1) Espérance ou Moyenne
 Cas d’une variable discrète
soit X une v.a. prenant les valeurs x1, x2, …, x n avec les probabilités p1, p2, …, p n, alors la
moyenne de X appelée aussi espérance mathématique de X le nombre:
μX = E(X) = Σ pi xi
 Cas d’une variable continue:
Si X v.a. continue ayant pour fonction de densité f(x) alors μX = E(X) = ∫-∞ +∞ x f (x) dx
2) Variance et écart-type
 Cas d’une variable discrète
On appelle variance de X le nombre: Var (X) = E(X2) - (E(X))2 = Σ pi xi2 - (E(X))2
 Cas d’une variable continue: Var (X) = E(X2) - (E(X))2 = ∫-∞ +∞ (x - μX )2 f (x) dx
L’écart - type est : σX = √ V(X)
Propriétés
Soit a et b des constantes alors :
 E(a X + b) = a E(X) + b
 Var (a X+ b) = a2 Var (X)
3) Variable aléatoire centrée réduite
une v.a. est dite centrée si μX = 0 et dite réduite si σX = 1.
Une variable centrée réduite est dite standardisée. X - μX
Soit une v.a. X de moyenne μX et d’écart- type σX , alors la variable Z = σX
est standardisée
Exercices
Exercice 1. Calculer l’espérance et la variance de la Loi de Bernouilli

Exercice 2. On lance un dé au hasard; il vaut X. Le dé marqué as, roi, dame, valet, dix et
neuf. L’as rapporte 10 F Le roi et la dame 6 F Le valet 5 F le 10 et le 9 rien.
1) Quelles sont les valeurs possibles pour la variable aléatoire X ainsi que les
probabilités de chacune de ces valeurs?
2) Donner la loi de probabilité dans un tableau.
3) Présenter la fonction de répartition F dans une figure.
4) Calculer l’espérance, la variance et l’écart - type.

Exercice 3. Une v.a. X est dite de loi uniforme sur [a,b] si sa fonction de densité est de la
forme: f(x) = 1 / (b-a) si a ≤ x ≤ b
= 0 ailleurs
1) Calculer sa fonction de répartition
2) Calculer l’espérance, la variance et l’écart - type.

Exercice 4. La variable aléatoire X suit la loi normale N (12 ; 4). Calculer les probabilités
suivantes :
P ( X ≤ 15 ) ; P ( X ≥ 18 ) ; P ( X ≥ 7 ) ; P ( X ≤ 9 ) ; P(8 ≤ X ≤ 17 ).

Anda mungkin juga menyukai