Anda di halaman 1dari 46

Statistiques pour l'ingnieur

Pierre L. Douillet Le prsent document est un cours de stats-probas plutt qu'un trait de probas-stats. Un cours est destin des tudiants qui abordent le domaine, et le principe d'ordonnancement est alors d'aller du facile vers le difficile. Un trait est destin d'anciens tudiants, qui veulent rorganiser les connaissances acquises et en vrifier la cohrence interne. Le principe d'ordonnancement est alors d'aller des fondements vers les consquences. Il se trouve que les fondements sont toujours plus difficiles que le reste. Voila pourquoi le document, destin une premire prsentation du domaine stats-probas, suit un axe Pascal-Bayes et non un axe FehlerKolmogorov. Cette prsentation revient grosso-modo suivre l'ordre historique de dveloppement du domaine.

Contents 1. Distributions statistiques univaries o 1.1 Gnralits sur les statistiques o 1.2 Histogramme o 1.3 Quelques commandes Scilab o 1.4 Paramtres de dispersion o 1.5 Souvenirs, souvenirs o 1.6 Moyenne o 1.7 Variance o 1.8 Exemples

2. Distributions bivaries o 2.1 Description du problme o 2.2 Indpendance complte o 2.3 Droite de rgression o 2.4 Indpendance linaire o 2.5 Exercices sur le web o 2.6 Un exemple (DO) o 2.7 Rgression affine (donnes groupes)

3. Probabilits o 3.1 Probabilits o 3.2 Probabilits conditionnelles o 3.3 Variables alatoires o 3.4 Dans le cas des variables discrtes infinies

4. Variables alatoires discrtes


o o o o o o o

4.1 Loi uniforme sur . 4.2 Loi de Bernoulli. 4.3 Somme de variables indpendantes 4.4 Sries gnratrices 4.5 Loi binomiale 4.6 Loi hypergomtrique 4.7 Exercices

5. Variables densit o 5.1 Principes gnraux o 5.2 Loi uniforme o 5.3 Variables positives o 5.4 Formules de convolutions o 5.5 Loi gamma

6. Les lois limites de la loi binomiale o 6.1 Les deux types de clientelle
o o o o o

6.2 La loi de Poisson, loi limite pour 6.3 La loi de Gauss, loi binomiale limite pour 6.4 Proprits lmentaires 6.5 Thorme central limite 6.6 La loi lognormale

A. Complments o A.1 Formules de Morgan o A.2 Loi gomtrique o A.3 Passage de la loi binomiale la loi de Gauss

B. Tableau de contingence o B.1 Distribution bivarie, distributions " la marge" o B.2 Mthode de calcul

C. Deux lois utiles pour les processus d'attente o C.1 Loi de Poisson o C.2 Loi exponentielle o C.3 Inter-arrives exponentielles

1. Distributions statistiques univaries


bsections

1.1 Gnralits sur les statistiques 1.2 Histogramme 1.3 Quelques commandes Scilab 1.4 Paramtres de dispersion 1.5 Souvenirs, souvenirs 1.6 Moyenne 1.7 Variance 1.8 Exemples

1.1 Gnralits sur les statistiques


L'objectif des stats-probas est d'examiner les relations entre des connaissances portant sur un "gros ensemble" (appel population ou univers) et des connaissances portant sur un "petit sous-ensemble" (appel chantillon). Les statistiques s'occupent d'ensembles finis (on appelle la taille de , et la taille de ), et partent de l'chantillon (qui a dj t tudi) pour en tirer des conclusions sur la population globale. Les probabilits partent de proprits supposes de la population globale, pour en tirer des conclusions concernant un chantillon venir. Les probabilits s'autorisent en outre l'tude de populations infinies... et il convient alors de grer les ennuis qui en rsultent. Caractre statistique qualitatif ou quantitatif et alors discret ou continu.

On remarquera qu'une mesure (physique) consiste non pas en un nombre (cette table fait un mtre) mais en un intervalle, par exemple (pour une mesure en centimtres) . Une mesure introduit quasi invitablement une discrtisation. Univari veut dire : on recense un seul caractre.

1.2 Histogramme
Definition 1.2.1 Histogramme. On porte le caractre en abscisse et l'effectif en surface. Definition 1.2.2 DO (distribution observe). On reporte le nombre d'occurences de chaque valeur dans un tableau. Definition 1.2.3 DG (distribution groupe). On fractionne l'ensemble des valeurs en intervalles disjoints (classes). Si "on groupe trop", on perd toute information. Si on "ne groupe pas assez", l'information utile est noye sous le bruit (les informations inutiles).

Notation 1.2.4 Nous utiliserons

pour les valeurs,

pour les classes,

pour le pour l'effectif

reprsentant de la classe (souvent le milieu),

pour les effectifs,

total, pour les frquences. Proposition 1.2.5 Les frquences vrifient la relation : (1.1)

Remark 1.2.6 Il est prfrable de choisir des sparations qui ne soient pas des valeurs atteintes, cela vite de discutailler sur la forme des intervalles. Maple 1.2.7 Une "liste statistique" comportant individus dans l'intervalle et individus valant s'crit : [Weight(a..b, x), Weight(c, y) ] Maple 1.2.8 Pour regrouper ensemble les valeurs exactement gales d'une liste statistique donne, on utilise la commande tally. Pour dcouper en classes une liste statistique donne, on commence par construire une liste d'intervalles lc puis on utilise la commande
tallyinto(li, lc) ; Example 1.2.9 La TAB.

1.1 donne le relev des temps ncessaires au piqrage de carpettes dans un atelier de fabrication de tapis. On remarquera que le groupement des dures par intervalles de minutes est un artifice destin produire classes. Un groupement par intervalles de minutes ferait apparatre classes. L'histogramme associ est donn FIG. 1.1.

TAB. 1.1: Distribution des temps de piqrage.

FIG. 1.1: Histogramme des temps (aire totale =1). Maple 1.2.10 Par dfaut, la commande histo(li) trace un histogramme en frquences (aire totale =1). Pour obtenir un histogramme en effectifs (aire=1 pour un individu, cf FIG. 1.2), utiliser histo(li, area=count) ;

FIG. 1.2: Histogramme des temps (aire =1 par individu).

1.3 Quelques commandes Scilab


[Egalit] 1==1 rpond T et 1==2 rpond F car il s'agit d'un test d'galit. [Nommage] x=1==2 rpond x=F : dans la boite nomme x on stocke la valeur de 1==2 c'est dire F (affectation) [Taille] size(4) rpond 1 1 car le nombre 4 est en fait une matrice de taille [Vecteurs] il n'y a pas de vecteurs, mais des matrices filiformes ( deux dimensions) [Matrices] constructeur a=[1,2;3,4]. Accs "matriciel" et accs "vectoriel" (colonne de colonnes). Pas de produit sans concordance dimensionnelle. [Fichiers] mopen, mgetline, mclose [Strings] msscanf, sprintf [Histo] histplot

Exercise 1.3.1 Examiner ce que donne 1/m lorsque la matrice m n'est pas carre. Exercise 1.3.2 Lire le fichier nist-ceramic.txt, extrait de Natrella (1963). Rcuprer la dernire colonne. En tracer l'histogramme. Mettre un titre. Exercise 1.3.3 Que donne curax=gca() ? Que donne curh=curax.children(1).children ? Comment obtenir des barres vertes entoures de bleu?

1.4 Paramtres de dispersion


Definition 1.4.1 Pour une distribution univarie, on se donne pour objectif de ne garder que deux nombres, l'un dcrivant "le centre" de la distribution et l'autre son tendue. Ces deux nombres portent le nom collectif de "paramtres de dispersion". Comme pour un triangle, il y a plusieurs faons d'estimer quel est le centre...

1.5 Souvenirs, souvenirs


Du temps o les calculs se faisaient la main, nous sont parvenues diverses mthodes "sans calcul". Remark 1.5.1 Dfaut irrparable : ces quantits ne sont pas associatives . Deuxime dfaut : ces "mthodes sans calcul" ncessitent en fait une certaine dose de "calcul mental"... Definition 1.5.2 La mdiane est la valeur associe la place du milieu. Le nombre d'individus placs avant la valeur donne est gal au nombre d'individus placs aprs. Definition 1.5.3 Les quartiles sont les valeurs associes aux places , et . Le 2-me quartile est donc la mdiane. L'intervalle interquartile est l'intervalle sparant le premier et le troisime quartile. Maple 1.5.4 Le quartile numro de la liste li s'obtient par la commande
stats[describe, quartile[k]](li) ;

Definition 1.5.5 Le mode est la valeur associe la plus grande frquence. Exercise 1.5.6 Calculer mdiane, quartiles et mode associs la distribution de la FIG. 1.1. Definition 1.5.7 Effectifs cumuls croissants : on place les points .

Effectifs cumuls dcroissants : on place les points . On obtient la FIG. 1.3. Remark 1.5.8 A nouveau : lorsque l'on regroupe les donnes dans des classes, il est intressant de choisir pour bornes des valeurs qui ne sont pas atteintes, de faon ne pas avoir grer ce qui se passe aux bornes. Exercise 1.5.9 Tracer les deux polygones des effectifs cumuls. Les utiliser pour retrouver la mdiane.

FIG. 1.3: Cumuls croissant et dcroissant.

1.6 Moyenne
Definition 1.6.1 La moyenne d'une liste statistique s'obtient par somme pondre (barycentre). On a donc

Dans la partie "probas" du domaine stats/probas, cette mme quantit se note (esprance de la variable ). Maple 1.6.2 La moyenne s'obtient par l'oprateur moy, que l'on dfinit par la commande :
macro(moy=stats[describe, mean]) ;

Exercise 1.6.3 Calculer la moyenne de la distribution ci-dessus. Proposition 1.6.4 L'esprance est un oprateur linaire : Exercise 1.6.5 Reprendre le calcul ci-dessus en utilisant un changement de variable. Definition 1.6.6 La quantit s'appelle la variable centre, ou encore l'cart la .

moyenne. La quantit s'appelle l'cart par rapport la valeur Proposition 1.6.7 La moyenne des carts la moyenne est nulle.

1.7 Variance
Proposition 1.7.1 Formule des "degrs de libert".

Le rang d'une forme quadratique est le nombre de carrs de formes linaires indpendantes ncessaires pour constituer la forme quadratique considre. On voit que le choix minimise cette expression, et fait passer le nombre de carrs de . au lieu

Definition 1.7.2 Variance : on pose . Maple 1.7.3 La variance s'obtient par l'oprateur var, que l'on dfinit par la commande :
macro(var=stats[describe, variance]) ; Scilab 1.7.4 La commande Scilab mean donne

la moyenne, et la commande Scilab variance

ne donne pas la variance. Exercise 1.7.5 Calculer la variance de la distribution donne en exemple. Proposition 1.7.6 La variance vrifie les formules : Exercise 1.7.7 Reprendre le calcul ci-dessus en utilisant un changement de variable. Proposition 1.7.8 (Koenig) Formule de calcul : (1.2)

Scilab 1.7.9 Lorsque est une matrice contenant une donne par case, la variance de ces donnes vaut : mean(M.*M)-mean(M)^ 2 Remark 1.7.10 En attendant le cours sur les intervalles de confiance, il est convenu de reprsenter la dispersion d'une population en reportant une fois l'cart-type de part et d'autre de la moyenne (FIG. 1.4).

FIG. 1.4: Reprsentation des paramtres de dispersion Proposition 1.7.11 (Huygens) Pour toute constante : (1.3)

Exercise 1.7.12 Regroupement de donnes. On suppose connues les moyennes et les variances de deux populations disjointes et . Donner la moyenne et la variance de

. Remark 1.7.13 Cet Exercice 1.7.12 est sorti chacun des DS des annes prcdentes. Definition 1.7.14 L'cart-type est dfini par . Est de mme dimension que . Le calcul de moyenne des carrs augmente le poids des grands carts. Definition 1.7.15 La variable rduite associe une variable est dfinie par :

Cette quantit est une variable sans dimensions, concept essentiel pour pouvoir comparer des populations ayant des natures diffrentes.

1.8 Exemples
Calculer les paramtres de dispersion et tracer les graphes : Exercise 1.8.1 La TAB. 1.2 donne la distribution des longueurs de 300 fibres l'appareil WIRA. TAB. 1.2: Appareil WIRA

Exercise 1.8.2 Le tableau ci-dessous donne la liste des annes de naissance de chacun des 32 membres d'un atelier. Entreprendre le traitement statistique de ces donnes. Recommencer en groupant les dates de naissance par classes de quatre annes, en commenant par l'anne 1940. Comparer les rsultats.

Exercise 1.8.3 Le tableau ci-dessous donne la rpartition des salaris d'une certaine entreprise en fonction de leur salaire. Moyenne, cart-type ?

2. Distributions bivaries

2.1 Description du problme 2.2 Indpendance complte 2.3 Droite de rgression 2.4 Indpendance linaire 2.5 Exercices sur le web 2.6 Un exemple (DO) 2.7 Rgression affine (donnes groupes)

2.1 Description du problme


Definition 2.1.1 Distribution bivarie. On recense deux caractres. Les mesures sont donc formes de couples . Remark 2.1.2 Les stats-proba recherchent d'ventuelles corrlations entre les valeurs prises par les grandeurs et . Lorsqu'une telle corrlation existe, elle ne suffit pas prouver une causalit. Par ailleurs, il peut exister une relation de causalit sans que telle ou telle technique de corrlation puisse rendre apparente cette causalit. Definition 2.1.3 (DO) La distribution observe est la srie brute des donnes recenses. Scilab 2.1.4 Une DO reprsente par deux vecteurs et de mme taille, les valeurs tant apparies par rang. Definition 2.1.5 (DG) En regroupe les donnes de chaque sorte (les et les ) en classes, on obtient une nouvelle distribution (elle dpend des groupements choisis). Et on prsente le tout dans un tableau, le tableau de contingence (cf TAB. 2.1).

TAB. 2.1: Tableau de contingence : un exemple

Remark 2.1.6 Ce qui concernait l'utilisation du tableau de contingence pour le calcul manuel a t relgu en Annexe anx:Tableau-de-contingence. Scilab 2.1.7 Une DG se reprsente par les vecteurs et des centres de classes et par la matrice des frquences. Le vecteur donne les titres des lignes et est donc en colonne, tandis que le vecteur donne les titres des colonnes et est donc en ligne. Definition 2.1.8 Distribution marginale. S'appelle ainsi parce qu'on note les valeurs correspondantes dans les marges du tableau. Il s'agit de la distribution de seul (en oubliant

les valeurs de ), ou de la distribution de seul. Les effectifs marginaux se notent : et . Les frquences marginales sont et

. Scilab 2.1.9 On obtient les effectifs marginaux par :


fx=sum(fre,'c'), fy=sum(fre,'r')

fx est une matrice colonne et fy une matrice ligne.

2.2 Indpendance complte


Caveat : ne pas confondre avec l'indpendance linaire (qui sera dfinie par la suite). Definition 2.2.1 Distribution conditionnelle. La distribution d'une modalit conditionne par une valeur effectivement atteinte par l'autre modalit est la distribution de la sous-population correspondante. Ainsi, la distribution en frquence de conditionne par . Celle conditionne par est . Definition 2.2.2 Indpendance complte. On dit que et y sont compltement indpendantes lorsque toutes les distributions en frquence de conditionnes par les diverses valeurs de sont gales entre elles. Exercise 2.2.3 Montrer que ces distributions en frquence sont alors gales la distribution marginale. Exercise 2.2.4 Montrer que l'indpendance complte est une relation symtrique en et . Exercise 2.2.5 Montrer que, s'il y a indpendance complte, on peut reconstituer le tableau de contingence partir des distributions marginales. Theorem 2.2.6 Si les deux variables et sont compltement indpendantes, on a alors est

Preuve. Soient On a

et

(2.1)

en posant et (variables centres). Definition 2.2.7 On appelle covariance de et de la quantit : (2.2)

Proposition 2.2.8 Dans tous les cas,

Preuve. Calcul direct ou ... polarisation d'une forme quadratique. Maple 2.2.9 .La covariance s'obtient par l'oprateur cov, que l'on dfinit par la commande :
with(simul) ; macro(cov=xcov) ;

Prendre garde au fait que le programme "stats[covariance]", fourni par Waterloo est faux (mal programm). Cela se voit au fait que stats[covariance](li,li) ne redonne pas var(li). Scilab 2.2.10 La covariance s'obtient par covar(x,y,fre), tandis que les moyennes pondres s'obtiennent par meanf(x,fx).

2.3 Droite de rgression


Definition 2.3.1 Etant donn un ensemble de couples affine de la variable par rapport la variable la droite , on appelle droite de rgression conduisant la

valeur minimale de l'expression : de . Theorem 2.3.2 La droite de rgression (de

. Ce minimum s'appelle la variance rduite par rapport ) est donne par : (2.3)

et le facteur de rduction de variance FRV par :

Remark 2.3.3 On remarquera la disparition de (lorsque n'est pas raliste). Preuve. Posons on a

qui n'a pas forcment de signification

. Si l'on considre, pour

fix, la nouvelle variable

. La Proposition 1.7.11 (Huygens) nous donne . Pour une direction donne, la meilleure droite est donc celle

qui passe par le point moyen Considrons les variables centres

. et . On a alors

On reconnait alors un trinome en la variable

et la conclusion suit.

Remark 2.3.4 Le est une mesure de la qualit de l'approximation. Plus il est lev, meilleure est l'approximation. Proposition 2.3.5 L'cart quadratique moyen entre un nuage de points est donn par : et la droite

Remark 2.3.6 On peut faire la mme chose dans le sens vers . Cela donne le mme coefficient de corrlation, mais les droites de tendance ne sont pas les mmes. Exercise 2.3.7 Quelle est la valeur du pour ? Quelle valeur de conduit un gal ?

2.4 Indpendance linaire


Caveat : ne pas confondre avec indpendance complte. Theorem 2.4.1 Sur l'espace des variables, la moyenne est une forme linaire. Sur l'espace des variables centres, la variance est une forme quadratique, dont la covariance est la polarise. On a donc :

Definition 2.4.2 On dit que deux variables

sont linairement indpendantes lorsque . . Ce coefficient est une . . Le caractre et sont (presque) linairement et

. Cette dfinition quivaut donc Definition 2.4.3 Coefficient de corrlation. On pose grandeur sans dimensions (c'est dire un nombre). Exercise 2.4.4 Montrer est toujours compris dans l'intervalle

Example 2.4.5 Dans l'exemple ci-dessus, on a intervient dans indpendants. de la variance de : les caractres couples dfinis par

Exercise 2.4.6 On considre les par

. Poser les calculs et conclure.

2.5 Exercices sur le web


www.obs-vlfr.fr/~enseigne/maitp6/poly_exo/corrregr.htm : Matrise BPE (upmc)

2.6 Un exemple (DO)


Exercise 2.6.1 On considre la srie de points :

1. Les sommes valent :

2. Les paramtres de dispersion valent

3. Le facteur de rduction de variance et l'cart-type rsiduel valent :

et
4. La droite de rgression est

FIG. 2.1: Exemple de rgression affine Scilab 2.6.2 n=size(x,'*') ; mx=mean(xx) ; vx=covar(xx,xx,eye(n,n)) ; Exercise 2.6.3 Recommencer la srie :

Exercise 2.6.4 De mme avec On recommence avec

2.7 Rgression affine (donnes groupes)

Exercise 2.7.1 Traiter la distribution groupe : 1. Description Maple du problme


N:= Matrix([[9, 6, 2, 1, K], [6, 7, 5, 3, 2], [2, 3, 5, 6, 4], [K, 3, 2, 5, 9]]) ; X:= Transpose(< 1,2,3,5,6 >) ; Y:= < 5,4,3,1 > ; visu:= < < '', map(Z -> ''(Z), Y) > | < map(Z -> ''(Z), X), N > > ;

2. Calcul des paramtres de dispersion (utilisant les macros nbr, moy, var, cov).
yy,xx:= Dimension(N) : datx:= [seq(seq(Weight(X[j], N[i,j]), i=1..yy),j=1..xx)] : daty:= [seq(seq(Weight(Y[i], N[i,j]), i=1..yy),j=1..xx)] : datx, daty:= remove(has,datx,K), remove(has,daty,K) : nn:= nbr(datx) ; mx, my:= moy(datx), moy(daty) ; vx, vxy, vy:= var(datx), cov(datx, daty), var(daty); FRV:=1/(1-vxy^2/vx/vy) ; evalf(%) ;

3. Droite de rgression et trac (FIG. 2.2).


regr:= my+(x-mx)*vxy/vx ; pl1:=plot({regr+sqrt(vy/FRV), regr-sqrt(vy/FRV)}, x=0..7, color=blue): pl2:= plot({my+sqrt(vy), my-sqrt(vy)}, x=0..7, color=red) : stats[statplots,scatterplot](datx, daty, format=sunflower, color=black):

displayg(pl2, pl1, yshift(-0.5, xshift(-0.5, %)), scaling=constrained, labels=['',''], tickmarks=[[1,6],[1,5]]) ;

FIG. 2.2: Distribution groupe : marguerites et bande de confiance. Exercise 2.7.2 La distribution de la TAB. 2.2 concerne 50 points . Dterminer la meilleure droite de rgression affine et le Illustration graphique. avec ainsi obtenu. et

TAB. 2.2: Les donnes de Exercice 2.7.2.

3. Probabilits

3.1 Probabilits 3.2 Probabilits conditionnelles 3.3 Variables alatoires 3.4 Dans le cas des variables discrtes infinies

3.1 Probabilits
Definition 3.1.1 Univers "ensemble des rsultats possibles". Definition 3.1.2 Dans le cas fini, un vnement est une partie (quelconque) de . Dans le cas infini, c'est un peu plus compliqu. Dans tous les cas, l'ensemble des vnements est clos par complmentarit, intersection et runion finie. Definition 3.1.3 Un vnement lmentaire est un vnement qui s'crit avec .

Definition 3.1.4 Evnements incompatibles est . Definition 3.1.5 Une probabilit (ou encore : une mesure de probabilit) est une fonction vrifiant :

Dans le cas o

est fini, cela suffit. Sinon, cela est un peu plus compliqu. , alors

Proposition 3.1.6 Si l'on utilise la notation

Exercise 3.1.7 Montrer que cette formule ne peut absolument pas s'appliquer au cas infini. Proposition 3.1.8 En particulier, . .

Proposition 3.1.9 Dans le cas d'un univers fini de rsultats quiprobables, . Exercise 3.1.10 Vous faites partie d'un groupe de personnes. Un sous-groupe de quatre personnes est choisi de faon quiprobable. Calculer, de plusieurs faons, la probabilit pour que vous soyez membre du sous-groupe choisi. Exercise 3.1.11 Le problme du chevalier de Mr. Dterminer quel est l'vnement le plus probable : obtenir au moins un as en lanant 4 fois un d, ou bien obtenir au moins un double as en lanant 24 fois deux ds ?

3.2 Probabilits conditionnelles

Definition 3.2.1 Probabilit de

quand

a eu lieu. Lorsque

, on pose :

Exercise 3.2.2 Vrifier que Definition 3.2.3 Deux vnements

est une probabilit sur

sont (compltement) indpendants veut dire

Exercise 3.2.4 On lance un d :

. On appelle "pair" l'vnement

et "passe" l'vnement . Quelle est la probabilit (ordinaire) de "passe", sa probabilit sachant que pair a eu lieu, sa probabilit sachant que pair n'a pas eu lieu. Definition 3.2.5 On appelle partition de une famille de parties de telle que :

En probabilits, on est plutt intress par une "bonne partition", vrifiant la condition plus restrictive :

Proposition 3.2.6 Formule des "probabilits totales" : si de alors

est une bonne partition

Exercise 3.2.7 Dmontrer cette formule des probabilits totales. Proposition 3.2.8 (Bayes) Lorsque et , on a la formule :

Example 3.2.9 On lance deux ds et l'on cherche la probabilit de faire au moins un as. Comparons plusieurs mthodes.
1. Utilisation du complmentaire. Soit

en appelant (par exemple) l'vnement "pas d'as la premire fois, un as la deuxime fois". Alors l'vnement . Son complmentaire est est le produit de . Par par

favorable est

indpendance des deux lancers, la probabilit de . Soit

2. Disjonction des cas. Par la mthode prcdente, on dtermine les probabilits de

chacun des vnements lmentaires (deux deux incompatibles) composant les additionne. On obtient :

et on

3. Probabilits totales. Soient

et les vnements : l'as est sorti (resp. n'est pas sorti) au premier lancer. Ces vnements forment une partition de , ce que l'on peut finir de rendre vident en les crivant sous la forme . On a alors et et . Et donc

4. Formule de la runion. Soit

l'vnement : l'as est sorti au deuxime lancer. On a

. En additionnant les probabilits, on compterait deux fois l'vnement "l'as est sorti chaque fois". Et donc

Exercise 3.2.10 Une urne contient trois boules blanches et deux noires, et on tire successivement deux boules. boule est blanche", est "tirer deux boules de mme couleur", est "la premire

est "la premire boule est noire". On a . Et de plus

. Exercise 3.2.11 Vous faites partie d'un groupe de personnes. Un sous-groupe de quatre personnes est choisi de faon quiprobable. Utiliser les probabilits conditionnelles pour retrouver la probabilit pour que vous soyez membre du sous-groupe choisi. Exercise 3.2.12 Peut-on dterminer que deux vnements ? et sachant que et

? Et si l'on rajoute l'hypothse d'indpendance (complte) entre les

Exercise 3.2.13 On examine des pices de tissu. Lorsque la pice est conforme au cahier des charges, sa probabilit d'acceptation est de probabilit de rejet est de total. Dterminer la proportion . Lorsque la pice est dfectueuse, sa

. Soit la proportion de pices dfectueuses par rapport au de pices effectivement dfectueuses parmi les pices mises ?

au rebut. Quelle est les valeurs de correspondant Exercise 3.2.14 Bnfice escompt.

3.3 Variables alatoires


Definition 3.3.1 Une variable discrte est . Le cas fini se traite par plongement dans plongement dans . Definition 3.3.2 Fonction de rpartition Proposition 3.3.3 Une fonction de rpartition , une variable continue est et les "ensembles non-tordus" par

. est croissante, continue gauche et vrifie

Exercise 3.3.4 Vrifier que Proposition 3.3.5 La fonction de rpartition est continue en . Definition 3.3.6 Densit. Si

. si et seulement si

est continue par morceaux, positive et vrifie

, alors dfinit une v.a. continue. On dit alors que est la densit de probabilit de cette variable. Definition 3.3.7 Esprance. Pour une variable discrte , on dfinit

Proposition 3.3.8 Dans le cas d'un jeu de hasard, l'esprance de gain permet de dterminer la "mise quitable", c'est dire la mise qui, sur le long terme, n'avantage ni le parieur ni celui qui prend les paris. Exercise 3.3.9 On lance une pice une fois. Si pile apparait, on gagne 2. Quelle est la mise quitable ? Exercise 3.3.10 On lance une pice trois fois. Si la premire apparition de pile se produit au troisime lancer, on gagne 8. Quelle est la mise quitable ? Exercise 3.3.11 On lance une pice jusqu' ce que pile apparaisse. Si le nombre de lancers a t , on gagne . Quelle est la mise quitable ? Definition 3.3.12 Variance. On dfinit formule . , et on obtient la

3.4 Dans le cas des variables discrtes infinies


La convergence des deux quantits et ne sont plus automatiques : il faut donc commencer par vrifier que ces sommes sont bien dfinies.

4. Variables alatoires discrtes


4.1 Loi uniforme sur . 4.2 Loi de Bernoulli. 4.3 Somme de variables indpendantes

4.4 Sries gnratrices 4.5 Loi binomiale 4.6 Loi hypergomtrique 4.7 Exercices

4.1 Loi uniforme sur


Definition 4.1.1 Proposition 4.1.2 Formules : si et 0 sinon.

Exercise 4.1.3 Retrouver ces formules. On pourra utiliser une sommation tlescopique des relations et et . . Peut-on pour . . En

Exercise 4.1.4 Comparer avec les intgrales trouver une meilleure approximation ?

Exercise 4.1.5 Dterminer les moments, c'est dire les esprances dduire les moments centrs, c'est dire les esprances

4.2 Loi de Bernoulli.


Definition 4.2.1 Proposition 4.2.2 Formules : (succs) et et . .

4.3 Somme de variables indpendantes


Theorem 4.3.1 Si est et sont deux variables alatoires discrtes, la loi de la somme

Definition 4.3.2 Cette loi de composition s'appelle : convolution Exercise 4.3.3 On lance deux ds. Quelle est la loi de la somme loi de la diffrence ? Quelle est la corrlation entre et ? ? Quelle est la

4.4 Sries gnratrices

Definition 4.4.1 Sries gnratrices. que cette srie converge uniformment pour Exercise 4.4.2 Vrifier que, pour la loi de Bernoulli, Theorem 4.4.3 Pour une variable support fini, on a .

avec

. Il est clair

Preuve. Exercise 4.4.4 Vrifier ces formules pour la loi de Bernoulli

. .

Exercise 4.4.5 Vrifier que la srie gnratrice d'une variable uniforme sur est

Utiliser ce rsultat pour retrouver les paramtres de dispersion. Theorem 4.4.6 La srie gnratrice de la somme de deux variables alatoires discrtes INDPENDANTES est le produit des sries gnratrices.

4.5 Loi binomiale


Definition 4.5.1 indpendantes. Proposition 4.5.2 Formules : est la loi du nombre de succs en preuves de Bernoulli

Exercise 4.5.3 Vrifier ces formules par un calcul direct pour , et Exercise 4.5.4 Retrouver ces formules en appliquant les thormes gnraux sur les esprances et les variances. Exercise 4.5.5 Dterminer les esprances dduire les esprances Exercise 4.5.6 Vrifier que l'on a et . (moments d'ordre (moments centrs d'ordre ) pour ).

. En

. Utiliser ce rsultat pour retrouver

Exercise 4.5.7 Tracer les histogrammes correspondants pour , puis pour choisi de faon que de deux variables binomiales indpendantes ?

et

.Que peut-on dire de la somme

4.6 Loi hypergomtrique


Definition 4.6.1 On prlve, sans remise et avec une probabilit uniforme, un chantillon de taille au sein d'une population de individus. On s'intresse un certain caractre binaire (i.e. prsent ou absent), et on appelle le nombre d'occurences de ce caractre dans l'chantillon et sa prvalence (frquence) dans la population. Proposition 4.6.2 La loi hypergomtrique est

Proposition 4.6.3 Formules :

et

. pour . , on obtient la loi binomiale . En

Exercise 4.6.4 Dterminer les moments, c'est dire les esprances dduire les moments centrs, c'est dire les esprances Proposition 4.6.5 Si l'on fait . dans

4.7 Exercices
Exercise 4.7.1 Soit 1 2 3 4 5 6 la variable dfinie par la distribution de probabilit suivante :

. Dterminer

. Calculer

et

. En dduire les paramtres de dispersion des

variables , et . Exercise 4.7.2 On joue quatre fois de suite pile ou face. Quelle est la distribution du nombre de fois o l'on a obtenu pile ? Dessin et paramtres de dispersion. Mmes questions pour et (ne pas hsiter utiliser un ordinateur...). Exercise 4.7.3 Une jardinerie garantit tout acheteur de plants de tomates que des plants se dvelopperont correctement aprs repiquage. Quelle est la probabilit d'obtenir au moins pieds de tomate aprs un achat de plants ? Quelle est la probabilit de perdre au plus plants aprs un achat de plants ? Exercise 4.7.4 Concours ENAC. L'preuve de mathmatiques du concours ENAC consiste en un QCM de 50 questions. Pour chacune, 4 rponses sont proposes. Chaque candidat

choisit questions et indique la rponse qui lui parait convenir. Une rponse exacte est valorise de points, chaque rponse inexacte est pnalise de point. On considre le sous-ensemble 1 des candidats qui rpondent de faon alatoire (uniforme). Quels sont les paramtres de dispersion et des notes obtenues ? On considre le sous-ensemble 2 des candidats qui choisissent uniformment les questions et y rpondent avec un taux de succs de correspondants. On considre enfin le sous-ensemble de . Donner les paramtres de dispersion constitu de candidats qui savent en outre . Donner

identifier les 20 questions les plus faciles, et y rpondent alors avec un taux de les paramtres de dispersion correspondants.

5. Variables densit

5.1 Principes gnraux 5.2 Loi uniforme 5.3 Variables positives 5.4 Formules de convolutions 5.5 Loi gamma

5.1 Principes gnraux


Moyennant diverses prcautions oratoires, on a : Definition 5.1.1 Si est continue par morceaux, positive et vrifie dfinit une v.a. continue. La fonction .... est la

, alors densit de probabilit de cette variable. Notation 5.1.2

= density function. Ne pas confondre avec

Remark 5.1.3 Caveat : la quantit n'est pas la probabilit de . En effet, cette probabilit est nulle (c'est prcisment la condition pour qu'il y ait une densit de probabilit). Proposition 5.1.4 Proprit des aires. Le graphe de gnralise la notion d'histogramme. Dans les deux cas, les probabilits sont reprsentes par des surfaces. En particulier Definition 5.1.5 Pour une variable densit , on dfinit

Proposition 5.1.6 Comme pour les variables discrtes, on a :

5.2 Loi uniforme


Definition 5.2.1 Loi uniforme sur Proposition 5.2.2 Formules : si et sinon.

Exercise 5.2.3 Soient . Quelle est la loi de

et

deux variables uniformment distribues sur ?

et sur

Exercise 5.2.4 (pour l'exercice suivant) On regroupe plusieurs populations finies des effectifs diffrents . Rappeler comment obtenir la moyenne et la variance de la

, ayant

population totale partir des paramtres des . Exercise 5.2.5 On considre une variable densit . Pour un que, pour posant entier donn, on pose ,

prenant ses valeurs dans l'intervalle , ainsi en et et , toutes deux

et, pour

. On dfinit une variable alatoire discrte . Montrer que l'on a

avec constante dterminer. Exercise 5.2.6 On considre deux variables alatoires indpendantes distribues selon la mme loi uniforme sur .

. Dterminer la loi de la variable

5.3 Variables positives


Definition 5.3.1 Le coefficient de variation d'une variable positive est dfini par :

Remark Il est clair que la notion mme de coefficient de variation devient absurde si l'on ne suppose pas que la variable est positive. Lorsque cette qantit est bien dfinie, elle possde l'avantage d'tre sans dimension, et de permettre une comparaison standardise entre deux variables. Definition 5.3.2 On appelle variable observable associe une variable positive la nouvelle variable obtenue en slctionnant les individus proportionnellement la valeur de . Les paramtres associs la variable sont appels paramtres "en nombre" (ou individuels) et ceux associs la variable paramtres "en poids". Remark Considrons une population dont les individus prsentent un caractre positif dsign par . La fonction est donc une application . Lorsque l'on cherche

dterminer la loi du caractre , il y a deux faons de slectionner les individus composant l'chantillon d'tude. On peut en effet utiliser comme rfrence une loi uniforme sur les individus ou bien une loi uniforme sur les valeurs. Le premier choix conduit la variable , le deuxime la variable . Exercise 5.3.3 On considre un processus d'attente, par exemple l'attente un passage niveau. Le temps d'attente moyen lorsque l'on voit se baisser la barrire n'est pas le mme que le temps d'attente moyen lorsque la barrire est dj baisse lorsque l'on arrive. Calculer ces deux moyennes lorsque la loi "en nombre" est dterministe, uniforme sur un intervalle, binomiale, exponentielle.

Exercise 5.3.4 On se demande quel est le volume moyen d'une particule dans un mlange de particules. Dcrire des protocoles exprimentaux associs aux variables et . De mme pour la masse moyenne des molcules d'un polymre. Proposition 5.3.5 Lorsque les chances de la variable de sont donnes par est . Lorsque et l'on a : (5.1) sont donnes par , les chances , la densit de

est la densit de probabilit de

probabilit de

Exercise 5.3.6 Les polymristes ont l'habitude de considrer le rapport de polydispersit). Lorsque cet indice vaut 2, quelle est la valeur de ?

(indice

5.4 Formules de convolutions


Theorem 5.4.1 Soient deux variables indpendantes et une transformation telle que et g comme pdf sur . les variables soient indpendantes et admettent Alors la densit de probabilit de t est :

Preuve. On passe aux cdf et on applique Fubini :

Proposition 5.4.2 La loi de la somme de deux variables indpendantes est donne par l'oprateur de convolution :

Exercise 5.4.3 Dterminer la loi de la somme de . Proposition 5.4.4 Si quotient est :

uniforme sur

et de

uniforme sur

et sont les lois des variables indpendantes

et , la loi du

5.5 Loi gamma


Proposition 5.5.1 Pour entier positif, on a :

Definition 5.5.2 La fonction Gamma d'Euler est dfinie par

Definition 5.5.3 Une variable alatoire de loi Gamma rduite et de paramtre par :

se dfinit

Proposition 5.5.4 Les paramtres de dispersion d'une variable gamma rduite sont gaux au paramtre de la loi : , . Proposition 5.5.5 La somme de deux variables gamma rduites indpendantes, ayant pour paramtres et est une variable gamma, de paramtre . Preuve. Comme ces variables sont positives, la formule de convolution donne (en posant );

et la conclusion suit. Au passage, on obtient la valeur de Definition 5.5.6 On appelle variable gamma de paramtres suit une loi gamma rduite de paramtre .

. et une variable telle que

6. Les lois limites de la loi binomiale


6.1 Les deux types de clientelle 6.2 La loi de Poisson, loi limite pour 6.3 La loi de Gauss, loi binomiale limite pour 6.4 Proprits lmentaires 6.5 Thorme central limite 6.6 La loi lognormale

6.1 Les deux types de clientelle


Il y a deux faons essentiellement diffrentes de passer la limite dans la loi binomiale. Illustrons cela par l'exemple d'une clientelle, comme celle d'une marina. Les clients peuvent se dcomposer en deux classes : les clients rguliers et les clients de passage. Les "clients de passage" sont des clients qui, individuellement, n'avaient gure de raison de passer par l (plutt que de passer ailleurs) : leur probabilit individuelle de prsence est trs faible. Mais, ayant un bateau, il faut bien qu'ils bougent de temps en temps. Comme le nombre total de plaisanciers est trs grand, le nombre des clients qui sont "de passage", ici et maintenant, oscille autour de la valeur , qui prend une valeur finie non nulle.

Les "clients rguliers", au contraire, ont la fois une probabilit non ngligeable d'tre prsents (c'est leur port d'attache) et une probabilit non ngligeable d'tre partis (une des raisons d'avoir un bateau tant de naviguer). Faire tendre vers l'infini dans ces conditions revient faire tendre la loi de vers l'infini. On a alors . En pareil cas, ce n'est plus .

qui est intressante, mais la loi de la variable rduite :

6.2 La loi de Poisson, loi limite pour


Proposition 6.2.1 La limite de la loi binomiale pour

est la loi de

Poisson :

Preuve. Supposons donc que

(clientelle de passage). On a :

Pour

fix et

, la fraction tend vers

. Pour .

, le troisime facteur tend vers

. Enfin, le dernier facteur tend vers Exercise 6.2.2 Vrifier . 6.3 La loi de Gauss, loi binomiale limite pour ,

et

Remark 6.3.1 Lorsque l'on trace les histogrammes de la variable rduite pour diverses lois binomiales, on constate que les graphes obtenus prsentent la mme allure de "courbe en cloche" lorsque le produit est assez grand.

FIG. 6.1: Un exemple avec

petit.

FIG. 6.2: Sans changer

, mais avec

plus grand.

FIG. 6.3: Convergence plus rapide lorsque

Remark 6.3.2 Pour fix, le passage la limite est d'autant meilleur que est proche de (symtrie pralable). Proposition 6.3.3 Rgle des sigmas :

Les TAB. 6.1 et TAB. 6.2 donnent les frquences cumulatives de la loi de Gauss (loi normale rduite).

TAB. 6.1: Loi normale (cumulative) : table courte

TAB. 6.2: Loi normale (cumulative) : table longue

6.4 Proprits lmentaires Theorem 6.4.1 La loi normale rduite (ou loi de Gauss) est caractrise par la densit :

Preuve. La preuve de ce thorme se trouve Section A.3.

Remark 6.4.2 Il est indispensable de reprer comment obtenir la calculette les valeurs de et de la fonction de rpartition Exercise 6.4.3 Dterminer Exercise 6.4.4 Dterminer tel que , puis . Remark 6.4.5 Par construction l'esprance de est nulle, et sa variance vaut Definition 6.4.6 La loi normale gnrale . On a donc , et . . . , . et , puis , et enfin .

est dfinie par la densit

Remark 6.4.7 La loi normale rduite est donc

Exercise 6.4.8 Si les ges d'un groupe de personnes sont distribus suivant la loi normale , quel est le pourcentage des membres de ce groupe ayant : (a) moins de 53 ans ; (b) au moins 35 ans ; (b) entre 25 et 49 ans ? Exercise 6.4.9 On sait que la variable . Dterminer et suit une loi normale et que . . et

Exercise 6.4.10 Les ges d'un groupe d'tudiants sont rpartis suivant la loi Quel est l'ge moyen du tiers le plus jeune ? Proposition 6.4.11 En pratique, on approxime lorsque . par

Proposition 6.4.12 Si normale. On a donc

est une variable normale, .

est aussi une variable

Proposition 6.4.13 Une somme de variables normales indpendantes est encore une variable normale. On a donc Preuve. Avec les notations ci-dessus, la densit de probabilit de . vaut :

L'argument de l'exponentielle se rcrit en "z puis t" :

ne dpend pas de

. Le deuxime terme donne un facteur exponentiel qui sort de

l'intgrale et qui est proportionnel ce qu'il faut tablir. Quant l'intgrale sur de l'exponentielle du premier terme, on voit qu'elle est constante par le changement de variable . Exercise 6.4.14 Le fameux exercice des plaques de chocolat. Une presse faonne des plaques de chocolat dont le poids suit une loi normale d'esprance et d'cart-type (grammes). Le rglage de la presse permet de modifier par pas de grammes sans affecter . Les services du contrle conomique admettent que du nombre des articles de cette nature puissent peser moins que le poids net mentionn sur l'emballage. (a) Dterminer pour respecter la tolrance administrative lorsque le poids net marqu est grammes. (b) On met en fabrication plaques de chocolat qui seront vendues par lots de 2 plaques avec pour mention "poids net grammes". Dterminer ainsi que l'conomie ralise. 6.5 Thorme central limite

Theorem 6.5.1 Si de variances variance

sont des variables indpendantes, de moyennes , on sait que leur somme . Si de plus a pour moyenne lorsque .

et et pour

alors la variable rduite

tend vers la loi normale rduite

Remark 6.5.2 Le thorme central limite donne un nouveau point de vue quant la convergence de la variable rduite d'une loi binomiale vers la loi de Gauss. 6.6 La loi lognormale Definition 6.6.1 On appelle lognormale une variable positive dont le logarithme suit une loi normale. Nous dfinissons les paramtres de cette loi par par de paramtres et

. La FIG. 6.4 donne les densits de la variable

et de la variable "en poids" associe. Les graduations horizontales correspondent une graduation en cart-types de la variable .

FIG.: Loi lognormale avec

Proposition 6.6.2 Lorsque la variable "en nombre" est lognormale avec les paramtres , la variable "en poids" est lognormale avec les paramtres Preuve. Si est une variable de Gauss, la variable variable normale ayant la mme loi que . . est une

obtenue par la pondration

Proposition 6.6.3 La densit d'une variable lognormale peut s'crire :

tandis que sa fonction de rpartition est la variable "observable" associe, on a les rsultats suivants :

. En dsignant par

Preuve. La densit s'obtient par

. Un peu de calcul est l'image

(changement de variable, etc.) conduit . La mdiane pour de la mdiane pour . Le mode s'obtient par drivation. Les rsultats pour EQ. 5.1. viennent de Proposition 6.6.2. On peut constater que

vrifie

Remark 6.6.4 Pour la loi lognormale, les variables "en nombre" et "en poids" ont le mme coefficient de variation. Exercice 6.6.5 On considre un ensemble de particules en suspension dans un liquide. On suppose que la rpartition "en poids" des poids de ces particules suit une loi lognormale de paramtres . On suppose en outre que ces particules sont sphriques et ont une densit constante. Que peut-on dire de la rpartition "en diamtre" des diamtres de ces particules (passer par l'intermdiaire des rpartitions "en nombre").

A. Complments

A.1 Formules de Morgan A.2 Loi gomtrique A.3 Passage de la loi binomiale la loi de Gauss

A.1 Formules de Morgan


Hypothse : on se limite aux ensembles dit, on suppose . est la fonction lorsque inclus dans un ensemble fix, autrement

Definition A.1.1 La fonction caractristique de l'ensemble dfinie par (rappel : ). lorsque et

Definition A.1.2 Pour un ensemble fini, on a Proposition A.1.3 Pour . Proposition A.1.4 Pour on a . , on a , le complmentaire de , c'est dire , on a puisque

. est dfini par

Proposition A.1.5 Pour

. En effet, la formule et : il

aurait pour effet de compter deux fois les lments commune convient donc de soustraire les lments communs. Theorem A.1.6 (Morgan) Pour , on a donc

Qui se factorise en L'autre formule se dmontre de mme. On a donc :

. Prouvant que

. (A.1)

FIG. A.1: Visualisation de la formule

Remark A.1.7 Critique : le problme de base en thorie des ensembles est d'tre certain que l'on n'est pas en train utiliser le rsultat dmontrer au cours de la dmonstration de ce rsultat. Or la notion de fonction ncessite celle d'ensemble et ... les ennuis commencent. En bref, nous avons montr : "si la thorie des ensembles est cohrente, alors la formule de Morgan s'applique". Remark A.1.8 On notera la ressemblance entre les formules pour dnombrement) et les formules pour (la mesure de

(la mesure de probabilit).

A.2 Loi gomtrique


Definition A.2.1 Loi gomtrique : et proportionnelle Proposition A.2.2 Formules : . veut dire : prend ses valeurs dans

Exercise A.2.3 Tester numriquement ces formules pour . Les dmonter dans le cas gnral. Calculer les moments et les moments centrs correspondants.

A.3 Passage de la loi binomiale la loi de Gauss


1. Notations. Soit

une variable binomiale de paramtres

(le nombre total d'essais) et et

(la probabilit de succs une preuve lmentaire). On pose . On a


2. Variable rduite. On sait que

. et , soit . La variable .

rduite

associe

est

3. Changement de variable. On peut vrifier que

et . On sait que la probabilit se reprsente par une surface (bton d'un histogramme, tranche d'Archimde dans un graphe). Pour fini fix, on a videmment . La hauteur des rectangles dans l'histogramme en et la hauteur des rectangles de l'histogramme en noter ) vaut . Comme et vaut

(que nous allons , on part donc de

4. Formule de Stirling (version faible). Posons

et

Les techniques usuelles de dveloppement limit conduisent ,

On en conclut que , c'est dire le quotient de par la moyenne gomtrique des premiers nombres entiers tend vers .
5. Formule de Stirling (version forte). Posons

et

. Les techniques usuelles de dveloppement limit conduisent

En sommant des quivalents, telle que :

admet une limite finie et il existe une constante

(A.2)

6. Dans ce qui suit, on fixe

et on fait augmenter

vers +

. On a donc

successivement :

7. Dveloppement limit. En posant

et . En substituant et

on obtient

, les techniques usuelles de dveloppement limit donnent :

8. En combinant et en passant aux exponentielles, on a donc :

montrant la convergence
9. Enfin, la constante

est dtermine par le fait que la probabilit totale est constante... et vaut donc . Pour dterminer la valeur de l'intgrale de Gauss, i.e. :

on en calcule le carr. Il vient

Passant en polaire, on obtient

10. On en dduit que la constante dans la formule de Stirling vaut

. La valeur limite de la densit de probabilit de la variable rduite est donc donne par :

B. Tableau de contingence

B.1 Distribution bivarie, distributions " la marge" B.2 Mthode de calcul

B.1 Distribution bivarie, distributions " la marge"


Definition B.1.1 On appelle "tableau de contingence" une certaine faon de conduire les calculs de rgression affine pour une distribution groupe, i.e. une distribution o les donnes de chaque sorte (les et les ) ont t regroupes en classes.

1. Nous allons suivre l'exemple donn par le tableau ci-dessous :

1. Le caractre

est mesur par des valeurs isoles (caractre discret), les sont mesurs par des intervalles (caractre continu, discrtis pour les besoins de la mesure, ou bien par raison de simplification du recensement) par la lettre et ici . Nous indexons les et ici .

2. Nous indexons les

(plus prcisment : les centres de classes) par la lettre Ainsi (il serait plus correct d'crire (ici ).

3. L'effectif total se note

) et l'effectif de chaque case se note ,

Ainsi

veut dire que le recensement a trouv, dans la population

individus tels que et . 2. Les deux distributions marginales s'obtiennent en augmentant le tableau d'une ligne et d'une colonne.

B.2 Mthode de calcul


Algorithm B.2.1 Calcul effectif. Dans le cas d'une distribution groupe, il suffit d'ajouter quelques lignes et colonnes au tableau de distribution. La redondance de certains calculs est volontaire (cela permet de vrifier en cours de route). On remarquera que la ligne n'est pas seulement un lment de vrification du calcul de indispensable pour le calcul de . Example B.2.2 : Dans l'exemple ci-dessus, il vient : , mais un lment

Et l'on obtient :

, et donc .

Et de mme

, et .

Enfin

, d'o la droite de rgression est

. De l .

et

C. Deux lois utiles pour les processus d'attente


C.1 Loi de Poisson C.2 Loi exponentielle C.3 Inter-arrives exponentielles

C.1 Loi de Poisson


Definition C.1.1 Loi de Poisson. Proposition C.1.2 Formules : est proportionnel .

Exercise C.1.3 Tester numriquement ces formules pour . Les dmonter dans le cas gnral. Calculer les moments et les moments centrs correspondants. Proposition C.1.4 Si l'on a la loi de Poisson. constant et dans la loi binomiale, la limite est par lorsque

Proposition C.1.5 Rgle pratique : on approxime et .

FIG. C.1: Loi de Poisson et . Exercise C.1.6 Quelle est la loi de la somme de deux variables de Poisson indpendantes ?

C.2 Loi exponentielle

Definition C.2.1 Loi exponentielle : Proposition C.2.2 Formules

Exercise C.2.3 Retrouver les rsultats noncs Proposition C.2.2. Exercise C.2.4 Dterminer les quartiles d'une loi exponentielle, c'est dire les valeurs correspondant .

C.3 Inter-arrives exponentielles


Exercise C.3.1 Des clients arrivent un par un dans une file d'attente. On appelle le temps qui spare les arrives des clients et . On suppose que les sont des variables indpendantes, toutes distribues selon la mme loi exponentielle de paramtre . Montrer que la loi du nombre de clients arrivant par unit de temps est une loi de Poisson. En quoi le produit est-il remarquable ? Exercise C.3.2 Les autobus en bas de chez vous passent de faon alatoire, les temps de passage entre deux bus tant des variables de Poisson i.i.d. (indpendantes et identiquement distribues) de paramtre . Vous descendez de faon alatoire, avec une probabilit uniforme. Quelle est la distribution de votre temps d'attente ? Calculer en particulier la valeur moyenne de l'attente.

Anda mungkin juga menyukai