1
Lo spazio campionario si dice discreto se Ω ha cardi-
nalità finita (esempi 1, 2 e 3) o al più numerabile (esem-
pio 4); Ω è detto continuo se è costituito da una infinità
non numerabile di eventi elementari (esempio 5).
2
Intersezione: A∩B = insieme di eventi elementari di Ω
che appartengono sia ad A che a B (l’evento intersezione
si verifica se entrambi gli eventi si verificano).
Esempio 6: lancio di un dado
A ∩ B = {2}
Alcune Proprietà:
• (A ∪ B)c = Ac ∩ B c
• (A ∩ B)c = Ac ∪ B c
• A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
• A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
3
INCOMPATIBILITA’
4
MISURA DI PROBABILITA’
Ad ogni evento dello spazio campionario di un esperi-
mento casuale potremmo assegnare un valore numerico
compreso tra 0 e 1 che ne misuri la tendenza a verificarsi.
Chiamiamo questo valore probabilità dell’evento.
6
APPROCCIO ASSIOMATICO
(Kolmogorov)
La probabilità è definita come una funzione Pr(·) che ad
ogni evento A associa un valore in IR, tale da soddisfare
le seguenti condizioni (assiomi della probabilità)
1. Pr(A) ≥ 0
2. Pr(Ω) = 1
3. Se A ∩ B = ∅, Pr(A ∪ B) = Pr(A) + Pr(B)
PROPRIETA’
P1) Per ogni evento A
Pr(Ā) = 1 − Pr(A)
Dim: A ∪ Ā = Ω e A ∩ Ā = ∅, ossia A e Ā sono
disgiunti. Allora,
Pr(A ∪ Ā) = Pr(A) + Pr(Ā) = Pr(Ω) = 1
da cui Pr(Ā) = 1 − Pr(A).
P2) Pr(∅) = 0
Dim: da P1), Pr(∅) = 1 − Pr(Ω) = 1 − 1 = 0.
7
P4) Se A = A1 ∪ . . . ∪ An, dove A1, . . . , An sono eventi
mutuamente esclusivi, allora
Pr(A) = Pr(A1 ∪ . . . ∪ An) = Pr(A1) + . . . + Pr(An )
Dim: è un’immediata conseguenza del terzo assioma.
8
PROBABILIZZAZIONE DI EVENTI
Ogni evento A può essere espresso come l’unione di eventi
elementari di Ω, che per definizione sono tra loro mutu-
amente esclusivi. Pertanto, se sono note le probabilità
dei singoli eventi elementari, applicando la proprietà P4)
possiamo calcolare la probabilità di A sommando le prob-
abilità dei singoli eventi elementari che lo compongono.
11
Se Ω è finito, attraverso le tecniche viste in precedenza (e
sfruttando opportunamente gli assiomi) possiamo calco-
lare probabilità di eventi anche nel caso in cui gli eventi
elementari non siano equiprobabili.
12
CENNI DI CALCOLO COMBINATORIO
La definizione classica di probabilità, nelle situazioni in
cui può essere applicata, richiede il conteggio del numero
di casi possibili e del numero di casi favorevoli. Al tal fine
è utile richiamare alcuni concetti di calcolo combinatorio.
13
Disposizioni con replicazione: se estraiamo dal-
l’urna k oggetti, via via reinserendoli nell’urna, in quanti
modi posso ordinarli?
nk
N.B.: in questo modo ottengo vettori k−dimensionali
in cui, essendo l’estrazione con reinserimento, lo stesso
oggetto può comparire più volte.
14
PROBABILITA’ CONDIZIONATA
Dati due eventi A e B (con Pr(B) > 0) si definisce prob-
abilità di A condizionata al verificarsi dell’evento B (o
probabilità di A dato B) la quantità
Pr(A ∩ B)
Pr(A|B) =
Pr(B)
• è definita come il rapporto tra la probabilità congiun-
ta di A e B e la probabilità di B e pertanto il ruolo
dei due eventi non è simmetrico;
• soddisfa gli assiomi della probabilità;
• è ben definita a patto che B possa verificarsi, ossia
Pr(B) > 0; altrimenti, se B coincidesse con l’evento
impossibile ∅
Pr(A ∩ ∅) Pr(∅) 0
Pr(A|∅) = = =
Pr(∅) Pr(∅) 0
quindi non ha senso condizionare rispetto ad eventi
impossibili.
Essa rappresenta la probabilità che si verifichi A dato il
verificarsi dell’evento B, ossia supponendo che quest’ul-
timo si verifichi: dando per scontato il verificarsi di B,
Pr(A|B) riscala la probabilità di A non piu su tutto Ω
ma solo sugli eventi elementari che costituiscono B.
16
Esempio 3: lancio di due dadi. Calcolare la probabilità
che il primo dado produca la faccia 3 sapendo che la som-
ma delle due facce è pari a 7.
Poniamo
A=“il primo dado produce la faccia 3”
B=“la somma delle due facce è 7”
non è semplice calcolare Pr(A|B) direttamente, ma pos-
siamo procedere usando la definizione.
casi favorevoli a (I = 3 ∩ I + II = 7)
Pr(A ∩ B) =
casi possibili
casi favorevoli a (I = 3 ∩ II = 4) 1
= =
36 36
casi favorevoli a (I + II = 7) 6
Pr(B) = =
36 36
dato che i casi favorevoli a (I + II = 7) sono
{(1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3)}
Pr(A ∩ B) 1/36 1
⇒ Pr(A | B) = = =
Pr(B) 6/36 6
17
TEOREMA DELLE PROBABILITA’
TOTALI
Dato che B ∪ B̄ = Ω, allora
A = A ∩ Ω = A ∩ (B ∪ B̄) = (A ∩ B) ∪ (A ∩ B̄)
e poichè gli eventi (A ∩ B) e (A ∩ B̄) sono disgiunti
Pr(A) = Pr((A∩B)∪(A∩ B̄)) = Pr(A∩B)+Pr(A∩ B̄)
Dalla definizione di probabilità condizionata
Pr(A ∩ B)
Pr(A|B) =
Pr(B)
segue che
Pr(A∩B) = Pr(A|B) Pr(B) e Pr(A∩B̄) = Pr(A|B̄) Pr(B̄)
e quindi
Pr(A) = Pr(A|B) Pr(B) + Pr(A|B̄) Pr(B̄)
18
TEOREMA DI BAYES
19
Esempio 7 (pag 18): abbiamo un’urna con 5 palline nu-
merate da cui facciamo 2 estrazioni senza reinserimento.
1. Calcolare la probabilità che la prima pallina sia pari
dato che la seconda è pari.
1 2
Pr(B|A) Pr(A) 4 · 5 1
Pr(A|B) = = 1 2 =
Pr(B) 4
· 5
+ 24 · 35 4
20
Esempio. Un amico ci ha detto che con una probabilità
del 80% oggi ci sarebbe venuto a trovare a mezzogiorno. Il
nostro amico ha deciso di viaggiare in pullman e sappiamo
che il 40% dei pullman arriva in ritardo a destinazione.
1. Calcolare la probabilità che a mezzogiorno il nostro
amico non sia ancora arrivato.
Poniamo
M=“a mezzogiorno il nostro amico non è arrivato”
V=“il nostro amico ha deciso di venirci a trovare”
Pr(M |F ) Pr(F )
Pr(F |M ) =
Pr(M |F ) Pr(F ) + Pr(M |F̄ ) Pr(F̄ )
0, 2 · 0, 35
= = 0, 64
0, 2 · 0, 35 + 0, 06 · 0, 65
21
Esercizio (pag. 17): un’urna contiene 7 palline, di
cui 3 rosse e 4 bianche; effettuando due estrazioni senza
reinserimento, calcolare la probabilità che
1. la seconda pallina estratta sia bianca dato che la
prima è bianca;
2. siano entrambe bianche;
3. la seconda sia bianca;
4. la prima sia bianca, dato che la seconda è bianca.
Nel caso in cui le estrazioni venissero effettuate con rein-
serimento, come dovrebbero essere modificati i calcoli ai
punti precedenti?
22
INDIPENDENZA DI EVENTI
Due eventi A e B si dicono indipendenti se e solo se
Pr(A ∩ B) = Pr(A) Pr(B)
Se A e B sono indipendenti, allora
Pr(A ∩ B) Pr(A) Pr(B)
Pr(A|B) = = = Pr(A)
Pr(B) Pr(B)
che possiamo interpretare nel modo seguente: se A e B
sono indipendenti la probabilità che si verifichi A non è
modificata dall’informazione che B si è verificato.
24
ATTENZIONE: Incompatibili 6= Indipendenti!
Se A e B sono incompatibili (A ∩ B = ∅) sappiamo che il
verificarsi dell’uno esclude il verificarsi dell’altro evento:
⇒ max informazione reciproca.
Qual é l’unico caso in cui 2 eventi sono allo stesso tempo
incompatibili ed indipendenti?
25
LE VARIABILI CASUALI
Una variabile casuale (o aleatoria) è una funzione che
associa ad ogni evento elementare di Ω un numero reale:
X : Ω → IR
Una variabile casuale è una variabile il cui valore dipende
dal risultato di un esperimento casuale: indicheremo con
X la variabile e con x il valore da essa assunto.
Valori di X x1 x2 . . . xi . . . Tot
Probabilità p(x1) p(x2) . . . p(xi) . . . 1
P
dove naturalmente p(xi) ≥ 0 e xi ∈SX p(xi) = 1.
27
Esempio 3: lancio di 2 dadi, X = somma delle facce
⇒ SX = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12} dove
Pr(X = 2) = Pr(r(1, 1)) = 1/36
Pr(X = 3) = Pr((1, 2) ∪ (2, 1)) = 2/36
Pr(X = 4) = Pr((1, 3) ∪ (3, 1) ∪ (2, 2)) = 3/36
...
Pr(X = 11) = Pr((5, 6) ∪ (6, 5)) = 2/36
Pr(X = 12) = Pr((6, 6)) = 1 − Pr(X = 1) − Pr(X = 2)
− . . . − Pr(X = 11) = 1/36
X 2 3 4 5 6 7 8 9 10 11 12 Tot
p(x) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 1
0.16
0.14
0.12
0.10
p(x)
0.08
0.06
0.04
2 4 6 8 10 12
28
LA FUNZIONE DI RIPARTIZIONE
La funzione ripartizione FX (·) di una variabile casuale X
(sia continua che discreta) è definita da
FX (x) = Pr(X ≤ x) x ∈ IR
la funzione di ripartizione
X
FX (x) = p(xi)
xi ≤x
29
Esempio 2 (pag. 27): lancio di 3 monete
X = numero di teste ⇒ SX = {0, 1, 2, 3}
1.0
0.8
0.6
F(x)
0.4
0.2
0.0
−1 0 1 2 3 4
30
VALORE ATTESO E VARIANZA PER
VARIABILI CASUALI DISCRETE
Sia X una v.c. discreta con distribuzione di probabilità
X x1 x2 . . . xi . . . Tot
p(x) p(x1) p(x2) . . . p(xi) . . . 1
La varianza di X è la quantità
X
2
Var(X) =E(X − E(X)) = (xi − E(X))2p(xi)
xi ∈SX
X
2 2
=E(X ) − [E(X)] = x2i p(xi) − [E(X)]2
xi ∈SX
32
TRASFORMAZIONI DI VARIABILI
Se da X deriviamo Y attraverso la trasformazione lineare
Y = a + bX
allora
E(Y ) = E(a + bX) = a + bE(X)
Var(Y ) = Var(a + bX) = b2Var(X)
LA STANDARDIZZAZIONE
Se alla variabile casuale X applichiamo la trasformazione
X − E(X)
Z= p
Var(X)
otteniamo una variabile casuale Z standardizzata, os-
sia tale che
E(Z) = 0 Var(Z) = 1
33
Esempio: in una lotteria vengono emessi
3 biglietti con vincita da 1000 euro
10 biglietti con vincita da 200 euro
100 biglietti con vincita da 5 euro
1000 biglietti con vincita da 0 euro
Se una persona acquista un solo biglietto,
• calcolare valore atteso e varianza della vincita X;
• calcolare il guadagno atteso nel caso in cui il biglietto
costi 5 euro.
Soluzione
La vincita attesa è
1000 100 10 3
E(X) = 0× +5× +200× +1000× = 4, 94 euro
1113 1113 1113 1113
Inoltre
1000 100 10
E(X 2) = 02 × + 52 × + 2002 × +
1113 1113 1113
3
+10002 × = 3057, 053 euro2
1113
da cui
Var(X) = 3057, 053 − 4, 942 = 3032, 65 euro2
34
Indicando ora con G il guadagno in euro di un persona
che acquista un unico biglietto dal costo di 5 euro, allora
G = X − 5. Pertanto il guadagno atteso E(G) è dato da
E(G) = E(X − 5) = E(X) − 5 = 4, 94 − 5 = −0, 06
avremmo cioè una perdita attesa, ossia non conviene in
media comprare il biglietto della lotteria.
1000 100 10 3
E(G) = (−5)· +0· +195· +995· = −0, 06
1113 1113 1113 1113
35
ESEMPI IMPORTANTI DI VARIABILI
CASUALI DISCRETE
Per conoscere una variabile aleatoria discreta X (e quindi
poterne calcolare le probabilità di eventi di interesse, il
valore atteso, la varianza, ecc...), dobbiamo disporre della
sua distribuzione di probabilità, che specifica il supporto
SX e le probabilità p(xi) per ogni xi ∈ SX .
36
VARIABILE CASUALE UNIFORME
DISCRETA
X x1 x2 . . . xn Tot
1 1 1
p(x) n n
... n
1
Proprietà:
X 1 num. di xi ≤ x
F (x) = Pr(X ≤ x) = =
i:x ≤x
n n
i
n n
X 1 1X
E(X) = xi · = xi
i=1
n n i=1
n n
!2
1 X 1 X
Var(X) = E(X 2)−{E(X)}2 = x2i − xi
n i=1 n i=1
37
Esempio 6: lancio di un dado. Se X rappresenta la
faccia del dado, allora SX = {1, 2, 3, 4, 5, 6} e ciascuno
di essi ha probabilità 1/6 di verificarsi: X ∼ U{1,2,3,4,5,6}
1+ 2+ ... + 6
E(X) = = 3, 5
6
12 + 22 + . . . + 62
V (X) = − 3, 52 = 2, 92
6
3
Pr(X ≤ 3) = F (3) =
0.22
0.20
0.18
6
p(x)
0.16
0.14
0.12
0.10
1 2 3 4 5 6
x
1.0
0.8
0.6
F(x)
0.4
0.2
0.0
0 1 2 3 4 5 6 7
38
VARIABILE CASUALE DI BERNOULLI
Riguarda gli esperimenti in cui l’interesse è legato ad
esiti dicotomici, come Successo/Insuccesso, Vero/Falso,
Si/No, Presenza/Assenza, ecc...
0.9
0.7
0.7
p(x)
p(x)
0.5
0.5
0.3
0.3
0.1
0.1
0 1 0 1
x x
Bernoulli, p=0.9
0.9
0.7
p(x)
0.5
0.3
0.1
0 1
40
VARIABILE CASUALE BINOMIALE
Supponiamo di lanciare 3 volte una moneta truccata in
modo che l’esito testa abbia probabilità 0,6. Se indichi-
amo con Xi la v.c. che descrive l’esito dell’i-esimo lancio,
(
1 se nell’i-esimo lancio esce testa
Xi =
0 se nell’i-esimo lancio esce croce
e, come abbiamo visto, Xi ∼ Be(0, 6) per ogni i = 1, 2, 3.
Se anzichè esaminare l’esito di ogni singolo lancio siamo
interessati al numero complessivo di volte X in cui è
uscita testa nei 3 lanci, allora
3
X
X= Xi
i=1
42
Consideriamo ora un generico esperimento di tipo Bernoul-
liano, ossia tale da generare un “successo” (si verifica un
evento A) con probabilità π o un “insuccesso” (Ā) con
probabilità 1 − π e supponiamo di ripeterlo n volte in
modo indipendente. Indicando con X la v.c. che conta il
numero di successi nelle n replicazioni, allora
n
X
X= Xi
i=1
43
Proprieta:
• se X ∼ Bin(n; π), allora
E(X) = nπ V (X) = nπ(1 − π)
0.20
simmetria
asimmetria a dx
0.15
0.15
p(x)
p(x)
0.10
0.10
0.05
0.05
0.00
0.00
0 5 10 15 20 0 5 10 15 20
x x
Binomiale, n=20,p=0.8
0.20
0.15
asimmetria a sx
p(x)
0.10
0.05
0.00
0 5 10 15 20
44
Esercizio 1. E’ noto che il 98% degli studenti che si
presentano allo scritto d’esame del corso di Statistica ha
con sè la calcolatrice, mentre il restante 2% ne è sprovvis-
to. Se ad uno scritto si presentano 10 studenti, calcolare
la probabilità che
1. nessuno abbia la calcolatrice;
2. l’abbiano portata in 2;
3. almeno uno ce l’abbia.
Soluzione
Indicando con C l’evento “lo studente ha la calcolatrice”,
Pr(C) = 0, 98. Sia X la v.a. che conta quanti dei 10
studenti considerati hanno la calcolatrice: ciascuno di es-
si o ha portato la calcolatrice (“successo”) o non l’ha
portata (“insuccesso”), è lecito assumere che i compor-
tamenti di studenti diversi siano tra loro indipendenti ed
inoltre la probabilità di portare la calcolatrice è costante
e pari a 0,98. Pertanto X ∼ Bin(10; 0, 98) e per ogni
x = 0, 1, . . . , 10
10
Pr(X = x) = 0, 98x(1 − 0, 98)(10−x)
x
10
Pr(X = 0) = 0, 980(1 − 0, 98)(10−0) = 0, 0210
0
10
Pr(X = 2) = 0, 982(1 − 0, 98)(10−2) = 45 · 0, 982 · 0, 028
2
Pr(X ≥ 1) =1 − Pr(X < 1) = 1 − Pr(X = 0) = 1 − 0, 0210
45
Esercizio 2. Una Banca ha concesso finanziamenti a
10 imprese. Sapendo che la probabilità che un’impresa
sia insolvente è pari a 0,2 ed assumendo che le imprese si
comportino in modo indipendente, determinare la prob-
abilità che al massimo due di esse siano insolventi.
Soluzione
Possiamo vedere i 10 finanziamenti come 10 prove in-
dipendenti, dato che le imprese si comportano in modo
indipendente le une dalle altre, ciascuna delle quali gen-
era insolvenza (“successo”) con probabilità 0,2. Se in-
dichiamo con X il numero di imprese insolventi tra le 10
finanziate, X ∼ Bin(10; 0, 2) e pertanto
Pr(X ≤ 2) = Pr(X = 0) + Pr(X = 1) + Pr(X = 2)
10 10 10
= 0, 20 · 0, 810 + 0, 21 · 0, 89 + 0, 22 · 0, 88
0 1 2
=0, 810 + 10 · 0, 2 · 0, 89 + 45 · 0, 22 · 0, 88 = 0, 302
N.B.: chiaramente avremmo ottenuto la stessa soluzione
se avessimo posto Y = numero di imprese solventi tra le
10 finanziate, dove però in questo caso Y ∼ Bin(10; 0, 8)
e la probabilità cercata è Pr(Y ≥ 8).
46
VARIABILE CASUALE DI POISSON
47
0.4
0.3
0.2
0.1
0.0
0 5 10 15
49