Conceptos de Probabilidad
y Aplicaciones
1 - <#>
Objetivos de Aprendizaje
Los estudiantes podrn:
Entender los fundamentos bsicos del
anlisis de probabilidad
Entender la diferencia entre eventos
dependientes e independientes
Usar el teorema de Bayes para establecer
probabilidades posteriores
1 - <#>
Introduccin
La vida no es cierta!
Tenemos que tratar con riesgos!
Una probabilidad es un enunciado
numrico sobre la posibilidad de que
un evento ocurra
1 - <#>
0 P(evento) 1
1 - <#>
Ejemplo 2.1
La demanda de pintura blanca latex en la
compaa Diversey Paint and Supply todo
el tiempo ha sido 0, 1, 2, 3, o 4 galones por
da. (No hay otros resultados posibles;
cuando un resultado ocurre, no otro
puede ocurrir.) En los pasados 200 das,
las frecuencias de demanda son
representadas en la siguiente tabla:
1 - <#>
Nmero de Das
(Galones)
0
40
80
2
3
4
50
20
10
Total 200
1 - <#>
Frec.
Probabilidad
Demanda
(das)
40
(40/200) = 0.20
80
(80/200) = 0.40
50
(50/200) = 0.25
20
(20/200) = 0.10
10
(10/200) = 0.05
Total Prob
= 1.00
1 - <#>
Tipos de Probabilidad
Probabilidad Objetiva :
P ( evento )
Nmero
Nmero total
Tipos de Probabilidad
Probabilidad subjetiva:
Basada en juicio
Determinada por:
Juicio de experto
Encuesta de opiniones
etc.
1 - <#>
10
1 - <#>
11
Eventos Colectivamente
Exhaustivos
Se dice que los eventos son
colectivamente exhaustivos si la lista
de resultados incluye cada resultado
posible: cara y sello como posibles
resultados de lanzar una moneda.
1 - <#>
12
Ejemplo 2
Lanzar un dado
tiene seis
resultados
posibles
Resultado Probabilidad
de Tiro
1/6
1
1/6
2
1/6
3
1/6
4
1/6
5
1/6
6
Total = 1
1 - <#>
13
Ejemplo 2a
Resultado
Que lanzar dos
dados resulte en
de Tiro = 5
un total de cinco. Dado 1 Dado 2
Hay un total de 36
1
4
resultados
2
3
posibles.
3
2
4
1
1 - <#>
Probabilidad
1/36
1/36
1/36
1/36
14
Ejemplo 3
Saque
Mutualmente
Exclusivo
Si
Colectivamente
Exhaustivo
No
Si
Si
Si
No
Si
Si
No
No
No
No
1 - <#>
15
Probabilidad :
Mutualmente
Exclusiva
P(evento A o evento B) =
P(evento A) + P(evento B)
o:
P(A o B) = P(A) + P(B)
i.e.,
P(espada o trbol) = P(espada) + P(trbol)
= 13/52 + 13/52
= 26/52 = 1/2 = 50%
1 - <#>
16
Probabilidad:
No Mutualmente Exclusiva
P(evento A o evento B) =
P(evento A) + P(evento B) P(evento A y evento B ambos ocurriendo)
o
P(A o B) = P(A)+P(B) - P(A y B)
1 - <#>
17
P(A y B)
(Diagrama Venn)
P(A
)
yB
P(A)
1 - <#>
P(B)
18
P(A o B)
-
+
P(A)
P(B)
=
P(A y B)
P(A o B)
1 - <#>
19
Dependencia Estadstica
Eventos son ya sea
estadisticamente independientes (la
ocurrencia de un evento no tiene efecto en
la probabilidad de la ocurrencia de otro) o
estadisticamente dependientes (la
ocurrencia de un evento da informacin
sobre la ocurrencia de otro)
1 - <#>
20
21
Probabilidades Eventos
Independientes
[P(A)]
Probabilidad conjunta: la probabilidad de eventos
multiples independientes, oocurriendo al mismo
tiempo
P(AB) = P(A)*P(B)
Probabilidad condicional (para eventos
independientes):
la probabilidad de evento B dado que evento A
ha occurrido P(B|A) = P(B)
o, la probabilidad de evento A dado que evento
- <#>
22
B ha occurrido P(A|B) = 1P(A)
Probabilidad(A|B)
Eventos Independientes
P(B)
P(A)
P(B|A)
P(A|B)
1 - <#>
23
Eventos Estadisticamente
Independientes
Un balde
contiene 3 bolas
negras y siete
bolas verdes. Se
saca una bola del
balde, se vuelve a
poner, y se saca
una segunda bola
24
Eventos Estadisticamente
Independientes - continuacin
1. P(bola negra sacada en segundo intento, la
primera fu verde)
P(N|V) = P(N) = 0.30
(probabilidad condicional)
2. P(bola verde sacada en segundo intento, la
primera fu verde)
P(V|V) = 0.70
(probabilidad condicional)
1 - <#>
25
Probabilidades Eventos
Dependientes
1 - <#>
26
Probabilidad(A|B)
/
P(A)
P(AB)
P(B)
P(A|B) = P(AB)/P(B)
1 - <#>
27
Probabilidad(B|A)
/
P(B)
P(AB)
P(A)
P(B|A) = P(AB)/P(A)
1 - <#>
28
Eventos Estadisticamente
Dependientes
Suponga que una urna
Entonces::
contiene 10 bolas con las
P(BL) = 4/10 = 0.40
siguientes descripciones:
4 son blancas (B) y con
letras (L)
2 son blancas (B) y con
nmeros N
3 son amarillas (A) y con
letras (L)
1 es amarilla (A) y con
nmero (N)
29
Eventos Estadisticamente
Dependientes - Continuacin
Entonces:
P(L|A) = P(AL)/P(A)
= 0.3/0.4 = 0.75
P(A|L) = P(AL)/P(L)
= 0.3/0.7 = 0.43
P(B|L) = P(BL)/P(L)
= 0.4/0.7 = 0.57
1 - <#>
30
Probabilidades Conjuntas,
Eventos Dependientes
31
32
Revisin de Probabilidades:
Teorema de Bayes
El Teorema de Bayes puede ser usado para calcular
las probabilidades revisadas o probabilidsdes
posteriores
Probabilidades
Anteriores
Nueva
Informacin
Proceso de
Bayes
1 - <#>
Probabilidades
Posteriores
33
P ( AB )
P( B)
or
P ( B | A) P ( A)
P( A | B)
P ( B | A) P ( A) P ( B | A ) P ( A )
donde A complemento de el evento A
1 - <#>
34
Probabilidades Posteriores
Una tasa contiene dos dados identicos en
apariencia. Uno, sin embargo, es legtimo (no
cargado), el otro es ilegtimo (est cargado). La
probabilidad de tirar un 3 en el dado legtimo es
1/6 o 0.166. La probabilidad de tirar el mismo
nmero en el dado ilegtimo es 0.60.
No tenemos idea de cual dado es legal o ilegal,
pero seleccionamos uno al azar y lo tiramos. El
resultado es un 3.
Cul es la probabilidad de que el dado tirado fu
el legtimo?
1 - <#>
35
Probabilidades Posteriores
Continuacin
Sabemos que:
P(legtimo) = 0.50
Y:
P(3|legtimo) = 0.166
P(cargado) = 0.50
P(3|cargado) = 0.60
Entonces:
P(3 y legtimo) = P(3|legtimo)P(legtimo)
= (0.166)(0.50)
= 0.083
P(3 y cargado) = P(3|cargado)P(cargado)
= (0.60)(0.50)
= 0.300
1 - <#>
36
Probabilidades Posteriores
Continuacin
Un 3 puede ocurrir en combinacin con el
estado dado legtimo o en combinacin con
el estado dado cargado. La suma de sus
probabilidades da la probabilidad
incondicional o marginal de un 3 en una tirada:
P(3) = 0.083 + 0.0300 = 0.383.
P(Legtimo y 3)
0.083
0.22
P(3)
0.383
1 - <#>
37
Ms Revisiones de Probabilidad
Para obtener ms informacin sobre
si el dado tirado es legtimo o
cargado, tiremoslo otra vez.
Dado de que ahora hemos tirado dos
3s, Cul es la probabilidad de que
dado tirado es el legtimo?
1 - <#>
38
Ms Revisiones de
Probabilidad - continuacin
P(legtimo) = 0.50, P(cargado) = 0.50 como antes
P(3,3|legtimo) = (0.166)(0.166) = 0.027
P(3,3|cargado) = (0.60)(0.60) = 0.36
P(3,3 y legtimo) = P(3,3|legtimo)P(legtimo)
= (0.027)(0.05)
= 0.013
P(3,3 y cargado) = P(3,3|cargado)P(cargado)
= (0.36)(0.5)
= 0.18
P(3,3) = 0.013 + 0.18 = 0.193
1 - <#>
39
Ms Revisiones de
Probabilidad - continuacin
P(3,3 y Legtimo)
P(Legtimo | 3,3)
P(3,3)
0.013
0.067
0.193
P(3,3 y Cargado)
P(Cargado | 3,3)
P(3,3)
0.18
0.933
0.193
1 - <#>
40
Ms Revisiones de Probabilidad
- continuacin
Para dar la comparacin final:
P(legtimo|3) = 0.22
P(cargado|3) = 0.78
P(legtimo|3,3) = 0.067
P(cargado|3,3) = 0.933
1 - <#>
41
Variables Aleatorias
Variable Aleatoria Discreta puede asumir
42
Resultado
Inventariar 50
rboles navideos
Inspeccionar 600
artculos
Mandar
5,000 cartas
de ventas
Construir un
edificio de
apartamentos
Probar la
vida de un
foco
(minutos)
Nmero de
arboles vendidos
Nmero
aceptable
Nmero de
gente que
responde
%completo
Despues de 4
meses
Foco
dura - hasta
80,000
minutos
Variable Aleatoria
X = nmero de
arboles vendidos
Y = nmero
aceptable
Z = nmero de
Gente que responde
R = %completo
despues de 4 meses
S = tiempo que el foco
dura
1 - <#>
Rango de
Variable
Aleatoria
0,1,2,, 50
0,1,2,,
600
0,1,2,,
5,000
0 R 100
0 S 80,000
43
Resultado
Fuertemente de acuerdo (FA)
De acuerdo (A)
Neutral (N)
No de acuerdo (NDA)
Fuertemente no de acuerdo (FDA)
Defectiva
No defectiva
Buena
Promedio
Pobre
Variable
Aleatoria
X = 5 si FA
4 si A
3 si N
2 si NDA
1 si FDA
Y = 0 si defectiva
1 si no defectiva
Z = 3 si buena
2 si promedio
1 si pobre
1 - <#>
Rango de
Variable
Aleatoria
1,2,3,4,5
0,1
1,2,3
44
Distribuciones de Probabilidad
Figura 2.5
Funcin de
Probabilidad
1 - <#>
45
E ( X ) X iP ( X
i
E( X )
X
i 1
P( X i )
X 1 P( X 1 ) X 2 P( X 2 ) X 3 P( X 3 )
X 4 P( X 4 ) X 5 P( X 5 )
(5)(0.1) ( 4)(0.2) (3)(0.3)
( 2)(0.3) (1)(0.1)
2.9
1 - <#>
46
X
i 1
5 2 .9
E X
P X i
(1 2.9) 2 (0.1)
0.44 - 0.242 0.003 0.243 0.361
1.29
1 - <#>
47
Distribucin Binomia
Suposiciones:
1. Intentos siguen un proceso Bernoulli
dos posibles resultados
2. Probabilidades se mantienen igual de
un intento a otro
3. Intentos son estadisticamente
independientes
4. Nmero de intentos es un entero
positivo
1 - <#>
48
Distribucin Binomia
n = nmero de intentos
r = nmero de xitos
p = probabilidad de xito
q = probabilidad de falla
Probabilidad de r xitos
en n intentos
n!
r
nr
p q
r!(n - r)!
1 - <#>
49
Distribucin Binomia
np
2 np (1 p )
1 - <#>
50
Distribucin Binomia
N = 5, p = 0.50
1 - <#>
51
Distribucin de Probabilidad de
Variable Aleatoria Continua
Distribucin Normal
5.05
f (X )
5.1
5.15
5.2
5.25
5.3
5.35
5.4
1 / 2 ( X ) 2
e
1 - <#>
52
=50
40
50
=60
0
30
60
1 - <#>
70
53
=0.2
0.5
1.5
1 - <#>
54
1 - <#>
55
1 - <#>
56
La Relacin Entre
ZyX
=100
x
Z
=15
55
70
85
100
115
130
145
-3
-2
-1
1 - <#>
57
1 - <#>
58
1 - <#>
59
1 - <#>
60
La Distribucin Exponencial
Negativa
f ( X ) e
Valoe esperado = 1/
Varianza = 1/2
6
5
4
=5
3
2
1
0
0.2
0.4
0.6
0.8
1 - <#>
1.2
61
La Distribucin Poisson
x e
P( X )
X!
Valor esperado =
Varianza =
0.30
=2
0.25
0.20
0.15
0.10
0.05
0.00
1
1 - <#>
62