Anda di halaman 1dari 118

Maestra en Estadstica

Curso de Nivelacin
Probabilidad
Csar Amarilla
11 de enero de 2012
ndice general
1. INTRODUCCIN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2. ESPACIOS DE PROBABILIDAD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2.1. El espacio muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2.2. lgebra y lgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2.1. Conjuntos de Borel . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2.2. Sucesiones de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.3. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3. Medida de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.1. Algebra de sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.1. Axiomas de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2. Propiedades elementales de la probabilidad . . . . . . . . . . . . . . . 17
2.3.3. Clculo de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.4 Independencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.5 Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.4 Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3. VARIABLES ALEATORIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2. Denicin y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3. Tipos de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3.1. Variable aleatoria discreta . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3.2. Variable aleatoria continua . . . . . . . . . . . . . . . . . . . . . . . 40
3.4. Funciones de probabilidad, de densidad y de distribucin . . . . . . . . . . . 40
3.4.1. Funciones de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 40
3.4.2. Funcin de densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4.3. Funcin de distribucin . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5. Esperanza, varianza y momentos . . . . . . . . . . . . . . . . . . . . . . . . 45
3.5.1. Esperanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.5.2. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5.3. Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.6. Funcin generadora de momentos . . . . . . . . . . . . . . . . . . . . . . . . 51
3.6.1 Propiedades de la funcin generadora de momentos . . . . . . . . . . . 52
3.7. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1
NDICE GENERAL 2
4. VECTORES ALEATORIOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2. Distribuciones conjuntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.1. Funcin de probabilidad conjunta . . . . . . . . . . . . . . . . . . . . 64
4.2.2. Funcin de densidad de probabilidad conjunta . . . . . . . . . . . . . 65
4.2.3. Relacin entre F(x, y) y f (x, y) . . . . . . . . . . . . . . . . . . . . . 65
4.2.3.1. Obtencin de F(x, y) a partir de f (x, y) . . . . . . . . . . . . 65
4.2.3.2. Obtencin de f (x, y) a partir de F(x, y) . . . . . . . . . . . . 66
4.3. Distribucin marginal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.3.1. Funcin de densidad marginal . . . . . . . . . . . . . . . . . . . . . . 66
4.3.2. Funcin de probabilidad marginal . . . . . . . . . . . . . . . . . . . . 67
4.3.3. Funcin de distribucin marginal . . . . . . . . . . . . . . . . . . . . 67
4.4. Distribucin condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.5. Esperanza condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.6. Independencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.7. Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.8. Coeciente de correlacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.8.1. Caractersticas del coeciente de correlacin . . . . . . . . . . . . . . 75
4.9. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5. DISTRIBUCIONES DE PROBABILIDAD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.1. Distribuciones discretas de probabilidad . . . . . . . . . . . . . . . . . . . . 85
5.1.1. Distribucin Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.1.1.1. Construccin de una distribucin de Bernoulli . . . . . . . . 85
5.1.2. Distribucin binomial . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.1.2.1. Construccin de la distribucin binomial . . . . . . . . . . . 86
5.1.3. Distribucin Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.1.3.1. Construccin de una distribucin de Poisson . . . . . . . . . 89
5.1.3.2. Relacin con la distribucin binomial . . . . . . . . . . . . . 91
5.1.4. Distribucin geomtrica . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.1.4.1. Construccin de una distribucin geomtrica . . . . . . . . . 92
5.1.5. Distribucin binomial negativa . . . . . . . . . . . . . . . . . . . . . 93
5.1.5.1. Construccin de una distribucin binomial negativa . . . . . . 94
5.1.6. Distribucin hipergeomtrica . . . . . . . . . . . . . . . . . . . . . . 96
5.1.6.1. Construccin de una distribucin hipergeomtrica . . . . . . 96
5.2. Distribuciones continuas de probabilidad . . . . . . . . . . . . . . . . . . . . 99
5.2.1. Distribucin uniforme continua . . . . . . . . . . . . . . . . . . . . . 99
5.2.2. Distribucin Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2.2.1. Caractersticas de la distribucin de probabilidad normal . . . 103
5.2.2.2. La familia de la distribucin de probabilidad normal . . . . . 104
5.2.2.3. La distribucin normal estndar . . . . . . . . . . . . . . . . 106
5.2.2.4. reas bajo la curva normal . . . . . . . . . . . . . . . . . . . 107
5.2.2.4. Aproximacin normal a la binomial . . . . . . . . . . . . . . 110
ndice de guras
1. Relacin general entre lgebra, lgebra y semilgebra . . . . . . . . . . . 6
2. Representacin grca de y F . . . . . . . . . . . . . . . . . . . . . . . . 20
3. Representacin grca de la denicin de una variable aleatoria . . . . . . . 36
4. Representacin grca de la imagen inversa de un conjunto de Borel . . . . . 37
5. Representacin grca del espacio muestral ={(x, y) : x
2
+y
2
1} . . . . 38
6. Representacin grca de la denicin de un vector aleatorio en dos dimen-
ciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7. Grca de f (x) de la distribucin Poisson . . . . . . . . . . . . . . . . . . . 89
8. Grca de f (x) de la distribucin exponencial . . . . . . . . . . . . . . . . . 99
9. Grca de F(x) de la distribucin exponencial . . . . . . . . . . . . . . . . . 101
10. Grca de f (x) del ejemplo 58 . . . . . . . . . . . . . . . . . . . . . . . . . 102
11. Grca de F(x) del ejemplo 58 . . . . . . . . . . . . . . . . . . . . . . . . . 102
12. Representacin grca de f (x) de una variable aleatoria normal . . . . . . . 103
13. Representacin grca de f (x) para ciertos valores de y
2
de una variable
aleatoria normal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
14. Curvas normales que tienen medias iguales y desviaciones estndar diferentes 105
15. Curvas normales que tienen medias diferentes y desviaciones estndar iguales 105
16. Curvas normales que tienen medias diferentes y desviaciones estndar difer-
entes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3
ndice de cuadros
4
1. INTRODUCCIN
La teora de probabilidad tuvo como punto de partida; el intentar resolver un problema
particular concerniente a una apuesta de un juego de dados entre dos personas. El problema
al que nos referimos involucraba una gran cantidad de dinero y se planteaba de la siguiente
forma:
Dos jugadores escogen cada uno de ellos un nmero del 1 al 6, distinto uno del otro,
y apuestan 32 doblones de oro a que el nmero escogido por uno de ellos aparece en tres
ocasiones antes que el nmero del contrario al lanzar sucesivamente un dado. Suponga que
el nmero de uno de los jugadores ha aparecido dos veces y el nmero del otro una sola vez.
Cmo debe dividirse el total de la apuesta si el juego se suspende?
Uno de los apostadores, Antonio de Gombaud, popularmente conocido como el caballero
De Mere, deseando conocer la respuesta al problema plantea a Blaise Pascal (1623-1662) la
situacin. Pascal a su vez consulta con Pierre de Fermat (1601-1665) e inician un intercambio
de cartas a propsito del problema. Esto sucede en el ao de 1654. Los historiadores de
la matemtica stan generalmente de acuerdo en considerar este hecho como el origen del
estudio de las probabilidades.
Con lo anteriormente mencionado se inician algunos esfuerzos por dar solucin a ste y
otros problemas similares que se plantean. Con el paso del tiempo se sientan las bases y las
experiencias necesarias para la bsqueda de una teora matemtica que sintetice los conceptos
y los mtodos de solucin de los muchos problemas particulares resueltos a lo largo de varios
aos.
Las ideas de probabilidades permanecen circunscritas a los problemas de juegos de azar
hasta que Pierre Laplace (1749-1827) y Friedrich Gauss (1777-1855) hacen notar que las
teorias desarrolladas son aplicables tambin a otras actividades diferentes de los juegos de
azar.
En el segundo congreso internacional de matemticas, celebrado en la ciudad de Paris en
el ao 1900, el matemtico David Hilbert (1862-1943) plantea 23 problemas matemticos
de importancia. Uno de estos problemas es el de encontrar axiomas o postulados a partir
de los cuales se pueda construir una teora matemtica de la probabilidad. Aproximada-
mente treinta aos despus, en 1933, el matemtico ruso Andrei Nikolaevich Kolmogorov
(1903-1987) propone ciertos axiomas basados en la teora de la medida desarrollada por
H. Lebesgue(1875-1941), que a la postre resultaron adecuados para la construccin de una
teora de la probabilidad. Esta teora prevalece hoy en da y ha adquirido el calicativo de
teora clsica. Actualmente la teora clsica de la probabilidad se ha desarrollado y exten-
dido enormemente gracias a muchos pensadores que han contribudo a su crecimiento, y es
sin duda una parte importante y bien establecida de las matemticas. Ha resultado til para
resolver problemas puramente matemticos, pero sobre todo y principalmente, para modelar
situaciones reales o imaginarias, en donde el azar es relevante.
2. ESPACIOS DE PROBABILIDAD
El modelo matemtico creado durante el primer tercio del siglo XX para estudiar los
experimentos aleatorios es el as llamado espacio de probabilidad. Este modelo consiste de
una terna ordenada, denotada usualmente por (, F, P), en donde es un conjunto arbitrario,
F es una lgebra de subconjuntos de , y P es una medida de probabilidad denida sobre
la coleccin F.
A continuacin explicaremos cada uno elementos que componen la terma ordenada, as
como los diferentes conceptos importantes que dan esencia matemtica a la teora de proba-
bilidad.
2.1. El espacio muestral
En la construccin del modelos matemticos es necesario tomar algunos conceptos pri-
mitivos (ideas que se aceptan sin denicin) y algunos axiomas o postulados de los cuales se
obtienen los teoremas que en conjunto constituyen la teora o modelo.
La utilidad de un modelo matemtico depende de lo realista que sea, en el sentido que los
resultados que proporcione representen con suciente aproximacin lo que est entregando
la realidad que se pretende interpretar.
Para presentar formalmente el modelo matemtico de probabilidad necesitaremos intro-
ducir primero algunos conceptos importantes. La primera de estas deniciones la damos a
continuacin.
Denicin 1 (Experimento) Es cualquier procedimiento mediante el cual obtenemos una
observacin.
Podemos decir entonces que se entiende por experimento la ejecucin de un determinado
acto. Por ejemplo, son experimentos:
a) Lanzar al aire una moneda
b) Participar en un juego de lotera
c) Encender la hornalla de una cocina
d) Apagar una bombilla elctrica
Existen dos tipos de experimentos:
los denominados experimentos determinsticos y,
los experimentos aleatorios
2.1. El espacio muestral 2
Los experimentos determinsticos son aquellos que realizados bajo las mismas condi-
ciones, arrojan siempre los mismos resultados. Los items c) y d) del ejemplo anterior son
experimentos de este tipo.
Existen adems de los experimentos determinsticos, otros tipos de experimentos. Aque-
llos que realizados bajo las mismas condiciones no arrojan necesariamente los mismos resul-
tados. Estos tipos de experimentos son denominados aleatorios, debido a que los resultados
posibles en el experimento obedecen a factores fortuitos. Los items a) y b) del ejemplo ante-
rior son experimentos de este tipo.
Obervacin 1: Si el conjunto de resultados posibles de un experimento consta de un solo
elemento el experimento es determinstico, mientras que si consta de ms de un elemento el
experimento es aleatorio. En este curso nos centraremos en los experimentos de naturaleza
aleatoria y los nombraremos con la letra griega .
En el estudio de la teora de probabilidad es de vital importancia el conjunto de resultados
posibles en un experimento aleatorio. Por ello, a continuacin damos la siguiente denicin:
Denicin 2 (Espacio muestral) Se llama espacio muestral, y la designaremos por la
letra griega , al conjunto de resultados posibles en un experimento aleatorio .
Ejemplo 1 Si un experimento aleatorio consiste en lanzar un dado sobre una mesa y
observar el nmero que aparece en la cara superior, entonces claramente el espacio muestral
es el conjunto ={1, 2, 3, 4, 5, 6}.
El espacio muestral asociado a un experimento aleatorio puede no ser nico. A conti-
nuacin damos un ejemplo.
Ejemplo 2 Considere el experimento aleatorio de participar en un juego de lotera.
Suponga que hay un milln de nmeros en esta lotera y un jugador participa con un bo-
leto. Cul es un posible espacio muestral para este experimento?. Naturalmente al jugador
le interesa conocer su suerte en este juego y puede proponer como espacio muestral el conjun-
to
1
={ganar; perder}. Sin embargo puede tambin tomarse como espacio muestral el con-
junto que contiene a todos los posibles nmeros ganadores, es decir,
2
={1, 2, . . . , 1000000}.
Tomando en consideracin el experimento realizado en el ejemplo 1 podramos estar
interasados en obtener resultados tales como
a) Sacar un nmero par: {2, 4, 6}
b) Sacar un nmero mayor que 2: {3, 4, 5, 6}
c) Sacar un nmero impar y menor que 5: {1, 3}
Se observa que estos son subconjuntos del espacio muestral = {1, 2, 3, 4, 5, 6} y natu-
ralmente para considerar todos los resultados que se pueda obtener es aconsejable considerar
todos los subconjuntos del espacio muestral , que en este caso particular, consta de 2
6
= 64
elementos.
Cuando el espacio muestral es nito o numerable, el conjunto de todos los subconjuntos
de lo designaremos por F y en este contexto damos la siguiente denicin:
2.2. lgebra y sigmalgebra 3
Denicin 3 (Evento o suceso) Es cualquier subconjunto del espacio muestral aso-
ciado a un experimento aleatorio .
De acuerdo con esta denicin, cuando sea nito o numerable, todo acontecimiento o
suceso es un elemento de F. Tomando en consideracin a y a F, damos a continuacin la
siguiente denicin:
Denicin 4 Se llama espacio medible de un experimento aleatorio a la dupla (, F).
Los elementos de F reciben el nombre de conjuntos medibles.
Ejemplo 3 Sea el experimento aleatorio consistente en lanzar una moneda. Es evidente
que el espacio muestral para este experimento y el conjunto de posibles sucesos o eventos
estn dados respectivamente por
={Cara, Sello} ={C, S} y F ={/ 0, {C}, {S}, }
Entonces la dupla (, F) constituye el espacio de medida para este experimento aleatorio.
Observacin 2: Cuando el espacio muestral es innito no numerable no se puede consi-
derar todo subconjunto de como un suceso, pues por ejmplo si =R hay subconjuntos de
R que no son medibles y por lo tanto no se puede denir para ellos la nocin de probabilidad.
2.2. lgebra y lgebra
En esta seccin se estudiar el concepto de lgebra y lgebra (sigmalgebra), y se
dene adems la mnima lgebra generada por una coleccin arbitraria de subconjuntos
del espacio muestral .
Denicin 5 (lgebra) Una coleccin F de subconjuntos de es una lgebra si cumple
las siguientes condiciones:
1. F
2. Si A F, entonces A
c
=A F
3. Si A
1
, A
2
, . . . , A
n
F, entonces
n

k=1
A
k
F
Si en vez de tomar una coleccin nita de subconjuntos de , tomamos una coleccin
innita numerable de subconjuntos de y se mantienen las dos primeras condiciones en la
denicin anterior; en lgebra abstracta se dene un lgebra de la siguiente manera:
Denicin 6 (lgebra) Una coleccin F de subconjuntos de es una lgebra si
cumple las siguientes condiciones:
1. F
2. Si A F, entonces A
c
=A F
3. Si A
1
, A
2
, F, entonces

k=1
A
k
F
2.2. lgebra y sigmalgebra 4
En palabras, una lgebra es una coleccin de subconjuntos de que no es vaca y que
es cerrada bajo las operaciones de tomar complemento y efectuar uniones innitas numer-
ables. Estas propiedades garantizan que la coleccin es cerrada al efectuar las operaciones
usuales entre conjuntos, es decir, al tomar las operaciones de unin, interseccin, comple-
mento, diferencia, diferencia simtrica, etc. se obtienen nuevamente elementos de la misma
coleccin.
Se puede notar que la diferencia entre lgebra y lgebra radica en que para la primera
se pide una coleccin cerrada bajo uniones nitas, mientras que para la segunda una coleccin
cerrada bajo uniones innitas numerables. Claramente un lgebra es un lgebra.
En probabilidad elemental el conjunto denota el espacio muestral o conjunto de posi-
bles resultados de un experimento aleatorio, y los elementos de F representan eventos en el
experimento aleatorio. Una lgebra es entonces una estructura que nos permite agrupar
ciertos subconjuntos de de inters, aquellos a los cuales se desea calcular su probabilidad,
y esta estructura constituye el dominio de denicin de una medida de probabilidad. Cuando
el espacio muestral es nito normalmente se toma como lgebra el conjunto potencia de
, pero para espacio muestrales ms generales no siempre puede tomarse esa estructura tan
grande, y deben considerarse entonces lgebras ms pequeas, es por ello que se estudian
estas estructuras. En general existen varias lgebras que pueden asociarse a un conjunto
cualquiera no vaco como se muestra a continuacin.
Ejemplo 4 Sea un conjunto no vaco. Es inmediato comprobar que cada una de las
siguientes colecciones es un -lgebra de subconnjuntos de .
a) F
1
={/ 0, }
b) F
2
={/ 0, A, A
c
, }
c) F
3
= 2

Conjunto potencia
Ejemplo 5 Sean A y B sub-conjuntos de un espacio muestral tales que A B. La
siguiente coleccin es una lgebra de sub-conjuntos de que contiene explcitamente a
los subconjuntos A y B. Puede usted vericar tal armacin con la ayuda de un diagrama de
Venn?.
F ={/ 0, A, B, A
c
, B
c
, BA, (AB)
c
, }
Proposicin 1. La interseccin de dos lgebras es un lgebra
Demostracin
Sean F
1
y F
2
dos lgebras de subconjuntos de un mismo . Entonces F
1
F
2
es
aquella coleccin de subconjuntos de cuyos elementos pertenecen tanto a F
1
como a F
2
.
Demostraremos que F
1
F
2
es una lgebra.
a) Como F
1
y F
2
son lgebras, entonces F
1
y F
2
. Por lo tanto F
1
F
2
.
b) Sea A un elemento en F
1
F
2
. Entonces AF
1
y AF
2
. Por lo tanto A
c
F
1
y A
c
F
2
,
es decir, A
c
F
1
F
2
.
c) Sean A
1
, A
2
, . . . una sucesin de elementos en F
1
F
2
. Entonces A
1
, A
2
, F
1
y
A
1
, A
2
, F
2
. Por lo tanto

n=1
A
n
F
1
y

n=1
A
n
F
2
, es decir

n=1
A
n
F
1
F
2
.
2.2. lgebra y sigmalgebra 5
Hemos entonces comprobado que si F
1
y F
2
son dos lgebras de un mismo conjunto
, entonces F
1
F
2
es nuevamente una lgebra de subconjuntos de , naturalmente ms
pequea que F
1
y F
2
en el sentido F
1
F
2
F
1
, F
2
. La siguiente pregunta consiste en vericar
si la unin de dos lgebras produce nuevamente una lgebra. En este caso la respuesta
es negativa. En general no es cierto que la unin de dos lgebras produce una nueva
lgebra. Por otro lado se puede extender la validez de la proposicin 1 recin demostrada
a intersecciones ms generales como indica el siguiente resultado.
Proposicin 2. La interseccin nita, innita numerable o bien arbitraria de lgebras
es nuevamente una lgebra.
Demostracin
Sea T un conjunto arbitrario distinto del vaco. Suponga que para cada t en T se tiene
una lgebra F
t
de subconjuntos de . Sea F =

tT
F
t
. Siguiendo los mismos pasos que
en la demostracin anterior es fcil probar que F es una lgebra. Observe que como T
es un conjunto arbitrario, la lgebra F es efectivamente una interseccin arbitraria de
lgebras.
Lo demostrado anteriormente garantiza que la siguiente denicin tiene sentido.
Denicin (lgebra generada). Sea C una coleccin no vaca de subconjuntos de .
La lgebra generada por C, denotada por (C), es la coleccin
(C) =

{F : F es lgebra y C F}
Es decir, la coleccin (C) es la interseccin de todas aquellas lgebras que contienen
a C . Por la proposicin 2 anterior sabemos que (C) es una lgebra. A (C) tambin se
le llama mnima lgebra generada por C, y el adjetivo mnima es claro a partir del hecho
de que es la lgebra ms pequea que contiene a la coleccin C. Es decir, si F es una
lgebra que contiene a C, entonces forzosamente (C) F. Observe que C (C) pues
a la coleccin C se le han aadido posiblemente algunos otros subconjuntos para convertirla
en la lgebra (C).
Ejemplo 6. Sean A, Bcon A y B disjuntos. Dena la coleccin C ={A, B}. En general
esta coleccin no es una lgebra pero podemos aadirle algunos subconjuntos de para
encontrar la lgebra generada por C. Resulta que la mnima lgebra que contiene a la
coleccin C es la siguiente. Puede usted demostrar tal armacin?.
(C) ={/ 0, A, A
c
, B, B
c
, AB, (AB)
c
, }
Las proposiciones que se dan a continuacin son sencillas y naturales acerca de lgebras
generadas.
Proposicin 3. Sean C
1
y C
2
dos colecciones de subconjuntos de tales que C
1
C
2
.
Entonces (C
1
) (C
2
).
Demostracin
Como C
1
C
2
por hiptesis y adems por denicin de lgebra generada C
1
(C
1
)
y C
2
(C
2
) entonces C
1
C
2
(C
2
). Por lo tanto (C
2
) es una lgebra que contiene
a la coleccin C
1
y por lo tanto (C
1
) (C
2
).
2.2. lgebra y sigmalgebra 6
Proposicin 4. Si F es una lgebra, entonces (F) =F.
Demostracin
Por denicin de lgebra generada F (F). Por otro lado como F es una lgebra
que contiene a F, entonces (F) F. Esto demuestra la igualdad.
Denicin 7 (Semilgebra) Una coleccin L de subconjuntos de es una semilgebra
si cumple las siguientes condiciones:
1. L
2. Si A, B L, entonces AB L
3. Si A, A
1
L, entonces existen A
2
, A
3
, . . . , A
n
Ltales que A
i
A
j
= / 0 con i, j {2, 3, . . . , n}
y i = j y se cumple que A =
n

k=1
A
k
.
Los conceptos de lgebra, lgebra y semilgebra estn relacionados como se muestra
en la Figura 1.
Figura 1: Relacin general entre lgebra, lgebra y semilgebra
A continuacin estudiaremos un ejemplo particular de lgebra de subconjuntos de
nmeros reales: la lgebra de Borel.
2.2.1. Conjuntos de Borel
Considere la coleccin de todos los intervalos abiertos (a, b) de R, en donde a b. A la
mnima lgebra generada por esta coleccin se le llama lgebra de Borel de R, y se le
denota por B(R).
Denicin 8 (lgebra de Borel de R)
B(R) ={(a, b) R : a b}
2.2. lgebra y sigmalgebra 7
A los elementos de B(R) se les llama conjuntos de Borel, Borelianos o conjuntos Borel
medibles. De esta forma se puede asociar la lgebra B(R) al conjunto de nmeros reales,
y obtener as el espacio medible (R, B(R)). Se muestran a continuacin algunos elementos
explcitos de esta lgebra.
Proposicin 5. Para cualesquiera nmeros reales a b, los intervalos [a, b], (a, ), (, b),
(a, b], [a, b) y {a}, son todos elementos de B(R).
Demostracin
Primeramente demostraremos que los intervalos cerrados [a, b] son conjuntos Borelianos,
pues podemos escribirlos en trminos de una interseccin numerable de intervalos abiertos
de la siguiente forma
[a, b] =

n=1
_
a
1
n
, b+
1
n
_
Observe que cada elemento de la interseccin anterior es un conjunto Boreliano. Siendo
B(R) una lgebra, la interseccin innita es un elemento de B(R). De esta forma se
concluye que cada intervalo cerrado es un conjunto de Borel. Adems tenemos que
(a, ) =

n=1
(a, a+n) B(R) y (, b) =

n=1
(bn, b) B(R)
y por lo tanto
[a, ) =

n=1
_
a
1
n
,
_
B(R) y (, b] =

n=1
_
, b+
1
n
_
B(R)
De forma anloga se puede hacer ver que los intervalos semiabiertos de la forma [a, b),(a, b]
son conjuntos borelianos. Los conjuntos que constan de un solo nmero tambin son conjun-
tos Borelianos pues
{a} =

n=1
_
a
1
n
, a+
1
n
_
Complementos, intersecciones y uniones numerables de estos conjuntos son todos ellos
Borelianos.
Adems de la denicin enunciada, existen otras formas equivalentes de generar a los
conjuntos Borelianos. Este es el contenido de la siguiente proposicin.
Proposicin 6. Las siguientes lgebras son todas idnticas a B(R).
1. {[a, b] R : a b}
2. {(a, b] R : a b}
3. {[a, b) R : a b}
4. {(a, ) R : a R}
5. {(, b) R : b R}
2.2. lgebra y sigmalgebra 8
Demostracin
Para demostrar que B(R) = {[a, b] R : a b} se vericarn ambas contenciones.
Como se vi anteiromente [a, b] B(R) entonces {[a, b] R : a b} B(R). Por lo tanto
{[a, b] R : a b} B(R). Adems al intervalo abierto (a, b) la podemos expresar como
(a, b) =

n=1
_
a+
1
n
, b
1
n
_
entonces {(a, b) : a b} {[a, b] R : a b}. Por lo que se tiene
B(R) ={[a, b] R : a b}
Los puntos 2), 3), 4) y 5) se demustran utilizando el mismo procedimiento. Por lo que ya
no se demostrarn y que a cargo del lector.
De manera equivalente se puede denir a B(R) como la mnima lgebra generada por
todos los subconjuntos abiertos de R. En ambos casos la lgebra generada es B(R). Es
natural preguntarse si la coleccin B(R) contiene a todos los subconjuntos de R. La respuesta
es negativa, es decir, puede demostrarse que existe un subconjunto de los nmeros reales que
no pertenece a la coleccin B(R). La construccin del tal conjunto no es sencilla, y puede
obtenerse indirectamente de la siguiente forma: la coleccin B(R) est contenida en una
clase ms amplia llamada la coleccin de conjuntos Lebesgue medibles de R, y se demuestra
que existen subconjuntos de R que no son Lebesgue medibles, y por tanto tampoco Borel
medibles. Los detalles de estas armaciones pueden encontrarse en textos de teora de la
medida. Es posible tambin considerar la lgebra de conjuntos de Borel restringidos a una
porcin de los nmeros reales como se indica a continuacin.
Denicin 9 Sea A B(R). La lgebra de Borel de A, denotada por B(A) o por
AB(R), se dene como sigue
B(A) ={AB : B B(R)}
No es difcil comprobar que la coleccin B(A) es efectivamente una lgebra de sub-
conjuntos de A. Observe que el nuevo conjunto total es A y no R. El concepto de lgebra
de Borel de R puede extenderse a dimensiones mayores de la siguiente forma. Considere la
coleccin C de todas los rectngulos abiertos de R
2
, es decir,
C ={(a, b) (c, d) : a bc d}
Se denen los conjuntos de Borel de R
2
como los elementos de la mnima lgebra
generada por la coleccin C , es decir, B(R
2
) = (C). De manera equivalente se puede
denir
B(R
2
) =(B(R) B(R))
En forma anloga se dene B(R
n
) usando productos cartesianos de intervalos.
Denicin 9 (lgebra de Borel de R
n
)
B(R
n
) =(B(R) B(R) B(R))
En general el producto cartesiano de dos lgebras no es una lgebra de subconjun-
tos del espacio producto, de modo que debe anteponerse la operacin a tal coleccin para
convertirla en una lgebra.
2.2. lgebra y sigmalgebra 9
2.2.2. Sucesiones de eventos
En esta seccin se estudia el concepto de convergencia de una sucesin innita de eventos.
Para enunciar tal concepto necesitaremos antes las deniciones de lmite superior y lmite
inferior para conjuntos.
Denicin 10 (Limite superior e inferior de sucesos) Para una sucesin de eventos
{A
n
: n N}, se dene el lmite superior y el lmite inferior como sigue:
1. lm
n
sup A
n
=

n=1

k=n
A
k
2. lm
n
inf A
n
=

n=1

k=n
A
k
Tanto el lmite superior como el lmite inferior son operaciones bien denidas, es decir,
el resultado siempre existe y es nico. En cada caso, el conjunto resultante es siempre un
evento, es decir, un conjunto medible. Es sencillo tambin comprobar que
lm
n
inf A
n
lm
n
sup A
n
Tampoco es difcil vericar que un elemento pertenece al evento lmite superior si, y slo
si, pertenece a una innidad de elementos de la sucesin. Por otro lado un elemento pertenece
al evento lmite inferior si, y slo si, pertenece a todos los elementos de la sucesin excepto
un nmero nito de ellos.
Denicin 11 (Convergencia de eventos) Sea {A
n
: n N} una sucesin de eventos. Si
existe un evento A tal que
lm
n
inf A
n
= lm
n
sup A
n
entonces se dice que la sucesin converge al evento A, y se escribe
A = lm
n
A
n
Para calcular el posible lmite de una sucesin de eventos debemos entonces calcular el
lmite superior y el lmite inferior, y cuando el resultado de ambas operaciones coincida,
entonces a tal resultado comn se le llama el lmite de la sucesin.
Ejemplo 7 Para cada nmero natural n dena el conjunto A
n
=
_

1
n
, 0
_
si n es impar,
y A
n
=
_
0 ,
1
n
_
si n es par. Entonces lm
n
A
n
= {0} pues el lmite superior e inferior son
respectivamente
lm
n
sup A
n
=

n=1

k=n
A
k
=

n=1
_

1
n
,
1
n
_
={0}
lm
n
inf A
n
=

n=1

k=n
A
k
=

n=1
{0} ={0}
Demostramos a continuacin que en particular toda sucesin montona es convergente.
Proposicin 7. Sea {A
n
: n N} una sucesin montona de eventos.
2.2. lgebra y sigmalgebra 10
1. Si A
1
A
2
. . . , entonces lm
n
A
n
=

n=1
A
n
2. Si A
1
A
2
. . . , entonces lm
n
A
n
=

n=1
A
n
Desarrollo
1. Como la sucesin es creciente, esto es A
1
A
2
. . . , entonces (observe el valor inicial
del subndice en las operaciones de unin e interseccin),

k=n
A
n
=

n=1
A
n
y

k=n
A
n
= A
n
entonces se tiene que el lmite superior e inferior son respectivamente
lm
n
sup A
n
=

n=1

k=n
A
k
=

n=1

n=1
A
n
=

n=1
A
n
lm
n
inf A
n
=

n=1

k=n
A
k
=

n=1
A
n
Por lo tanto lm
n
A
n
=

n=1
A
n
.
2. El procedimiento es completamente anlogo al inciso anterior. En este caso como la
sucesin es decreciente, esto es A
1
A
2
. . . , se tiene que

k=n
A
n
= A
n
y

k=n
A
n
=

n=1
A
n
entonces el lmite superior e inferior son respectivamente
lm
n
sup A
n
=

n=1

k=n
A
k
=

n=1
A
n
lm
n
inf A
n
=

n=1

k=n
A
k
=

n=1

n=1
A
n
=

n=1
A
n
Con lo cual lm
n
A
n
=

n=1
A
n
.
El siguiente resultado establece que a partir de una sucesin de eventos puede cons-
truirse otra sucesin cuyos elementos son ajenos dos a dos, y cuya unin es la unin de
la sucesin original. Este procedimiento de separacin ser de utilidad ms adelante.
2.2. lgebra y sigmalgebra 11
Proposicin 8. Sea {A
n
: n N} una sucesin de eventos. Dena
B
1
= A
1
y B
n
= A
n

n1

k=1
A
k
, para n 2
Entonces la sucesin de eventos {B
n
: n N} satisface las siguientes propiedades:
1. B
n
A
n
2. B
n
B
m
= / 0, si n = m
3.

n=1
B
n
=

n=1
A
n
Demostracin
1. Es evidente que B
n
A
n
a partir de la denicin de B
n
.
2. Podemos suponer que n < m sin prdida de generalidad, entonces
B
n
B
m
= (A
n

n1

k=1
A
k
) (A
m

m1

k=1
A
k
)
= (A
n

n1

k=1
A
c
k
) (A
m

m1

k=1
A
c
k
)
A
n
A
c
n
= / 0
Entonces B
n
B
m
= / 0.
3. Como cada B
n
est contenido en A
n
, N, entonces

n=1
B
n

n=1
A
n
. Por otro lado,
sea x un elemento arbitrario en

n=1
A
n
. Entonces existe un ndice n tal que x A
n
. Sea
n
0
el primer ndice tal x A
n
0
y x A
j
, para 1 j n
0
1. Entonces
x A
n
0

n
0
1

n=1
A
n
0
= B
n
0
por lo que x

n=1
B
n
. Entonces se tiene que

n=1
B
n
=

n=1
A
n
2.2. lgebra y sigmalgebra 12
2.2.3. Problemas
lgebra, lgebra y semilgebra
1. Denicin alternativa de lgebra. Demuestre que F es una lgebra de subconjuntos de
si, y slo si, cumple las siguientes condiciones:
a) F
b) Si A, B F, entonces AB F
2. Demuestre que F es lgebra =F es lgebra =F es semilgebra.
3. Demuestre que ((C)) =(C) , en donde C una coleccin de subconjuntos de .
4. Demuestre que (C
1
C
2
) =((C
1
) (C
2
)), en donde C
1
y C
2
son dos colecciones
no vacas de subconjuntos de .
5. Denicin alternativa de lgebra. Demuestre que F es una lgebra de subcon-
juntos de si, y slo si, satisface las siguientes propiedades:
/ 0 F
Si A F entonces A
c
F
Si A
1
, A
2
, F, entonces

n=1
A
n
F
6. Denicin alternativa de lgebra. Demuestre que F es una lgebra de subcon-
juntos de si, y slo si, satisface las siguientes propiedades:
F
Si A, B F entonces AB F
Si A
1
, A
2
, F, entonces

n=1
A
n
F
7. Sea F una lgebra de subconjuntos de . Demuestre que la coleccin
F
c
={F
c
: F F}
es una lgebra. Compruebe que F
c
y F coinciden.
8. Sea = {a, b, c, d}, y sean A = {a, b} y B = {b, c}. Dena la coleccin C = {A, B}.
Claramente C no es una lgebra. Encuentre (C).
9. Sea F una lgebra de subconjuntos de y sea A un elemento de F. Demuestre que la
coleccin {AF : F F} es una lgebra de subconjuntos de A. Se usan los smbolos
F
A
AF para denotar a esta coleccin.
10. Es la diferencia de dos lgebras una lgebra?. Demuestre o proporcione un
contraejemplo.
2.2. lgebra y sigmalgebra 13
11. Sean F
1
y F
2
dos lgebras de subconjuntos de . Demuestre que F
1
F
2
no nece-
sariamente es una lgebra.
Observacin: Para ello considere el conjunto ={1, 2, 3} y forme dos lgebras.
12. Sean F
1
y F
2
dos lgebras de subconjuntos de tales que F
1
F
2
. Demuestre que
F
1
F
2
es una lgebra de .
13. Sean A, B arbitrarios. Encuentre explcitamente todos los elementos de ({A, B}).
Por el ejercicio anterior, el total de elementos en ({A, B}) es, en el caso ms general,
16.
14. Sea {A, B,C} una particin de . Encuentre explcitamente los ocho elementos de
({A, B,C}).
15. Sea C una coleccin de subconjuntos de . Diga falso o verdadero justicando en cada
caso: C (C) 2

.
16. Demuestre que 2

es una lgebra de subconjuntos de y que no existe una lgebra


de subconjuntos de que sea ms grande.
Conjuntos de Borel
17. Demuestre que B(R) ={(a, b] R : a b}
18. Demuestre que B(R) ={[a, b) R : a b}
19. Demuestre que B(R) ={(a, ) R : a R}
20. Demuestre que B(R) ={[a, ) R : a R}
21. Demuestre que B(R) ={(, b) R : b R}
22. Demuestre que B(R) ={(, b] R : b R}
Sucesiones de eventos
23. Sea {A
n
: n N} una sucesin de eventos. Demuestre que
a) lm
n
sup A
n
es un evento.
b) lm
n
nf A
n
es un evento.
c) lm
n
inf A
n
lm
n
sup A
n
24. Suponga A
n
B
n
para cada n en N. Demuestre que
a) lm
n
sup A
n
lm
n
sup B
n
b) lm
n
inf A
n
lm
n
inf B
n
c) lm
n
inf A
n
lm
n
sup B
n
2.2. lgebra y sigmalgebra 14
25. Sea {a
n
: n N} una sucesin de nmeros no negativos convergente al nmero a 0.
Sea A
n
= [0, a
n
]. Calcule el lm
n
sup A
n
y lm
n
inf A
n
.
26. Determine si cada una de las siguientes sucesiones de conjuntos es convergente.
a) A
n
=
_
1
n
, 2+(1)
n
_
R.
b) A
n
={(x, y) R
2
: x
2
+y
2

_
1+
1
n
_
n
}
27. Demuestre que las siguientes sucesiones de eventos no son convergentes.
a) A
n
= / 0 si es impar y A
n
= es par
b) A
n
(0, 1+(1)
n
) R
28. Encuentre condiciones sobre los eventos A y B para que la siguiente sucesin de eventos
sea convergente.
A
n
=
_
A si n es par
B si n es impar
29. Suponga que lm
n
A
n
= A. Demuestre que para cualquier evento B,
a) lm
n
(A
n
B) = AB
b) lm
n
(A
n
B) = AB
c) lm
n
(A
n
B) = AB
d) lm
n
(A
n
B) = AB
30. Suponga que lm
n
A
n
= A y lm
n
B
n
= B. Diga falso o verdadero. Demuestre en cada
caso.
a) lm
n
lm
m
(A
n
B
m
) = AB
b) lm
n
lm
m
(A
n
B
m
) = AB
c) lm
n
lm
m
(A
n
B
m
) = AB
d) lm
n
lm
m
(A
n
B
m
) = AB
31. Suponga que lm
n
A
n
= A y lm
n
B
n
= B. Diga falso o verdadero. Demuestre en cada
caso.
a) lm
n
(A
n
B
n
) = AB
b) lm
n
(A
n
B
n
) = AB
c) lm
n
(A
n
B
n
) = AB
d) lm
n
(A
n
B
n
) = AB
2.3. Medida de probabilidad 15
2.3. Medida de probabilidad
2.3.1. Algebra de sucesos
Antes de entrar a detallar la teora sobre la medida de probabilidad, veremos como se
puede expresar las proposiciones del lenguaje ordinario, mediante un lenguje matemtico.
Como los sucesos, eventos o acontecimientos son conjuntos, el lenguaje matemtico na-
tural que es ndicado para esta situacin es la smbologa utilizada en la teora de conjuntos.
Por lo tanto para establecer un lgebra de sucesos es necesario la utilizacin del lgebra de
conjuntos.
Denicines
1. Si A es un suceso de un espacio medible (, F), denotaremos con A
c
(el complemento
de A), el suceso que ocurre si y slo A no ocurre. A
c
es la negacin de A.
2. Al suceso lo llamamos suceso seguro de ocurrir o certeza y al suceso
c
= / 0 lo
llamaremos suceso imposible de ocurrir.
3. Si A y B son dos sucesos de un espacio medible (, F) designaremos con
a) AB al suceso, almenos uno de los dos sucesos A o B ocurren.
b) AB al suceso, A y B ocurren simultneamente.
c) AB = AB
c
al suceso, A ocurre pero B no ocurre.
Respecto a las operaciones unin e interseccin es bien sabido que si A,B y C son tres
sucesos de entonces:
i) A / 0 =A, AA =A, A= iv) A / 0 = / 0, AA =A, A=A
ii) AB = BA v) AB = BA
iii) (AB) C = A(BC) vi) (AB) C = A(BC)
4. Si A
1
, A
2
, . . . , A
k
, . . . son sucesos de un espacio medible (, F) designaremos con
n

k=1
A
k
,
con n nito o no, al suceso que ocurre si y slo si almenos uno de los A
k
ocurre.
5. Si A
1
, A
2
, . . . , A
k
, . . . son sucesos de un espacio medible (, F) designaremos con
n

k=1
A
k
,
con n nito o no, al suceso que ocurre si y slo si cada uno de los A
k
ocurre.
6. En un espacio medible (, F) dos sucesos A y B se dirn incompatibles o mutuamente
excluyentes si
AB = / 0
Con esto expresaremos que la ocurrencia de ambos eventos al mismo tiempo es im-
posible, osea A ocurre si B no ocurre y viceversa.
2.3. Medida de probabilidad 16
7. En un espacio medible (, F) diremos que un suceso A implica el suceso B, si y solo
si: al ocurrir A debe necesariamente ocurrir B. Esta implicancia la expresaremos como
A B.
Respecto a la inclusin en el lgebra de conjuntos se tiene que si A, B y C son sucesos
del espacio medible (, F) entonces
i) A BB C entonces A C
ii) / 0 A
iii) AB A AB
8. Si A y B son dos sucesos de un espacio medible (, F); designaremos al suceso ocurre
exactamente uno de los sucesos A o B, ocurre A o B pero no ambos, por
AB = (AB) (AB) = (AB) (BA)
2.3.2. Axiomas de probabilidad
En este prrafo, presentaremos una denicin axiomtica de la nocin de probabilidad y
algunas consecuencias que resultan inmediatas.
Denicin 12 (Medida de probabilidad): Sea (, F) un espacio medible. Una medida
de probabilidad es una funcin P : F [0, 1] que satisface
A1) P(A) 0, A F
A2) P() = 1
A3) Si A
1
, A
2
, F disjuntos dos a dos, esto es A
i
A
j
= / 0 para i = j, entonces
P
_

n=1
A
n
_
=

n=1
P(A
n
)
Entonces toda funcin P denida sobre una lgebra F, con valores en el intervalo [0, 1]
y que cumpla los tres puntos anteriores se le llama medida de probabilidad o probabilidad
axiomtica. A los tres puntos de la denicin anterior se les llaman axiomas de probabilidad
y fueron establecidos por A. N. Kolmogorov en 1933. En particular, la tercera propiedad se
conoce con el nombre de aditividad.
Ejemplo 7: Para el experimento aleatorio: Se lanza un moneda carcaga, se tiene que
={cara, sello} ={c, s} y F ={/ 0, {c}, {s}, }
Se dene en el espacio medible (, F) la funcin P : F [0, 1] de la siguiente manera
P(A) =
_

_
0 si A = / 0
0, 3 si A ={c}
0, 7 si A ={s}
1 si A ={c, s}
2.3. Medida de probabilidad 17
Se puede ver que la funcin P : F [0, 1] es una medida de probabilidad pues cumple
con A1), A2) y A3).
Denicin 13: Sea P(

) una funcin de probabilidad denida en un espacio medible


(, F) y A un suceso. El nmero P(A) ser la probabilidad de ocurrencia del suceso A.
Denicin 14: Un espacio de probabilidad es una terna (, F, P) donde (, F) es un
espacio medible y P una funcin de probabilidad denida en l.
Ejemplo 8: En el ejemplo 7 el espacio medible para el experimento aleatorio estaba
dada por (={c, s}, F ={/ 0, {c}, {s}, }) y la funcin de probabilidad P est denida como
P(A) =
_

_
0 si A = / 0
0, 3 si A ={c}
0, 7 si A ={s}
1 si A ={c, s}
Entonces el espacio de probabilidad o modelo de probabilidad en este caso est dada por
la terma ({c, s}, {/ 0, {c}, {s}, {c, s}}, P).
2.3.2. Propiedades elementales de la probabilidad
A partir de los axiomas de probabilidad enunciados en la seccin anterior es posible de-
mostrar una extensa serie de propiedades que cumplen todas las medidas de probabilidad.
A continuacin el siguiente postulado enuncia algunas propiedades elementales que posible-
mente ya conoce el lector.
Proposicin 9: Sea (, F, P) un espacio de probabilidad. Entonces
1. P(/ 0) = 0
2. Si A
1
, A
2
, . . . , A
n
F son ajenos dos a dos, entonces
P
_ n

k=1
A
k
_
=
n

k=1
P(A
k
)
3. P(A
c
) = 1P(A)
4. Si A B, entonces P(BA) = P(B) P(A)
5. Si A B, entonces P(A) P(B)
6. 0 P(A) 1
7. P(AB) = P(A) +P(B) P(AB)
8. P(AB) P(A) +P(B)
2.3. Medida de probabilidad 18
2.3.3. Clculo de probabilidad
En esta seccin determinaremos una expresin que nos permita calcular el valor nmerico
de la probabilidad de un suceso. Para encontrar esta expresin debemos tener presente todo
lo que demostramos anteriomente con respecto a la lgebra, esto es que es cerrada bajo la
unin, interseccin, complementacin y diferencia.
Adems las tres condiciones impuestas a la lgebra de conjuntos de garantizan el
hecho de poder denir la probabilidad de cada uno de los sucesos de F, pues todos ellos son
medibles.
Teorema 1 (Probabilidad clsica): Sea (, F) un espacio medible y sea (

) una medida
de F en R con () < (medida nita), entonces la funcin P(

) denida por
P(A) =
(A)
()
, A F
es una funcin de probabilida.
Desarrollo
Para demostrar que P(

) es una medida de probabilidad debemos demostrar que cumple


los tres axiomas de probabilidad. As tenemos
1. Como (

) es una medida de F en R entonces (A) 0 para cualquier A F. Por lo


tanto
P(A) =
(A)
()
0
con lo cual se cumple el axioma 1.
2. Como () < tenemos que
P() =
()
()
= 1
con lo cual se cumple el axioma 2.
3. Sean A
1
, A
2
, F con A
i
A
j
= / 0 para i = j. Como (

) es una medida nita y toda


medida nita es aditiva entonces se tiene que
_

n=1
A
n
_
=

n=1
(A
n
). Por lo tanto
P
_

n=1
A
n
_
=

n=1
A
n
_
()
=

n=1
(A
n
)
()
=

n=1
(A
n
)
()
=

n=1
P(A
n
)
con lo cual se cumple el axioma 3.
Particularmente si el espacio muestral es nito, para cada suceso A F, se tiene:
(A) = cardinalidad de A = #A
y entonces la probabilidad del suceso A, se calcula por medio de la expresin
2.3. Medida de probabilidad 19
P(A) =
nmero de casos favorables a A
nmero de casos posibles
=
#A
#
(1)
Ejemplo 9: De un mazo de 40 cartas se escogen dos al azar. Calcular las siguientes
probabilidades
a) de que ambas sean espadas (A)
b) de que una sea de copa y la otra de oro (B)
Desarrollo
Dos cartas de un mazo de 40 se pueden tomar de
_
40
2
_
= 780 maneras. Por lo tanto la
medida del espacio muestral est dada por #= 780.
a) Como en el mazo de 40 cartas se tienen un total de 10 cartas que son de espadas y se
pueden escoger de entre de ellas 2 de
_
10
2
_
= 45 maneras. Por lo que la medida del
evento A est dada por #A = 45. Entonces la probabilidad de que ocurra el evento A se
obtiene de la siguiente manera
P(A) =
#A
#
=
45
780
=
3
52
b) En mazo de 40 cartas tenemos 10 de copas y 10 de oros, por lo que escoger una de
copa se puede realizar de 10 maneras, lo mismo implica escoger una de oro, esto es
de 10 maneras. Por lo tanto escoger una de copa y una de oro se puede realizar de
1010 = 100 maneras. Entonces la medida del evento B est dada por #B = 100. Con
lo cual la probabilidad de que ocurra el evento B es
P(B) =
#B
#
=
100
780
=
5
39
Cuando el espacio muestral del experimento aleatoria , sea una longitud, un rea o un vo-
lumen, la probabilidad de un suceso A, por extensin a lo dicho precedentemente, se calcular
por medio de alguna de las tres expresiones que se presentan a continuacin:
P(A) =
Longitud de A
Longitud de
(2)
P(A) =
rea de A
rea de
(3)
P(A) =
Volumen de A
Volumen de
(4)
Estos espacios de probabilidad reciben el nombre de probabilidades geomtricas.
Ejemplo 10: Se escoge un nmero del intervalo [4, 4]. Determinar la probabilidad de
que el valor absoluto del nmero extrado sea menor que 3.
2.3. Medida de probabilidad 20
Desarrollo
Denominemos con x al nmero seleccionado. Nombremos por F al suceso nmero se-
leccionado es menor que 3. Entonces
F ={x [4, 4] : |x| < 3} = (3, 3)
La medida del espacio muestral y la medida del suceso F son respectivamente 8 y 6.
Con lo cual
P(F) =
#F
#
=
6
8
=
3
4
Ejemplo 11: Se toma al azar dos nmeros comprendidos entre 0 y 2. Determine la pro-
babilidad que la suma de ellos no supere 2 y que su producto no sea mayor que
5
9
.
Desarrollo
En primer trmino llamemos x e y a los nmeros seleccionados. Entonces el espacin
muestral para este experimento aleatorio esta dado por el rectngulo [0, 2] [0, 2] = [0, 2]
2
y
el evento F la suma de x e y no supere 2 y que su producto no sea mayor que
5
9
esta dada por
F ={(x, y) [0, 2]
2
: x +y 2xy
5
9
}
Figura 2: Representacin grca de y F
La Figura 2 nos muestra que la medida del evento F es el rea sombreada. Para calcular
esta rea mecesitamos calcular primero las coordenadas de los puntos D y E, que resultan
ser
_
1
3
,
5
3
_
,
_
5
3
,
1
3
_
respectivamente. Estas coordenadas se obtienen resolviendo el sistema
de ecuaciones dada a continuacin
_
_
_
x +y = 2
xy =
5
9
2.3. Medida de probabilidad 21
El rea sombreada se clcula mediante la expresin
(F) =
1
3
0
(2x) dx +
5
3
1
3
5
9x
dx +

2
5
3
(2x) dx =
2
3
+
5
9
ln5
Por lo que la probabilidad pedida est dada por
P(F) =
(F)
()
=
2
3
+
5
9
ln5
4
=
1
6
+
5
36
ln5 = 0, 3902
2.3.4 Independencia de sucesos
En esta seccin daremos la denicin de uno de los puntos importantes en la teora de
probabilidad, esto es el concepto de independencia de eventos. La independencia es uno de
los puntos centrales en el estudio de la teora de la probabilidad y constituye uno de los
grandes distintivos en el estudio de los fenmenos aleatorios.
Matemticamente la independencia estocstica entre dos eventos se dene de la siguiente
manera:
Denicin 15: Sean A y B dos eventos en el espacio de probabilidad (, F, P). Se dice
que los eventos A y B son independientes si y slo si
P(AB) = P(A) P(B) (5)
Si no cumple con lo especicado en la denicin anterior diremos que los eventos A y B
son estocsticamente dependientes.
Ejemplo 12: De una mazo de 52 cartas se selecciona una. Se consideran los siguientes
sucesos o eventos
A: La carta seleccionada es un diamante
B: La carta sacada es un dos
Determine si A y B son independientes.
Desarrollo
Si A y B fuesen independientes entonces se tendra que cumplir P(AB) = P(A) P(B).
La medida del evento A y B son sencillas de determinar y son respectivamente
P(A) =
13
52
y P(B) =
4
52
=
1
13
entonces
P(A) =
13
52

4
52
=
1
13
=
1
52
Por otro lado la probabilidad de que la carta extrada sea el dos de diamantes es
P(AB) =
1
52
Con lo cual A y B son independientes.
2.3. Medida de probabilidad 22
2.3.5 Probabilidad condicional
Los conceptos de probabilidad condicional e independencia surgieron de manera natural
en el proceso de encontrar solucin a algunos problemas provenientes de situaciones reales.
En esta seccin estudiaremos el concepto de probabilidad condicioonal y demostraremos
adems dos resultados de amplia aplicacin: el teorema de probabilidad total y el teorema de
Bayes.
Antes de dar la denicin de probabilidad condicional veamos como motivacin una pe-
quea historia que se conoce como el dilema de los tres pricioneros.
Un prisionero recibe la informacin de que uno de los prisioneros en su celda ser ejecu-
tado maana. Con l son tres en la celda por lo que el prisionero considera que su probabilidad
de morir con solamente esa informacin es de
1
3
. Por curiosidad el prisionero le pregunta a
uno de los guardias el nombre de alguno de los otros dos prisioneros que no ser ejecutado
maana. Como el guardia sabe que eso no le da ninguna informacin al prisionero accede a
darle el nombre. Pero ahora con la nueva informacin el pricionero razona que su probabili-
dad de morir subi a
1
2
y lamenta profundamente haber hecho la pregunta al guardia.
Se puede notar entonces que la nueva informacin dada por el guardia al prisionero mod-
ica la probabilidad de que este sea ejecutado pero este hecho no lleva a ninguna contradic-
cin, ya que
1
2
es la probabilidad de que el prisionero sea ejecutado sabiendo que uno de los
ocupantes de su celda no ser ejecutado que no es lo mismo que la probabilidad de que el
muera sin informacin adicional.
Denicin 16 (Probabilidad condicional) En el espacio de probabilidad (, F, P), sean
A y B dos eventos en donde B es tal que su probabilidad es estrictamente positiva. La proba-
bilidad condicional del evento A dado que ha ocurrido el evento B, denotada por P(A|B), se
dene como sigue:
P(A|B) =
P(AB)
P(B)
(6)
La expresin P(A|B) se lee probabilidad condicional del evento A dado el evento B, o
simplemente probabilidad de A dado B. Es claro que para que la denicin tenga sentido
se necesita suponer que P(B) > 0, y por otro lado no existe denicin para P(A|B) cuando
P(B) = 0. Est denicin tendr validez siempre que la funcin P(

) sea realmente una


probabilidad, es decir cumpla con los tres axiomas de probabilidad.
Teorema 2 Si P(B) > 0, la funcin P(

) es una funcin de probabilidad en el espacio


medible (, F ), es decir
1. P(A|B) 0 A F
2. P(|B) = 1
3. P(

i=1
A
i
|B) =

i=1
P(A
i
|B) con A
1
, A
2
, F y A
i
A
j
con i = j
Demostracin
2.3. Medida de probabilidad 23
Por hiptesis P(B) > 0 y como P(AB) 0 por ser P(

) una medida de probabiliad,


entonces
P(A|B) =
P(AB)
P(B)
0
con lo cual queda probabdo el axioma 1.
Como
P(|B) =
P(B)
P(B)
=
P(B)
P(B)
= 1
con lo que probamos el axioma 2.
Finalmente
P(

i=1
A
i
|B) =
P(

i=1
A
i
B)
P(B)
=
P
_

i=1
(A
i
B)
_
P(B)
=

i=1
P(A
i
B)
P(B)
=

i=1
P(AB)
P(B)
=

i=1
P(A
i
|B)
con lo cual probamos el axioma 3.
Ilustraremos con un ejemplo el signicado de la probabilidad condicional y comprobare-
mos que el evento B representa informacin adicional acerca del experimento aleatorio que
modica, en general, las probabilidades de los distintos eventos.
Ejemplo 13: Considere el experimento de extraer un naipe de un mazo de 40 (baraja
espaola), sean los eventos A ={se extrae un as} y B ={el naipe extraido es de copas}.
Como en el mazo de 40 barajas hay un solo as de copas y 10 naipes de copas en total se tiene
que P(AB) =
1
40
y P(B) =
10
40
, entonces la probabilidad de que ocurra A dado que se sabe
que ocurri B es
P(A|B) =
P(AB)
P(B)
=
1
40
10
40
=
1
10
Nota: De acuerdo al teorema precedente resulta que cada propiedad establecida para una
funcin de probabilidad, es vlida tambin para la probabilidad condicionada y por ello se
tiene:
Proposicin 10: Sea (, F, P) un espacio de probabilidad. Entonces
1. P(/ 0|B) = 0
2. P
_ n

i=1
A
i
|B
_
=
n

i=1
P(A
i
|B)
3. P(A|B) = 1P(A
c
|B)
4. P(A|B) P(C|B) con A C
5. 0 P(A|B) 1
6. P(AC
c
|B) = P(A|B) P(AC|B)
7. P(AC|B) = P(A|B) +P(C|B) P(AC|B)
2.3. Medida de probabilidad 24
8. P(AB) = P(A|B) P(B) con P(B) > 0
P(AB) = P(B|A) P(A) con P(A) > 0
Antes de dar el teorema referente a la regla del producto es importante mencionar que por
motivos de simplicar la notacin

n=1
A
k
se suele utilizar la expresin A
1
A
2
A
3
. . .
Teorema 3 (Regla del producto): En un espacio de probabilidad (, F, P) dados n suce-
sos cualesquiera para los cuales: P(A
1
A
2
. . . A
n1
) > 0, se tiene
P(A
1
A
2
. . . A
n
) = P(A
1
) P(A
2
|A
1
) P(A
3
|A
1
A
2
) P(A
n
|A
1
A
2
. . . A
n1
) (7)
Demostracin
Como primer paso probaremos la existencia de cada una de las probabilidades contenidas
en la tesis, es decir la existencia de
P(A
1
), P(A
2
|A
1
), P(A
3
|A
1
A
2
), . . . , P(A
n
|A
1
A
2
. . . A
n1
)
Por hiptesis P(A
1
A
2
. . . A
n1
) > 0 y por teoria de conjuntos sabemos que
A
1
A
1
A
2
A
1
A
2
A
3
A
1
A
2
. . . A
n1
por lo que
P(A
1
) P(A
1
A
2
) P(A
1
A
2
A
3
) P(A
1
A
2
. . . A
n1
) > 0
con lo que se garantiza la existencia de las probabilidades contenidas en la tesis.
Por denicin de probabilidad condicional P(A
2
|A
1
) =
P(A
1
A
2
)
P(A
1
)
, entonces
P(AB) = P(A
1
) P(A
2
|A
1
)
El siguiente paso de la demostracin la realizaremos por el mtodo de induccin. Por lo
tanto supongamos que lo anterior se cumple para n1 eventos, es decir
P(A
1
A
2
. . . A
n1
) = P(A
1
) P(A
2
|A
1
) P(A
3
|A
1
A
2
) P(A
n1
|A
1
A
2
. . . A
n2
)
Tomemos ahora n eventos y calculemos P(A
1
A
2
. . . A
n
), entonces
P(A
1
A
2
. . . A
n
) = P
_
(A
1
A
2
. . . A
n1
)A
n
_
= P(A
1
A
2
. . . A
n1
) P(A
n
)
Por hiptesis de induccin
P(A
1
A
2
. . . A
n1
) = P(A
1
) P(A
2
|A
1
) P(A
3
|A
1
A
2
) P(A
n
|A
1
A
2
. . . A
n2
)
con lo que tenemos
P(A
1
A
2
. . . A
n
) = P(A
1
) P(A
2
|A
1
) P(A
3
|A
1
A
2
) P(A
n
|A
1
A
2
. . . A
n1
)
con lo cual queda demostrado el teorema.
2.3. Medida de probabilidad 25
Ejemplo 14: Un lote de 100 artculos es sometido a inspeccin de acuerdo al siguiente
criterio: el lote es rechazado si uno almenos de 5 artculos sacados es defectuoso. Cul es la
probabilidad de rechazar el lote, sabiendo que el contiene siete artculos defectuoso?
Desarrollo
Sean A: el evento que represente el lote es rechazado y B
i
: el evento el i-simo
artculo seleccionado es no defectuoso , entonces
P(A
c
) = P(B
1
) P(B
2
|B
1
) P(B
3
|B
1
B
2
) P(B
4
|B
1
B
2
B
3
) P(B
5
|B
1
B
2
B
3
B
4
)
por lo tanto
P(A
c
) =
93
100

92
99

91
98

90
97

89
96
= 0, 6903
Finalmente P(A) = 1P(A
c
), entonces
P(A) = 10, 6903 = 0, 3097
Antes de enunciar el Teorema de probabilidad total recordaremos el concepto de par-
ticin de un conjunto. Una particin nita de un conjunto es una coleccin B
1
, . . . , B
n
de
subconjuntos de tal que
cada uno de estos conjuntos es distinto del vaco, es decir B
i
= / 0, i
la coleccin es disjunta dos a dos, esto es, para ndices i y j distintos, se cumple que
B
i
B
j
= / 0,
la unin de toda la coleccin produce el total, es decir, B
1
B
2
B
n
=.
Teorema 4 (Teorema de probabilidad total ) Sean B
1
, B
2
, . . . , B
n
una particin de tal
que cada elemento de la particin tiene probabilidad estrictamente positiva. Para cualquier
evento A, se tiene que
P(A) =
n

i=1
P(A|B
i
) P(B
i
) (8)
Demostracin
Primero observemos que el evento A puede escribirse como sigue
A = A= A
n

i=1
B
i
=
n

i=1
(AB
i
)
en donde los eventos AB
1
, . . . , AB
n
son ajenos dos a dos, de modo que
P(A) = P(
n

i=1
(AB
i
)) =
n

i=1
P(AB
i
) =
n

i=1
P(A|B
i
).P(B
i
)
Observe que cuando la particin de consta de nicamente dos elementos, B y B
c
, la
frmula del teorema de probabilidad total se reduce a la siguiente expresin
P(A) = P(A|B) P(B) +P(A|B
c
) P(B
c
)
2.3. Medida de probabilidad 26
Ejemplo 15: Suponga que tenemos dos cajas: una con 3 bolas blancas y 7 de color gris,
la otra con 6 blancas y 6 grises. Si se elije una caja al azar y despus se saca una bola, cul
es la probabilidad de que sea blanca?
El experimento aleatorio consiste entonces en escoger una de las cajas al azar, con idntica
probabilidad cada una de ellas, es decir
1
2
para cada una y despus extraer una bola de la caja
escogida. Es claro entonces que el espacio muestral puede escribirse como sigue:
={(C
1
, B), (C
1
, G), (C
2
, B), (C
2
, G)}
en donde
C
1
: representa el hecho la primera caja fue escogida
C
2
: representa el hecho la segunda caja fue escogida
B: representa el evento una bola blanca fue escogida
G: representa el evento una bola gris fue escogida
Entonces lo que debemos calcular es la probabilidad de B. Observe que es fcil calcu-
lar la probabilidad de este evento cuando se conoce la caja que fue escogida. Esto sugiere
condicionar sobre el resultado de escoger alguna de las dos cajas y aplicar el teorema de
probabilidad total, es decir,
P(B) = P(B|C
1
) P(C
1
) +P(B|C
2
) P(C
2
)
Si suponemos que la caja seleccionada es C
1
entonces P(B|C
1
) =
3
10
y decimos que se-
leccionamos la caja C
2
tendremos que P(B|C
2
) =
6
12
, entonces
P(B) =
3
10

1
2
+
6
12

1
2
=
2
5
El Teorema de Bayes es otro resultado interesante que involucra probabilidades condi-
cionales. Fue publicado por primera vez en 1763, dos aos despus de la muerte de su creador,
el matemtico y telogo ingls Thomas Bayes.
Teorema 5 (Teorema de Bayes) Sea B
1
, . . . , B
n
una particin de tal que cada elemento
de la particin tiene probabilidad estrictamente positiva. Sea A un evento tal que P(A) > 0.
Entonces para cada j = 1, 2, . . . , n, se tiene
P(B
j
|A) =
P(A|B
j
) P(B
j
)
n

i=1
P(A|B
i
) P(B
i
)
(9)
Demostracin
Por la denicin de probabilidad condicional tenemos que
P(B
j
|A) =
P(AB
j
)
P(A)
y P(A|B
j
) =
P(AB
j
)
P(B
j
)
2.3. Medida de probabilidad 27
y por el teorema de probabilidad total sabemos que
P(A) =
n

i=1
P(A|B
i
) P(B
i
)
entonces
P(B
j
|A) =
P(AB
j
)
n

i=1
P(A|B
i
) P(B
i
)
=
P(A|B
j
) P(B
j
)
n

i=1
P(A|B
i
) P(B
i
)
Nuevamente observamos que en el caso cuando la particin de consta de slo dos
elementos: B y B
c
, el teorema de Bayes, para el evento B, adquiere la forma:
P(B|A) =
P(A|B) P(B)
P(A|B) P(B) +P(A|B
c
) P(B
c
)
Ejemplo 16: En una fbrica hay dos mquinas. La mquina 1 realiza el 60% de la pro-
duccin total y la mquina 2 el 40%. De su produccin total, la mquina 1 produce 3% de
material defectuoso, la mquina 2 el 5%. El asunto es que se ha encontrado un material de-
fectuoso, Cul es la probabilidad de que este material defectuoso provenga de la mquina
2?
Desarrollo
Sean M
1
: la mquina 1 produjo el material escogido
M
2
: la mquina 2 produjo el material escogido
D: el evento el material escogido es defectuoso
La solucin del problema consiste en encontrar P(M
2
|D). De acuerdo a la informacin
que tenemos obtenemos las siguientes probabilidades
P(M
1
) = 0, 6 =
3
5
P(D|M1) = 0, 03 =
3
100
P(M
2
) = 0, 4 =
2
5
P(D|M2) = 0, 05 =
1
20
Segn el teorema de Bayes
P(M
2
|D) =
P(D|M
2
) P(M
2
)
P(D|M
1
) P(M
1
) +P(D|M
2
) P(M
2
)
=
1
20

2
5
3
100

3
5
+
1
20

2
5
=
10
19
2.3. Medida de probabilidad 28
2.3.4 Problemas
Determinacin de espacio de probabilidad
1. Determine completamente un espacio de probabilidad (, F, P) para el experimento
aleatorio de
a) lanzar una moneda equilibrada.
b) lanzar un dado equilibrado.
c) escoger al azar un nmero real dentro del intervalo unitario [0, 1].
d) extraer dos bolas de una urna en donde hay dos bolas blancas y dos negras.
e) lanzar una moneda honesta repetidas veces hasta que hayan aparecido ambas
caras.
2. Se lanzan dos dados equilibrados y se anota la suma de los nmerados observados en
las caras superiores de los dados. Determine completamente un espacio de probabilidad
(, F, P) para este experimento aleatorio.
Medidas de la probabilidad
3. Sean P y Q dos medidas de probabilidad denidas sobre una misma lgebra. De-
muestre que P+(1)Q es una medida de probabilidad para cada en [0, 1].
4. Sea P una medida de probabilidad. Determine si las siguientes funciones tambin son
medidas de probabilidad:
a) 1P b) P
2
c) 4P(1P)
d)
(1+P)
2
e) |P| f)

P
5. Determine si las siguientes funciones son medidas de probabilidad.
a) P() = 1 y P(A) = 0 para cualquier otro evento A.
b) P(/ 0) = 0 y P(A) = 1 para cualquier otro evento A.
6. Considere el espacio medible (N, 2
N
). Demuestre en cada caso que P es una medida de
probabilidad. Para cada A 2
N
dena:
a) P(A) =

nA
2
3
n
b) P(A) =

nA
1
2
n
Propiedades de la probabilidad
7. Demuestre que en todo espacio de probabilidad (, F, P) se tiene P(/ 0) = 0
2.3. Medida de probabilidad 29
8. Demuestre que en todo espacio de probabilidad (, F, P) para cada conjunto nito F

de n acontecimientos mutuamente excluyentes de F se tiene


P(
n

k=1
A
k
) =
n

k=1
P(A
k
)
9. Demuestre que en todo espacio de probabilidad (, F, P) y para cada conjunto A, se
tiene:
P(A) +P(A
c
) = 1
10. Demuestre que en todo espacio de probabilidad (, F, P) si A B, entonces
P(A) P(B)
11. Demuestre que en todo espacio de probabilidad (, F, P) para cada suceso A, se tiene
que
0 P(A) 1
12. Demuestre que en todo espacio de probabilidad (, F, P), dados dos sucesos A y B, la
probabilidad de que ocurra A y no ocurra B es
P(AB) = P(A) P(AB)
13. Demuestre que en todo espacio de probabilidad (, F, P), dados dos sucesos A y B, se
tiene que
P(AB) = P(A) +P(B) P(AB)
14. Demuestre que en todo espacio de probabilidad (, F, P), dados tres sucesos A, B y C,
se tiene que
P(ABC) = P(A) +P(B) +P(C) P(AB) P(AC) P(BC) +P(ABC)
15. Demuestre que en todo espacio de probabilidad (, F, P), si dos sucesos A y B son tales
que P(A) +P(B) 1 entonces A y B no son excluyentes.
16. Demuestre que en todo espacio de probabilidad (, F, P), dados dos sucesos A y B, se
tiene que la probabilidad de que ocurra exactamente uno de ellos es
P(A) +P(B) 2P(AB)
Clculo de probabilidad
17. De un naipe ingls de 52, se sacan dos al azar. Se pide:
a) Probabilidad de que ambos sean trbol
b) Probabilidad de que una sea trbol y la otra de corazn
18. En una caja hay 80 tuercas de las cuales 12 son defectuosas. Se toma 6 de ellas al azar.
Se pide:
2.3. Medida de probabilidad 30
a) Probabilidad de que las 6 sean defectuosas
b) Probabilidad de que hayan 2 defectuosas
19. Una caja contiene 60 pernos y 140 tuercas. Veinte pernos estn daados y lo mismo
ocurre con 50 tuercas. Se toma uno de los objetos al azar. Cul es la probabilidad de
que sea perno o este daado?.
20. Se colocan en un estante aleatoriamente 5 volmenes de una obra. Calcular la probabi-
lidad de que queden en orden correlativo.
_
Resp.
1
60
_
21. Se lanzan 6 dados sobre una mesa. Calcular la probabilidad de que salgan los seis
nmeros diferentes.
_
Resp.
5
324
_
22. Cuatro personas se ponen de acuerdo para encontrarse en el Hotel Savoy de Pares. Si
en Paris hay cuatro hoteles con ese nombre, determinar la probabilidad de que cada una
de ellas elija un hotel diferente.
_
Resp.
3
32
_
.
23. Dado un grupo de cuatro personas, determinar la probabilidad de que por lo menos dos
hayan nacido el mismo mes.
_
Resp.
3
32
_
.
24. Dos personas deciden juntarse en un determinado lugar entre las 12:00 hs y 13:00 hs
y acuerdan esperar 15 minutos. Determinar la probabiliad de que se encuentren en el
lugar previsto.
_
Resp.
7
16
_
.
25. Un vehculo A llega al azar a una bomba becinera en el intervalo (0, 15). Otro vehculo
B llega independientemente de A y al azar en el mismo intervalo de tiempo. Determinar
la probabilidad de que A llegue antes que B.
_
Resp.
1
2
_
.
26. Si en el ejercicio anterior, A se detiene en la bomba 3 minutos y B durante 4 minutos,
determine la probabilidad que ambos se encuentren en la bomba becinera.
_
Resp.
37
90
_
.
27. Un punto P = (a, b) se toma al azar en el cuadrado = {(x, y) : |x| 1 |y| 1}.
Encontrar la probabilidad de que toda solucin de la siguiente ecuacin diferencial :
y

+2ay

+by = 0, con y = y(t), tienda a cero cuando t .


_
Resp.
1
6
_
.
28. Un punto es tomado al azar en el rectngulo 0 < x < 2; 0 < y < 3. Sea A el suceso
xy < 1 y B el suceso y < x
2
. Calcule la probabilidad de los acontecimiento: A, B, AB,
AB, AB.
_
Resp.
1
6
(1+ln6),
1
6
(62

3),
1
6
_
1
3
+ln2
_
,
1
6
_
20
3
+ln32

3
__
.
29. Dos puntos son tomados al azar en un segmento de longitud L. Determine la probabili-
dad que la distancia entre los puntos sea menor que
L
4
.
_
Resp.
7
16
_
.
30. En un espacio medible de Borel (R, (R)) se ha denido una probabilidad de P(

), tal
que P[(, 10)] = 1. Demuestre que P[(50, 100)] = 0.
2.3. Medida de probabilidad 31
31. En un espacio medible de Borel se ha denido una funcin probabilidad de P(

) por
P((, x)) =
_
_
_
1e
x
para x 0
0 para x < 0
Calcular las probabilidades de los sucesos A = (3, 0) y B = (0, 3]
Sucesos independientes
32. Diga falso o verdadero. Demuestre o proporcione un contraejemplo.
a) A es independiente de si mismo b) A es independiente del / 0
c) A es independiente de A
c
d) A es independiente del
33. Es la independencia de dos eventos una relacin de equivalencia?
34. Mediante un contraejemplo demuestre que si A y B son independientes, entonces no
necesariamente son disjuntos. Demuestre tambin que si A y B son disjuntos, entonces
tampoco se sigue necesariamente que estos eventos sean independientes.
35. En un espacio de probabilidad (, F, P) se tiene que P(A|B
c
) =P(A|B). Demostrar que
A y B son sucesos independientes.
36. En el espacio de probabilidad (, F, P) los eventos A, B y C son independientes. De-
muestre que tambin son independioentes los sistemas (A, B
c
,C) y (A, B
c
,C
c
).
37. Sean A
1
, A
2
, . . . , A
n
una sucesin de eventos independientes. Demuestre que
P
_ n

k=1
A
k
_
= 1
n

k=1
[1P(A
k
)]
38. Sean A y B eventos independientes tales que P(A) = p
1
y P(B) = p
2
. Calcule la proba-
bilidad de que no ocurra ninguno de estos eventos.
39. En el circuito se indican los interruptores A, B y C tienen probabilidad de: 0, 1; 0, 2 y
0, 3 de cortar la corriente. Se pide probabilidad que pase corriente desde a al extremo
b. (Resp. 0,926).
40. Determinar el menor nmero de hijos que debe tener un matrimonio para que la proba-
bilidad de que por lo menos dos sean varones sobrepase 0,75. (Resp. n = 5).
2.3. Medida de probabilidad 32
41. Se nos da dos urnas como sigue:
La urna A contiene 3 bolas rojas y 2 bolas blancas
La urna B contiene 2 bolas rojas y 5 bolas blancas
Se selecciona al azar una urna; se saca una bola y se coloca en la otra urna, luego se
saca una bola de la segunda urna. Hallar la probabilidad de que las dos bolas sacadas
sean del mismo color. Rta.
901
1680
.
42. La fabricacin de fusibles elctricos, entrega un 15% de artculos defectuosos. Deter-
minar la probabilidad que en una muestra de 10 fusibles:
a) de que no haya defectuosos
b) haya no ms de un defectuoso
43. Dos personas A y B lanzan 3 monedas cada una. Determinar la probabilidad de que
ambas obtengan igual nmero de caras.
_
Resp.
5
16
_
.
44. En el circuito se indican los interruptores A, B, C y D tienen respectivamente proba-
bilidades de: 0,1; 0,2; 0,3 y 0,4 de cortar la corriente. Se pide probabilidad que pase
corriente desde a al extremo b. (Resp. 0,8326).
45. En el circuito que se indica, la probabilidad que un interruptor automtico este cer-
rado es p. Si los interruptores se abren y cierran independientemente, determinar la
probabilidad de que pase la corriente del punto a al punto b.
(Resp. p+3p
2
4p
3
p
4
+3p
5
p
6
)
2.3. Medida de probabilidad 33
46. Una persona de 7 armaciones regularmente entrega 5 verdades y una persona
entre 9 armaciones entrega 8 verdades. Si ellos no se conocen se pide la probabilidad
de que respecto a un mismo hecho, se contradigan. Rta.
1
3
47. Se ha recibido una carta que se sabe puede venir desde Valdivia o desde Taltal. Del sello
de correos solo tiene estampado las letras consecutivas Al. calcular la probabilidad que
la carta venga de Valdivia. Rta.
5
19
.
Probabilidad condicional
48. Demostrar que P(/ 0|B) = 0
49. Demostrar que P
_ n

i=1
A
i
|B
_
=
n

i=1
P(A
i
|B)
50. Demostrar que P(A|B) = 1P(A
c
|B)
51. Demostrar que P(A|B) P(C|B) con A C
52. Demostrar que 0 P(A|B) 1
53. Demostrar que P(AC
c
|B) = P(A|B) P(AC|B)
54. Demostrar que P(AC|B) = P(A|B) +P(C|B) P(AC|B)
55. Demostrar que P(A|B) = P(A) si y solo si P(A
c
|B
c
) = P(A
c
)
56. Sea P una medida de probabilidad, y sean P
1
(

) = P(

|B) y P
2
(

) = P
1
(

|C), en donde
P(B) > 0 y P(C) > 0. Demuestre que para cualquier evento A, P
2
(A) = P(A|BC).
57. Demuestre que P(A|B) 1
P(A
c
)
P(B)
, en donde P(B) > 0.
58. Suponga que P(B) = P(A|B) = P(C|AB) = p. Demuestre que P(ABC) = p
3
59. Una caja contiene 6 chas rojas y 4 negras. Se saca una y sale roja y sin devolverla se
saca otra. Probabilidad que est ltima sea roja tambin.
_
Resp.
5
9
).
60. En una poblacin el 70% de los habitantes son blancos, el 25% es negro y el 5%
amarillos. El 70% de loa blancos son catlicos, lo mismo ocurre con el 60% de los
negros y el 10% de los amarillos. Se toma una persona al azar, se pide la probabilidad
que:
a) la persona sea catlica
b) la sea un blanco catlico
61. Se escoge al azar un dgito binario para ser enviado a travs de un canal de transmisin.
Se escoge el 0 con probabilidad 0, 4, y se escoge el 1 con probabilidad 0, 6. El canal
de comunicacin es ruidoso de modo que un 0 se distorsiona en un 1 con probabilidad
0, 2, y un 1 se distorsiona en un 0 con probabilidad 0, 1. Encuentre la probabilidad de
que
2.3. Medida de probabilidad 34
a) se reciba un 0 Rta.0, 38
b) se reciba un 1 Rta.0, 62
c) se haya enviado un 0 dado que se recibi un 0 Rta.0, 84
d) se haya enviado un 1 dado que se recibi un 1 Rta.0, 87
62. Se tiene un tablero de ajedrez y se lanzan al azar dos reinas en el tablero (en distintas
posiciones). Cul es la probabilidad de que se amenacen?. Cul es la probabilidad
que la primera reina est en la tercera zona, dado que las reinas se amenazan ?.
Resp.
13
36
,
75
364
63. Se lanza un dado de seis caras y dos personas diferentes dicen que el resultado es 6. En
general se sabe que la primera persona miente con probabilidad p (0, 1) y la segunda
persona miente con probabilidad r (0, 1). Cul es la probabilidad de que el resultado
sea 6 ?.
Resp.
(1p)(1r)
(1p)(1r) +5pr
.
64. Todos los das a las 5:00 pm Charles toma el t con su madre. Para empezar la conver-
sacin dice creo que llueve o bien creo que no llueve . Charles se equivoca 1 vez
de 3 cuando arma que llueve y 1 vez de 2 cuando arma que no llueve. Sabiendo que
llueve 9 de cada 10 das y que Charles dijo que llova calcule la probabilidad de que
llueva.
_
Resp.
12
13
_
.
65. El general Custer conduce sus fuerzas a la entrada de un can. Su intuicin le dice que
hay un 40% de probabilidad de que caiga en una emboscada al cruzar el can. Para
estar ms seguro consulta separadamente a sus dos guas rastreadores.
El primer gua es un hombre blanco que se equivoca uno de dos veces al ser consultado.
el segundo gua es un experto gua indio que no se equivoca nunca pero miente una vez
de tres. Calcular la probabilidad de que haya una emboscada esperando al general si el
gua blanco dice que no y el gua indio dice que si.
_
Resp.
4
7
_
.
66. Un fugitivo debe cruzar la frontera entre dos pases. Para ello dispone de tres caminos.
Los dos primeros caminos tienen un puesto de control y el tercero tiene dos puestos de
control en serie a una distancia prudente. Se asume adems que cada puesto de control
es independiente de los otros. Se sabe que la probabilidad de burlar un puesto de control
es p (0, 1) (para cada puesto es la misma probabilidad) y el fugitivo toma al azar uno
de los tres caminos.
a) Calcule la probabilidad de que el fugitivo cruce la frontera sin ser visto.
Resp.
p
3
(2+ p)
b) Calcule la probabuilidad de que el fugitivo haya utilizado el tercer camino dado
que pas la frontera sin ser visto. Resp.
p
(2+ p)
2.3. Medida de probabilidad 35
67. En un examen de eleccin multiple, la probabilidad de que el alumno sepa la respuesta
es p. Habiendo m elecciones, si sabe la respuesta, l responde correctamente con pro-
babilidad 1; si no la sabe, responde corrrectamente con probabilidad
1
m
. Cul es la
probabilidad de que l haya sabido la respuesta dado que la pregunta fue respondida
correctamente?. Calcule el lmite de esta probabilidad cuando
a) m con p jo
b) p 0 con m jo
Resp.
p
p+
1p
m
; 1; 0
68. Pedro quiere enviar una carta a Marina. la probabilidad de que Pedro escriba la carta es
de 0, 8. la probabilidad de que el correo no la pierda es 0, 9. La probabilidad de que el
cartero la entregue es 0, 9. Dado que Marina no recibi la carta, cul es la probabilidad
de que Pedro no la haya escrito?. Resp.
25
44
3. VARIABLES ALEATORIAS
3.1. Introduccin
En este captulo se estudiarn los conceptos de variable aleatoria, funcin de probabilidad,
funcin de densidad, funcin de distribucin, esperanza y varianza. Apartir de ahora y el resto
del captulo consideraremos como elemento base un espacio de probabilidad (, F, P).
La notacin ms natural al pensar en un experimento aleatorio denotado por y que tiene
un resultado real desconocido es simplemente denotar como X. Es decir X es una variable
aleatoria cuando es un valor real obtenido de un experimento cualquiera. Entonces informal-
mente una variable aleatoria es una caracterizacin numrica de un posible resultado en un
experimento aleatorio, por lo tanto representa una traduccin de cada uno de los resultados
del espacio muestral en nmeros reales.
3.2. Denicin y ejemplos
Denicin 17 (Variable aleatoria): Una variable aleatoria en un espacio de probabilidad
(, F, P) es una funcin X : R tal que para cualquier conjunto Boreliano B en los
reales, B B(R), se cumple que el conjunto X
1
(B) es un elemento de F.
Figura 3: Representacin grca de la denicin de una variable aleatoria
La denicin anterior nos indica que toda variable aleatoria debe ser una funcin medible.
Esto signica en trminos de teora de medidas que la imagen inversa de cualquier boreliano
en R es un elemento del lgebra, F, del especio probabilstico.
La razn principal por la cual se le exige la condicin de medibilidad a la funcin variable
aleatoria es la siguiente. Como una variable aleatoria X transforma los elementos en
X() R, entonces X permite un cambio de espacio muestral. Por otro lado teniendo presente
que P es la medida de probabilidad en el espacio medible (, F) y X hizo un cambio de
espacio muestral (pas de a R) es necesario trasladar tambin la medida de probabilidad
P a un nuevo espacio medible en el cual R sea el espacio muestral. Ya se ha visto ante-
riormente que (R, B(R)) es un espacio medible, por lo que es necesario trasladar ahora P en
36
3.2. Denicin y ejemplos 37
este nuevo espacio medible. Si B es un boreliano y considerando que X
1
(B) es un elemento
de F, se puede denir la funcin de medida de probabilidad P
X
: B(R) [0, 1] tal que
P
X
(B) = P(X
1
(B)). Esta medida de probabilidad es conocida con el nombre de medida de
probabilidad inducida por la variable aleatoria X. A P
X
tambin se le conoce por distribucin
o ley de probabilidad de X. De este modo se pasa del espacio de probabilidad (, F, P) que
se tena inicialmente al nuevo espacio de probabilidad (R, B(R), P
X
).
Figura 4: Representacin grca de la imagen inversa de un conjunto de Borel
La siguiente notacin es muy utilizada cuando se estudia a las variables aleatorias. Si
A es un subconjunto de R, A B(R), entonces la expresin (X A), denota el conjunto
{ : X() A}, es decir, (X A) = { : X() A}. En palabras, la expresin
(X A) denota aquel conjunto de elementos de tales que bajo la aplicacin de la funcin
X toman un valor dentro del conjunto A. A este conjunto se le llama la imagen inversa de A,
y se le denota por X
1
(A).
Usaremos con mucha frecuencia la notacin arriba explicada. El lector debe asegurarse
de comprender bien que si x es un nmero real entonces (X x) es un subconjunto de R y
por lo tanto un evento en el espacio probabilistico (R, B(R), P
X
). Lo mismo sucede con el
complemento de este conjunto que es (X > x). Adems, tomando en cuenta que R = (X
x) (X > x) se obtiene
P
X
[(X x) (X > x)] = P
X
(X x) +P
X
(X > x) = P(X
1
(R)) = P() = 1
Con lo cual tenemos la siguiente identidad
P(X x) +P(X > x) = 1 (10)
Nota importante: A travs de una variable aleatoria se puede considerar que los posibles
resultados de un experimento aleatorio no son elementos en sino nmeros reales que la
variable aleatoria puede tomar. Esta es una consideracin radical pues ya no conside-raremos
experimentos aleatorios particulares, ni espacios muestrales arbitrarios , ni eventos (sub-
conjuntos) de , en lugar de ello consideraremos que una cierta variable aleatoria de inters
toma valores en un cierto subconjunto de nmeros reales. La probabilidad denida antes para
subconjuntos de se traslada, como explicamos antes, a probabilidades para subconjuntos
de R. Esta perspectiva permite estudiar modelos generales y despus aplicarlos a cualquier
situacin particular. A partir de ahora y en lo que resta del curso el trmino variable aleatoria
constituir un elemento frecuente en los enunciados.
3.2. Denicin y ejemplos 38
Ejemplo 17: Suponga que un experimento aleatorio consiste en lanzar al aire una moneda
y observar la cara superior una vez que la moneda cae.
Denotemos por Cara y Cruz los dos lados de la moneda. Entonces el espacio medi-
ble est dado por la dupla (, 2

), donde = {Cara,Cruz} = {c, s} es el espacio muestral


y 2

= {/ 0, {c}, {s}, } es la lgebra de subconjuntos de . Denamos ahora la vari-


able aleatoria X : R de la siguiente forma X(Cara) = 0 y X(Cruz) = 1. De este mo-
do podemos suponer que el experimento aleatorio tiene dos valores numricos posibles: 0
y 1. Observe que los nmeros 0 y 1 son en realidad arbitrarios, otro par de nmeros dis-
tintos puede ser escogido para distinguir los dos resultados del experimento aleatorio. De
este modo podemos tambin denir la variable aleatoria Y : R de la siguiente forma
Y(Cara) =Y(Cruz) =2. En este caso la variable Y solo toma un valor, el nmero 2. Cualquier
resultado del experimento aleatorio produce, a travs de la funcin Y , el nmero 2. Decimos
que Y es la variable aleatoria constante 2.
Ejemplo 18: Consideremos el experimento aleatorio consistente en lanzar un dardo en
un tablero circular de radio uno.
El espacio muestral o conjunto de posibles resultados del experimento se puede escribir
como sigue
={(x, y) : x
2
+y
2
1}
Figura 5: Representacin grca del espacio muestral ={(x, y) : x
2
+y
2
1}
Los siguientes son ejemplos de funciones de en R, variables aleatorias, asociadas a este
experimento aleatorio.
X(x, y) = x, proyeccin sobre el eje horizontal
Y(x, y) = y, proyeccin sobre el eje vertical
Z(x, y) =
_
x
2
+y
2
, distancia al centro del crculo
V(x, y) =|x| +|y|, distancia del taxista
W(x, y) = x.y, producto de las coordenadas
3.3. Tipos de variables aleatorias 39
Ejemplo 21: Consideremos nuevamente el experimento de lanzar una moneda y la vari-
able aleatoria X que lleva el resultado Cara al valor 0 y el resultado Cruz al valor 1.
Tenemos por ejemplo que (X [1, )) = {Cruz} pues el conjunto de elementos de tales
que bajo la funcin X toman un valor mayor o igual a uno, es decir caen dentro del intervalo
[1, ), es nicamente el elemento Cruz. Por lo tanto P(X [1, )) = P({Cruz}) =
1
2
. Del
mismo modo puede vericarse que
P(X [1, 2)) = P({Cruz}) =
1
2
P(X [0, 1)) = P({Cara}) =
1
2
P(X [2, 4]) = P(/ 0) = 0
P(X = 1) = P({Cruz}) =
1
2
P(X 1) = P(/ 0) = 0
P(X 0) = P() = 1
3.3. Tipos de variables aleatorias
Considerando el conjunto de valores que una variable aleatoria puede tomar, vamos a
clasicar a las variables aleatorias en dos tipos: discretas o continuas.
3.3.1. Variable aleatoria discrteta
Denicin 18 (Variable aleatoria discrteta): Decimos que una variable aleatoria es dis-
creta cuando el conjunto de valores que sta toma es un conjunto discreto, es decir, un con-
junto nito o numerable.
Un conjunto discreto es aquel que tiene elementos puntuales, como por ejemplo {0, 1, . . . , n}
es un conjunto nito discreto, lo mismo Npues aunque es innito, es numerable y por lo tanto
discreto.
Ejemplo 19: Sea el experimento consistente en lanzar una moneda n veces y observar la
secuencia de caras (C) y cruces (S) obtenidas.
Los posibles resultados aqui sern todas las nuplas de caras y sellos. Entonces para este
problema podemos denir el espacio medible (, 2

) donde el espacio muestral es como


sigue
={(
1
,
2
, . . . ,
n
) :
i
=C o
i
= S, i = 1, . . . , n}
El nmero de caras observadas en los n lanzamientos es una caracterstica de la sucesin
de caras y sellos. De hecho, si denimos X = nmero de caras observadas, vemos que el
valor de X depende del resultado del experimento, y por lo tanto como el espacio muestral es
un conjunto discreto entonces la variable aleatoria X es forzosamente discreta.
3.4. Funciones de probabilidad, de densidad y de distribucin 40
3.3.2. Variable aleatoria continua
Denicin 19 (Variable aleatoria continua): Una variable aleatoria es continua cuando
toma todos los valores dentro de un intervalo (a, b) R.
Ejemplo 20: Sea el experimento aleatorio consistente en escoger un punto del intervalo
[0, 1] y denamos a la variable aleatoria X como el cuadrado del valor obtenido.
Entonces el espacio muestral es = [0, 1] y X() =
2
, con , entonces X es clara-
mente continua.
Esta clasicacin de variables aleatorias no es completa pues existen variables que no
son de ninguno de los dos tipos mencionados. Por simplicidad en este curso estudiaremos
nicamente variables aleatorias que son discretas o continuas.
3.4. Funciones de probabilidad, de densidad y de distribucin
En esta seccin se ver la forma de asociar a cada variable aleatoria dos funciones que nos
provean de informacin acerca de las caractersticas de la variable aleatoria. Estas funciones
permiten representar a un mismo tiempo tanto los valores que puede tomar la variable como
las probabilidades de los distintos eventos. En el caso de las variables aleatorias discretas
estas funciones se denominan funcin de probabilidad y funcin de distribucin, mientras
que en el caso continuo tambin se tiene una funcin de distribucin pero en ves de la funcin
de probabilidad tenemos una funcin denominada funcin de densidad de probabilidad.
3.4.1. Funcin de probabilidad
Denicin 20 (Funcin de probabilidad): Sea X la variable aleatoria discreta que toma
los valores x
1
, x
2
, . . . con probabilidades respectivas P(X = x
1
), P(X = x
2
), . . . . Esta lista de
valores numricos y sus probabilidades puede ser nita o bien innita, pero numerable. La
funcin de probabilidad de la variable X denotada por f (x) : R [0, 1] se dene como
sigue
f (x) =
_
P(X = x) si x = x
1
, x
2
, . . .
0 otro caso
(11)
En palabras, la funcin de probabilidad es simplemente aquella funcin que indica los
valores de la probabilidad en los distintos valores que toma la variable aleatoria discreta.
Recordemos que es importante poder distinguir entre X y x, pues conceptualmente son cosas
muy distintas. Denotaremos generalmente a una funcin de probabilidad con la letra f mins-
cula. A veces escribiremos f
X
(x) y el subndice nos ayudar a especicar que tal funcin es
la funcin de probabilidad de la variable X. Esta notacin ser particularmente til cuando
consideremos varias variables aleatorias a la vez.
Propiedades de la funcin de probabilidad
Una funcin f se dice que es una funcin de probabilidad para la variable aleatoria X si
cumple con las siguientes condiciones.
3.4. Funciones de probabilidad, de densidad y de distribucin 41
f (x) 0, x R

x
f (x) = 1
Ejemplo 21: Considere la variable aleatoria discreta X que toma los valores 1, 2 y 3, con
probabilidades 0,3; 0,5 y 0,2 respectivamente. Entonces la funcin de probabilidad de X est
dada por
f (x) =
_

_
0, 3 si x = 1
0, 5 si x = 2
0, 2 si x = 3
0 otro caso
Ejemplo 22: Encontre el valor de la constante c que hace que la siguiente funcin sea de
probabilidad.
f (x) =
_
cx si x = 0, 1, 2, 3
0 otro caso
Los posibles valores de la variable aleatoria discreta, especicada, son 0, 1, 2 y 3, con
probabilidades 0, c, 2c y 3c, respectivamente. Como la suma de estas probabilidades debe ser
uno para esta funcin sea de probabilidad, obtenemos la ecuacin c +2c +3c = 1. De aqui
obtenemos c =
1
6
. Este es el valor de c que hace que f (x) sea no negativa y sume uno, es
decir, una funcin de probabilidad.
3.4.2. Funcin de densidad
Denicin 21 (Funcin de densidad): Sea X una variable aleatoria continua. Decimos
que la funcin integrable y no negativa f (x) : R [0, ) es la funcin de densidad de X si
para cualquier intervalo (a, b) de R se cumple la igualdad
P(X (a, b)) =

b
a
f (x)dx (12)
Es decir, la probabilidad de que la variable tome un valor dentro del intervalo (a, b) se
puede calcular o expresar como el rea bajo la funcin de densidad en el intervalo (a, b). De
esta forma el clculo de una probabilidad se reduce al clculo de una integral.
Propiedades de la funcin de densidad
No es difcil comprobar que toda funcin de densidad f (x) de una variable aleatoria
continua cumple las siguientes propiedades anlogas al caso discreto.
f (x) 0, x R

f (x)dx = 1
Toda funcin f (x) : R[0, ) que satisfaga estas dos propiedades, sin necesidad de tener
una variable aleatoria de por medio, se llamar funcin de densidad.
3.4. Funciones de probabilidad, de densidad y de distribucin 42
Ejemplo 23: Dada la funcin f (x) denida por
f (x) =
_
_
_
1
2
si x (1, 3)
0 otro caso
Vericar que f (x) es una funcin de densidad.
Para vericar que f (x) es una funcin de densidad debemos probar que f (x) cumple con
las dos propiedades mencionadas en la denicin. Por la denicin misma de f (x) observa-
mos que f (x) 0 y

f (x)dx =

0 dx +

3
1
1
2
dx +


3
0 dx =
1
2
(31) = 1
Ejemplo 24: Encontrar el valor de la constante c que hace que la siguiente funcin sea de
densidad.
f (x) =
_
c|x| si x [1, 1]
0 otro caso
Se trata de una variable aleatoria continua que toma valores en el intervalo [-1, 1]. Para
encontrar el valor de c debemos tomar en cuenta la sesunda condicin de una funcin de
densidad, entonces
1 =

f (x)dx =

0 dx +

1
1
c|x| dx +


1
0 dx =

0
1
(cx) dx +

1
0
cx dx
Aplicando algunas propiedades de integrales tendremos que
1 = 2c

1
0
x dx = 2c(
1
2
0) = c
Por lo tanto, cuando tomamos c = 1 la funcin f (x) resulta ser una funcin de densidad
pues ahora cumple con ser no negativa e integrar uno.
3.4.3 Funcin de distribucin
Denicin 22 (Funcin de distribucin): Sea X una variable aleatoria discreta o conti-
nua. La funcin de distribucin de X, cuya notacin est dada por F(x) : R[0, 1] , se dene
como
F(x) = P(X x) (13)
Esto es, la funcin de distribucin evaluada en un nmero x cualquiera es simplemente la
probabilidad de que la variable aleatoria tome un valor menor o igual a x, o en otras palabras,
que tome un valor en el intervalo (, x]. Siendo F(x) una probabilidad, sus valores estn
siempre entre 0 y 1. Esta funcin resulta ser importante y se le conoce tambin, por razones
evidentes, con el nombre de funcin de acumulacin de probabilidad. Tambin se acostumbra
escribir F
X
(x) para smbolizar a la funcin de distribucin de una variable aleatoria X, en
donde el subndice nos ayudar a especicar que tal funcin es la funcin de distribucin de
probabilidad de la variable X. Con un par de ejemplo mostraremos la forma de calcular esta
3.4. Funciones de probabilidad, de densidad y de distribucin 43
funcin distribucin a partir de la funcin de probabilidad si la variable aleatoria es discreta
o de densidad si la variable en estudio es continua.
Ejemplo 25: Considere la variable aleatoria discreta X del ejemplo 21. Calcular la corre-
spondiente funcin de distribucin evaluada en x.
La funcin de distribucin se calcula sumando las probabilidades P(X = u) para valores
de u menores o iguales a x, es decir,
F(x) = P(X x) =

ux
P(X = u) =
_

_
0 si x < 1
0, 3 si 1 x < 2
0, 8 si 2 x < 3
1 si x 3
Ejemplo 26: Considere ahora la variable aleatoria continua X del ejemplo 23. Calcular la
correspondiente funcin de distribucin evaluada en x
La correspondiente funcin de distribucin se obtiene calculando la siguiente integral
F(x) = P(X x) =

f (u)du =
_

_
0 si x < 1
x1
2
si 1 x < 3
1 si x 3
Observe que esta funcin es continua y no decreciente.
En los dos ejemplos anteriores se ha mostrado la forma de obtener F(x) a partir de f (x).
Ahora explicaremos el proceso contrario.
En el caso continuo tenemos que para toda x en R, F(x) = P(X x) =

f (u)du, de
modo que por el teorema fundamental del clculo, y cuando F(x) es diferenciable se tiene
que
d
dx
(F(x)) = f (x). De este modo podemos encontrar f (x) a partir de F(x).
En el caso discreto, f (x) = P(X = x) = F(x) F(x

), en donde F(x

) es el lmite por
la izquierda de la funcin F en el punto x, en smbolos, F(x

) = lm
h0
F(x h), con h > 0.
Anlogamente, la expresin F(x
+
) signica el lmite por la derecha de la funcin F en el
punto x, es decir, F(x
+
) = lm
h0
F(x +h), con h > 0.
Teorema 6: Toda funcin de distribucin F(x) satisface las siguientes propiedades:
a) 0 F(x) 1
b) lm
x
F(x) = 1
c) lm
x
F(x) = 0
d) Si x
1
x
2
, entonces F(x
1
) F(x
2
)
e) Si x
1
x
2
, entonces P(x
1
< X x
2
) = F(x
2
) F(x
1
)
f) F(x) = F(x
+
)
3.4. Funciones de probabilidad, de densidad y de distribucin 44
Demostracin
a) Por denicin F(x) es una probabilidad y toda probabilidad pertenece al intervalo [0, 1].
Por lo tanto se cumple la primera propiedad.
b) Sea x
1
, x
2
, . . . una sucesin de nmeros reales crecientes hacia el innito, y sean los
eventos A
n
= (X x
n
). Entonces calculando el lmite superior e inferior de la sucesin
de eventos {A
n
: n N} se obtiene
lm
n
supA
n
=

n=1

k=n
(X x
n
) =

n=1
R =R
lm
n
infA
n
=

n=1

k=n
(X x
n
) =

n=1
(X x
n
) =R
por lo tanto lm
n
A
n
=R.
Por lo tanto cuando la sucesin de nmeros reales tienda a innito la sucesin de even-
tos {A
n
: n N} se aproxima a R por lo que aplicando la continuidad de la funcin de
probabilidad tenemos que
lm
n
F(X
n
) = lm
n
P(X x
n
) = P( lm
n
X x
n
) = P(R) = 1
Entonces cuando x se tiene que F(x) 1.
c) Anlogamente el conjunto (X x) se aproxima al conjunto (X ) = / 0 cuando x
tiende a menos innito. Por lo tanto, cuando x , F(x) P(X ) = P(/ 0) = 0.
d) Es suciente observar que si x
1
x
2
, entonces (X x
1
) (X x
2
). Aplicando proba-
bilidad obtenemos P(X x
1
) P(X x
2
).
e) Observe que el evento (x
1
<X x
2
) puede descomponerse en la diferencia (X x
2
)
(X x
1
), en donde (X x
1
) (X x
2
). Por lo tanto P(x
1
< X x
2
) = P(X x
2
)
P(X x
1
) = F(x
2
) F(x
1
).
f) Para h > 0 tenemos que F(x +h) = P(X x +h) = P(X x) +P(x < X x +h), de
modo que cuando h tiende a cero, el conjunto (x < X x+h) tiende al conjunto vaco.
Concluimos entonces que, cuando h 0 con h > 0, F(x +h) F(x) +P(/ 0) = F(x).
Observacin:
La propiedad d) signica que F(x) es una funcin montona no decreciente, mientras
que la propiedad f ) establece que F(x) es una funcin continua por la derecha.
Cualquier funcin que cumpla con las propiedades b), c), d) y f ) es una funcin de
distribucin.
3.5. Esperanza, varianza y momentos 45
3.5. Esperanza, varianza y momentos
Todos los seres humanos tenemos caractersticas numricas que nos identican y nos
distinguen de otras personas, por ejemplo, la edad, estatura, talla, peso, etc. Si pudiramos
considerar la totalidad de todos estos nmeros para una persona en particular, la identi-
caramos de manera nica. Algo similar sucede con las variables aleatorias. En esta seccin
estudiaremos algunas caractersticas numricas asociadas a las variables aleatorias.
3.5.1. Esperanza
Denicin 23 (Esperanza) La esperanza de una variable aleatoria X es un nmero deno-
tado por E(X) y que se calcula como sigue:
Si X es discreta, entonces
E(X) =

X
x f (x) (14)
donde la suma se efecta sobre todos los posibles valores que pueda tomar la variable
aleatoria, y se dene cuando esta suma sea absolutamente convergente. El nmero de
sumandos puede ser nito o innito dependiendo del conjunto de valores de la variable
aleatoria.
Si X es continua con funcin de densidad de probabilidad f (x), entonces la esperanza
de X es
E(X) =

x f (x)dx (15)
suponiendo que esta integral es absolutamente convergente.
Si la suma o integral anteriores no cumplen esta condicin de convergencia absoluta,
entonces se dice que la esperanza no existe. La esperanza de una variable aleatoria es entonces
un nmero que indica el promedio ponderado de los diferentes valores que puede tomar la
variable. A la esperanza se le conoce tambin con los nombre de: media , valor esperado
o valor promedio . En general se usa la letra griega para denotarla. La integral o
suma arriba mencionados pueden no ser convergentes y en ese caso se dice que la variable
aleatoria no tiene esperanza nita. La esperanza es uno de los conceptos ms importantes en
probabilidad y tiene un amplio uso en las aplicaciones y otras ramas de la ciencia.
Ejemplo 27: Sea X una variable aleatoria discreta con funcin de densidad dada por la
siguiente tabla
x -1 0 1 2
f (x) 1\8 4\8 1\8 2\8
La esperanza de X es el nmero
E(X) =

x
xP(X = x) =1.
1
8
+0.
4
8
+1.
1
8
+2.
2
8
=
1
2
3.5. Esperanza, varianza y momentos 46
Observe que la suma su efecta para todos los valores de x indicados en la tabla, es decir:
-1, 0, 1 y 2. Tambin es instructivo observar que la esperanza no es necesariamente uno de
los valores tomados por la variable aleatoria. En este ejemplo el valor
1
2
nunca es tomado por
la variable aleatoria, pero es su valor esperado.
Ejemplo 28: Considere la variable aleatoria continua X con funcin de densidad
f (x) =
_
_
_
2x si x (0, 1)
0 en otro caso
La esperanza de X es
E(X) =

x f (x)dx =

1
0
2x
2
dx =
2x
3

1
0
=
2
3
Observe que la integral solo es relevante en el intervalo (0, 1), pues fuera de dicho inter-
valo la funcin de densidad se anula.
Esperanza de una funcin de una variable aleatoria
En algunos casos es necesario saber calcular la esperanza de una funcin de una variable
aleatoria. Por ejemplo, si X es una variable aleatoria, entonces es claro que Y = X
2
es una
funcin de X y es tambin una variable aleatoria. Si quiseramos calcular la esperanza de
Y segn la denicin tendramos que calcular

y
f
Y
(y)dy, para lo cual se necesita encontrar
primero la funcin de densidad de Y , y ello en general no es fcil. El siguiente resultado
es muy til y nos dice cmo calcular esta esperanza conociendo nicamente la funcin de
densidad de X.
Teorema 7: Sea X una variable aleatoria continua y sea g : R R una funcin tal que
g(X) es una variable con esperanza nita. Entonces
Si es una variable aleatoria discreta entonces
E[g(X)] =

X
g(x) f (x) (16)
Si es una variable aleatoria continua entonces
E[g(X)] =

g(x) f
X
(x)dx (17)
En general, la demostracin de este resultado es complicada, asi es que la omitiremos y
nos concentraremos en su uso y aplicacin. El resultado esta enunciado en el caso continuo
pero tambin es vlido en el caso discreto, en lugar de la integral aparece una suma.
Ejemplo 29: Calcularemos E(Y) en donde Y = X
2
, y X es la variable aleatoria continua
del ejemplo 28, es decir, con funcin de densidad
f (x) =
_
_
_
2x si x (0, 1)
0 en otro caso
3.5. Esperanza, varianza y momentos 47
Por el teorema anterior tenemos que
E(Y) = E(X
2
) =

x
2
f (x)dx =

1
0
x
2
2xdx = 2

1
0
x
3
dx =
2x
4
4

1
0
=
1
2
Ejemplo 30: Sea X una variable aleatoria con funcin de probabilidad dada por la tabla
que aparece abajo. Encuentre la funcin de probabilidad de X
2
y mediante la denicin cal-
cule E(X
2
). Ahora calcule la misma esperanza pero usando el teorema 7. Ambos resultados
deben coincidir.
x -2 -1 0 1 2
f (x) 0,25 0,125 0,25 0,125 0,25
Teorema 8: Sean X y Y con esperanza nita y sea c una constante. Entonces
a) E(c) = c
b) E(cX) = cE(X)
c) Si X 0, entoncesE(X) 0
d) E(X +Y) = E(X) +E(Y)
La primera propiedad es evidente de demostrar pues si X es la variable aleatoria constante
c, entonces por denicin, E(X) = cP(X = c) = c,1 = c. El segundo inciso se sigue directa-
mente de la denicin de esperanza pues tanto en el caso de la suma como en el caso de la
integral, la constante c puede siempre colocarse fuera. El tercer inciso tambin es evidente
pues cuando se cumple la hiptesis, en la integral o suma correspondiente solo aparecern
trminos que son no negativos. La ltima propiedad, en cambio, no es sencilla de demostrar
y an en el caso discreto requiere de detalles tcnicos que preferimos omitir. Observe que la
segunda y cuarta propiedad establecen que la esperanza es lineal, es decir, separa sumas y
tambin separa multiplicaciones por constantes.
3.5.2. Varianza
Denicin 24 (Varianza): La varianza de una variable aleatoria X es otra caracterstica
numrica asociada a dicha variable. Se denota por Var(X) y se dene como sigue
Var(X) =
_

X
[x E(X)]
2
f (x) si X es discreta

[x E(x)]
2
f (x) si X es continua
(16)
Observe que en una sola expresin la varianza se puede escribir de la siguiente manera:
Var(X) = E[X E(X)]
2
. La varianza es una medida del grado de dispersin de los diferentes
valores tomados por la variable. Se le denota regularmente por la letra
2
(sigma cuadrada). A
la raz cuadrada positiva de la varianza, esto es , se le llama desviacin estndar. Nuevamente
la anterior suma o integral puede no existir y en ese caso decimos que la variable aleatoria
no tiene varianza nita. Observemos que para calcular Var(X) necesitamos conocer primero
E(X). Veamos algunos ejemplos sencillos.
3.5. Esperanza, varianza y momentos 48
Ejemplo 31: Calcularemos la varianza de la variable aleatoria discreta X con funcin de
probabilidad dada por la siguiente tabla
x -1 0 1 2
f (x) 0,125 0,5 0,125 0,25
Recordemos primeramente que por clculos previos, E(X) =
1
2
. Aplicando la denicin
de varianza tenemos que
Var(X) =

X
[xE(X)]
2
f (x) =
_
1
1
2
_
2
.
1
8
+
_
0
1
2
_
2
.
4
8
+
_
1
1
2
_
2
.
1
8
+
_
2
1
2
_
2
.
2
8
=1
Ejemplo 32: Calcularemos la varianza de la variable aleatoria continua X con funcin de
densidad
f (x) =
_
_
_
2x si x (0, 1)
0 en otro caso
En un clculo previo habamos encontrado que E(X) =
2
3
. Por lo tanto,
Var(X) =

(x E(X))
2
f (x)dx =

1
0
_
x
2
3
_
2
2xdx =

1
0
_
2x
3

8x
2
3
+
8x
9
_
dx
=
_
x
4
2

8x
3
9
+
4x
2
9
_

1
0
=
1
18
Ahora enunciamos algunas propiedades de la varianza.
Teorema 9: Sean X y Y dos variables aleatorias, y sea c una constante. Entonces
a) Var(X) 0
b) Var(c) = 0
c) Var(cX) = c
2
Var(X)
d) Var(X +c) =Var(X)
e) Var(X) = E(X
2
) [E(X)]
2
f) En general, Var(X +Y) =Var(X) +Var(Y)
Demostracin
El inciso a) es evidente a partir de la denicin de varianza pues en ella aparece una suma
o integral de trminos no negativos.
Para el inciso b) la constante c es una variable aleatoria con un nico valor, de modo que
E(c) = c y entonces
Var(X) = E(c c)
2
= 0
3.5. Esperanza, varianza y momentos 49
Para el inciso c) tenemos que
Var(cX) = E[cX E(cX)]
2
= E[cX cE(X)]
2
= c
2
E[X E(X)]
2
= c
2
Var(X)
El inciso d) se sigue del siguiente anlisis:
Var(X +c) = E[(X +c) E(X +c)]
2
= E[X E(X)]
2
=Var(X)
Para demostrar la propiedad e) se desarrolla el cuadrado en la denicin de varianza, y se
usa la propiedad de linealidad de la esperanza:
Var(X) = E[X E(X)]
2
= E
_
X
2
2XE(X) +
_
E(X)
_
2
_
= E(X
2
) 2E(X)E(X) +[E(X)]
2
= E(X
2
) [E(X)]
2
Finalmente para demostrar la propiedad f ) es suciente dar un ejemplo. Puede tomarse
el caso Y = X, en general y por el inciso c) se tiene que Var(2X) = 2
2
V(X) = 4V(X), con lo
que no se cumple que Var(2X) = 2Var(X).
3.5.3. Momentos
Los momentos son nmeros que representan alguna caracterstica de la distribucin de
probabilidad asociada. Bajo ciertas condiciones el conjunto de momentos determinan de ma-
nera nica a la distribucin de probabilidad.
Denicin 25 (Momentos) Sea X una variable aleatoria con espereanza y sea n un
nmero natural. El n-simo momento de la variable aleatoria X, cuando existe, se dene como
el nmero E(X
n
). El n-simo momento central de X, cuando existe, es el nmero E[(X )
n
],
en donde = E(X). Observe que el primer momento de X es simplemente la media, y el
segundo momento central es la varianza. Tenemos entonces que si X es una variable aleatoria
con funcin de densidad o de probabilidad f (x) entonces el n-simo momento de X, si existe,
se calcula como sigue:
E(X
n
) =
_

X
(x
n
) f (x) si X es discreta

x
n
f (x)dx si X es continua
(17)
El n-simo momento central de X se calcula, para variables aleatorias continuas y discre-
tas respectivamente, como indican las siguientes frmulas:
E
_
(X )
n
_
=
_

X
(x )
n
f (x) si X es discreta

(x )
n
f (x)dx si X es continua
(18)
Ejemplo 33: Sea la variable aleatoria discreta X con funcin de probabilidad dada por la
siguiente tabla.
x 0 1 2
f(x) 1/4 2/4 1/4
a) Hallar el primer, segundo y tercer momento alrededor del origen
3.5. Esperanza, varianza y momentos 50
b) Calcular el primer, segundo y tercer momento alrededor de la media
Desarrollo de los incisos
a) Por denicin de momentos alrededor del origen tenemos que
E(X) =
2

x=0
x f (x) = 0
1
4
+1
2
4
+2
1
4
= 1
E(X
2
) =
2

x=0
x
2
f (x) = 0
2

1
4
+1
2

2
4
+2
2

1
4
=
3
2
E(X
3
) =
2

x=0
x
3
f (x) = 0
3

1
4
+1
3

2
4
+2
3

1
4
=
5
2
b) Por denicin de momentos alrededor de la media cuyo valor es 1 tenemos que
E(X ) =
2

x=0
(x 1) f (x) = (01)
1
4
+(11)
2
4
+(21)
1
4
= 0
E[(X )
2
] =
2

x=0
(x 1)
2
f (x) = (01)
2

1
4
+(11)
2

2
4
+(21)
2

1
4
=
1
2
E[(X 1)
3
] =
2

x=0
(x 1)
3
f (x) = (01)
3

1
4
+(11)
3

2
4
+(21)
3

1
4
= 0
Ejemplo 34: Una variable aleatoria X tiene funcin de densidad de probabilidad dada
por:
f (x) =
_

_
x
2
si 0 < x < 2
0 en otro caso
a) Hallar el primer, segundo y tercer momento alrededor del origen
b) Calcular el primer y segundo momento alrededor de la media
Desarrollo de los incisos
a) Por denicin de momentos alrededor del origen tenemos que
E(X) =

2
0
x
x
2
dx =
x
3
6

2
0
=
4
3
E(X
2
) =

2
0
x
2
x
2
dx =
x
4
8

2
0
= 2
E(X
3
) =

2
0
x
3
x
2
dx =
x
5
10

2
0
=
16
5
3.6. Funcin generadora de momentos 51
b) Por denicin de momentos alrededor de la media tenemos que
E(X ) = E
_
X
4
3
_
= E(X) E
_
4
3
_
=
4
3

4
3
= 0
E[(X )
2
] = E
__
X
4
3
_
2
_
=

2
0
_
x
4
3
_
2
x
2
dx =
1
2

2
0
_
x
3

8
3
x
2
+
16
9
x
_
dx
=
1
2
_
x
4
4

8
9
x
3
+
8
9
x
2
_
2
0
=
2
9
3.6. Funcin generadora de momentos
A continuacin deniremos una funcin especial denominada funcin generadora de mo-
mentos.
Denicin 26 (Funcin generadora de momentos): Sea X una variable aleatoria con
funcin de probabilidad f (x) en el caso de que sea discreta o funcin de densidad f (x) en
el caso de que sea continua. Se dene a la funcin generadora de momentos de la variable
aleatoria X como la siguiente esperanza,
M
X
(t) = E(e
tX
) (19)
La funcin generadora de momentos de X se calcula, para variables aleatorias discretas y
continuas respectivamente, como indican las siguientes frmulas:
M
X
(t) =
_

X
e
tx
f (x) si X es discreta

e
tx
f (x)dx si X es continua
(20)
Ejemplo 35: Sea X la variable aleatoria discreta del ejemplo 33, es decir, con funcin de
probabilidad dada por la tabla.
x 0 1 2
f(x) 1/4 2/4 1/4
Obtener su funcin generadora de momentos.
Por la denicin de funcin generadora de momentos tenemos
M
X
(t) = E(e
tX
) =
2

x=0
e
tx
f (x) = e
0

1
4
+e
1t

2
4
+e
2t

1
4
=
e
2t
+2e
t
+1
4
Ejemplo 36: Una variable aleatoria X tiene funcin de densidad de probabilidad dada
por:
f (x) =
_
_
_
2e
2x
si x 0
0 en otro caso
Obtener su funcin generadora de momentos.
3.6. Funcin generadora de momentos 52
Por la denicin de funcin generadora de momentos tenemos
M
X
(t) = E(e
tX
) =

e
tx
f (x)dx =


0
e
tx
2e
2x
dx = 2


0
e
(2t)x
dx
=
2
(2t)
e
(2t)x

0
=
2
2t
3.6.1. Propiedades de la funcin generadora de momentos
Teorema 10: Sea X una variable aleatoria con los primeros n momentos alrededor del
origen nitos, estos es, E(X
k
) < ; k {0, 1, 2, . . . , n} y funcin generadora de momentos
M
X
(t) , entonces se tiene que:
d
n
dt
n
_
M
X
(0)
_
= E(X
n
)
Demostracin
Por denicin de funcin generadora de momentos, M
X
(t) =E(e
Xt
) y por serie de Taylor,
e
(Xt)
=

k=0
(tX)
k
k!
. Por lo tanto
M
X
(t) = E
_

k=0
(tX)
k
k!
_
=

k=0
t
k
k!
E(X
k
)
Derivando n veces a M
X
(t) obtenemos la siguiente secuencia
d
dt
_
M
X
(t)
_
=

k=1
t
k1
(k 1)!
E(X
k
) =

k=1
t
k1
(k 1)!
E(X
k1
X) = E(Xe
tX
)
d
2
dt
2
_
M
X
(t)
_
=

k=2
t
k2
(k 2)!
E(X
k
) =

k=2
t
k2
(k 2)!
E(X
k2
X
2
) = E(X
2
e
tX
)
.
.
.
d
n
dt
n
_
M
X
(t)
_
=

k=n
t
kn
(k n)!
E(X
k
) =

k=n
t
kn
(k n)!
E(X
kn
X
n
) = E(X
n
e
tX
)
Por lo que nalmente
d
n
dt
n
_
M
X
(0)
_
= E(X
n
)
Ejemplo 37: Tomemos nuevamente a la variable aleatoria discreta X del ejemplo 35 junto
con su funcin generadora de momentos y calculemos los cuatro primeros momentos de la
variable alrededor del origen. Entonces
M
X
(t) =
e
2t
+2e
t
+1
4
E(X) =
d
dx
_
M
x
(t)
_

t=0
=
e
2t
+e
t
2

t=0
=
1+1
2
= 1
3.6. Funcin generadora de momentos 53
E(X
2
) =
d
2
dx
2
_
M
x
(t)
_

t=0
=
2e
2t
+e
t
2

t=0
=
2+1
2
=
3
2
E(X
3
) =
d
3
dx
3
_
M
x
(t)
_

t=0
=
4e
2t
+e
t
2

t=0
=
4+1
2
=
5
2
E(X
4
) =
d
4
dx
4
_
M
x
(t)
_

t=0
=
8e
2t
+e
t
2

t=0
=
8+1
2
=
9
2
Ejemplo 38: Tomemos ahora la variable aleatoria continua X del ejemplo 36 junto con su
funcin generadora de momentos y calculemos los cuatro primeros momentos de la variable
alrededor del origen. Entonces
M
X
(t) =
2
2t
E(X) =
d
dx
_
M
x
(t)
_

t=0
=
2
(2t)
2

t=0
=
2
2
2
=
1
2
E(X
2
) =
d
2
dx
2
_
M
x
(t)
_

t=0
=
4
(2t)
3

t=0
=
4
2
3
=
1
2
E(X
3
) =
d
3
dx
3
_
M
x
(t)
_

t=0
=
12
(2t)
4

t=0
=
12
2
4
=
3
4
E(X
4
) =
d
4
dx
4
_
M
x
(t)
_

t=0
=
48
(2t)
5

t=0
=
48
2
5
=
3
2
Proposicin 11: Si X
1
, X
2
, . . . , X
n
son variables aleatorias independientes entonces
M_ n

i=1
X
i
_(t) =
n

i=1
M
X
i
(t)
Demostracin
Por denicin de funcin generadora de momentos se tiene que
M_ n

i=1
X
i
_(t) = E
_
e
n

i=1
X
i
t
_
= E
_ n

i=1
e
X
i
t
_
=
n

i=1
E(e
X
i
t
) =
n

i=1
M
X
i
(t)
Ntese que para esta demostracin utilizamos la propiedad de la esperanza para v.a. inde-
pendientes.
3.7. Problemas 54
3.7. Problemas
Variables Aleatorias
1. Determine en cada caso si la variable aleatoria en cuestin es discreta o continua.
Cules son sus posible valores?
a) Tiempo de vida de una persona escogida al azar.
b) Nmero de errores tipogrcos en una pgina escogida al azar de un libro.
c) Tiempo de servicio en una transaccin escogida al azar realizada por una persona
en un cajero automtico.
d) Monto de una reclamacin por accidente automovilstico escogida al azar del con-
junto de reclamaciones efectuadas a una compaa aseguradora.
2. Considere el experimento aleatorio de escoger un nmero al azar dentro del intervalo
unitario (0, 1). Suponga que cada resultado de este experimento se escribe en su expan-
sin decimal como = 0, x
1
x
2
x
3
. . . . Determine en los siguientes casos el conjunto de
valores de la variable aleatoria denida y clasique sta como discreta o continua.
a) X() =
b) X() = x
1
c) X() = 1
d) X() = 0, 0x
1
x
2
x
3
. . .
3. Considere un experimento aleatorio con espacio muestral equiprobable ={1, 2, 3, 4, 5, 6}.
Dena la variable aleatoria X() = 2(3). Cules son los posibles valores de X?.
Calcule P(X = 0), P(X {2, 3}), P(X 0), P(X < 0), P(X
2
= 1), P(2X 4 = 0), y
P(X
2
= 4).
4. Considere el ejemplo del experimento aleatorio de lanzar un dardo en un tablero circu-
lar de radio uno, Figura 1.13, junto con las variables aleatorias X(x, y) =x,Y(x, y) =y y
Z(x, y) =
_
x
2
+y
2
. Suponga que para cada regin Acuya rea puede ser calculada
se dene por P(A) =
rea(A)
rea()
.
Calcule P(X 0), P(X < 0), P(X +Y 1), P(Y > X), P
_
Z <
1
2
_
y P
_
1
3
< Z <
1
2
_
.
Funciones de probabilidad, de densidad y de distribucin
1. Graque y compruebe que las siguientes funciones son de probabilidad
a) f (x) =
_

_
x
2
10
si x =2, 1, 0, 1, 2
0 en otro caso
b) f (x) =
_

_
(2x 5)
2
70
si x = 1, 2, 3, 4, 5
0 en otro caso
3.7. Problemas 55
2. Graque y compruebe que las siguientes funciones son de densidad
a) f (x) =
_

_
x +1
2
si x (1, 1)
0 en otro caso
b) f (x) =
_
e
x
si x > 0
0 si x 0
3. Encuentre el valor de la constante c para que f (x) sea una funcin de probabilidad.
Graque esta funcin y calcule P(X 2, 3, 4) y P(X < 3) en cada caso.
a) f (x) =
_
_
_
cx si x = 1, 2, . . . , 10
0 en otro caso
b) f (x) =
_
_
_
cx
2
si x = 1, 2, . . . , 10
0 en otro caso
4. Determine si la siguiente funcin es de probabilidad. Graque la funcin y justique
su respuesta.
f (x) =
_

_
1
6
si x = 0, 1
2
3
si x = 2
0 otro caso
5. Determine si la siguiente funcin es de probabilidad. Graque la funcin y justique
su respuesta.
f (x) =
_

_
4
x!(4x)!
_
3
4
_
x
_
1
4
_
4x
si x = 0, 1, 2, 3, 4
0 otro caso
6. Encuentre el valor de la constante c para que la siguiente funcin sea de densidad.
Graque f (x) y calcule P(X ) y P(X [, 2]).
f (x) =
_
_
_
c(1+senx) si x [0, 2]
0 en otro caso
7. Encuentre el valor de la constante c para que la siguiente funcin sea de densidad.
Graque f (x) y calcule P(X (1, )).
f (x) = ce
|x|
para < x <
3.7. Problemas 56
8. Determine si cada una de las siguientes funciones es de densidad. Graque la funcin
en cada caso y justique su respuesta.
a) f (x) =
_

_
4x
5
si x [0, 2]
0 otro caso
b) f (x) =
_

_
2x
2
3
2x +
4
3
si x [0, 3]
0 en otro caso
9. Explique porqu no es posible encontrar un valor de la constante c para que la siguiente
funcin sea de probabilidad o de densidad.
a) f (x) =
_
_
_
cx si x =2, 1, 0, 1, 2
0 otro caso
b) f (x) =
_
_
_
c senx si x [, ]
0 en otro caso
10. Sea X una v.a. discreta con funcin de probabilidad dada por la siguiente tabla. Graque
f (x) y calcule P(X 0), P(X < 0) y P(X
2
= 1).
x -1 0 1
f(x) 0,2 0,3 0,5
11. Dadas las variables aleatorias con funciones de probabilidad dada por las tablas
x 0 1 2 3 4
f(x) 1/210 4/35 3/7 8/21 1/14
x 2 3 4 5 6 7 8 9 10 11 12
f(x) 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36
a) Graque en ambos casos
b) Calcule P(X 2), P(X 3) y P(1 X 3) en ambos casos
12. Sea X una v.a. discreta con funcin de probabilidad dada por la tabla que aparece abajo.
Graque f (x). Calcule la funcin de probabilidad de las siguientes variables aleatorias
Y = X
2
, Z =|X| y W = 2X 5. Graque en cada caso.
x -2 -1 0 2 3 5
f(x) 0,1 0,15 0,4 0,1 0,15 0,1
3.7. Problemas 57
13. Sea X discreta con funcin de probabilidad dada por la tabla que aparece abajo. En-
cuentre el valor de c y graque f (x). Calcule y graque la funcin de probabilidad de
la variable Y = X
2
.
x -2 0 2
f(x) 0,1 c 0,1
14. Investigue si las siguientes funciones son de distribucin
a) F(x) =
_
1e
x
2
si x > 0
0 six 0
b) F(x) =
_
e

1
x
si x > 0
0 six 0
c) F(x) =
e
x
e
x
+e
x
, x R
15. Sean F(x) y G(x) dos funciones de distribucin. Determine si las siguientes funciones
son de distribucin.
a) aF(x) +(1a)G(x)
b) F(x) +G(x)
c) F(x)G(x)
d)
2G(x)
1+F(x)
16. Sea X una v.a. continua con funcin de densidad
f (x) =
_

_
1
10
si k x 4k
0 otro caso
a) Determine el valor de la constante k y graque f (x)
b) Calcule y graque F(x)
c) Calcule P(1 X 3), P(X 2) y P(X 0)
d) Encuentre m tal que P(|X 1| m) =
1
2
17. Sea X una variable aleatoria continua con la funcin de densidad que aparece abajo.
Encuentre el valor de la constante c y graque la funcin f (x). Encuentre y graque
adems la funcin de distribucin F(x).
f (x) =
_

_
2x
9
si 0 < x < c
0 si en otro caso
18. Dada la siguiente funcin f (x) =
_
ce
3x
si x > 0
0 si x 0
3.7. Problemas 58
a) Obtenga el valor de c que haga que esta funcin sea de densidad para X
b) Calcule y graque F(x)
c) Calcule P(X 10), P(X 5) y P(5 X 10)
19. El tiempo en minutos que una persona espera un autobs es una v.a. con funcin de
densidad dada por
f (t) =
_

_
1
2
si 0 <t < 1
1
4
si 2 <t < 4
0 para otro valor de t
Hallar la probabilidad de que el tiempo en que la persona que espera el autobs sea de
a) mayor de 3 minutos
b) entre 1 y 2 minutos
c) menor de 3 minutos
20. Una v.a. tiene funcin de densidad
f (t) =
_
_
_
cx
2
si 1 t 2
cx si 2 t 3
0 para otro valor de x
Hallar:
a) la constante c
b) la funcin de distribucin
c) P(X > 2) y P
_
1
2
< X <
3
2
_
21. Sea X una variable aleatoria con la funcin de distribucin que aparece abajo. Es X
discreta o continua? Graque F(x). Encuentre y graque la correspondiente funcin de
densidad f (x). Calcule adems P(X = 2) y P(1 < X < 2).
F(x) =
_

_
0 para x < 1
1
3
si 1 x < 2
1 para x 2
22. Sea X una variable aleatoria con la funcin de distribucin que aparece abajo. Es X
discreta o continua? Graque F(x). Encuentre y graque la correspondiente funcin de
densidad f (x). Calcule adems P(X =
1
2
) y P(X >
1
2
).
F(x) =
_
_
_
0 para x < 0

x si 0 x < 1
1 para x 1
3.7. Problemas 59
23. Una urna contiene cuatro bolas numeradas 1, 2, 3 y 4. Se extraen dos bolas al azar, una
a la vez y sin reemplazo. Sea X la variable aleatoria que denota la suma de los nmeros
de las dos bolas seleccionadas.
a) Determine
b) Calcule y graque f (x)
c) Calcule y graque F(x)
d) Calcule P(X 6), P(3 < X 5) y P(X = 6)
Esperanza, varianza, momentos y funcin generadora de momentos
1. Sea a un nmero jo. Construya una variable aleatoria X tal que E(X) = a.
2. Calcule la esperanza de la variable aleatoria discreta X cuya funcin de probabilidad es
a) f (x) =
_

_
1
3
si x = 0, 1
1
6
si x = 2, 3
0 otro caso
b) f (x) =
_

_
1
4
si x =1, 1
1
2
si x = 0
0 otro caso
3. Calcule la esperanza de la variable aleatoria continua X cuya funcin de densidad es
a) f (x) = e
x
, para x > 0
b) f (x) = 6x(1x), para 0 < x < 1
4. Sea X una variable aleatoria discreta con la funcin de probabilidad que aparece abajo.
Demuestre que f (x) es efectivamente una funcin de probabilidad y que la esperanza de
X no existe. Este es un ejemplo de una variable aleatoria discreta que no tiene esperanza
nita.
f (x) =
_

_
1
x(x +1)
para x = 1, 2, 3, . . .
0 para otros casos
5. Sea X una variable aleatoria continua con la funcin de densidad que aparece abajo.
Demuestre que esta funcin es efectivamente una funcin de densidad. Compruebe
adems que la esperanza de X no existe. Este es un ejemplo de una variable aleatoria
continua que no tiene esperanza nita. Es un caso particular de la distribucin Cauchy.
f (x) =
1
(x
2
+1)
, para < x <
3.7. Problemas 60
6. Demuestre que no existe la esperanza de la v.a X cuando su funcin de densidad es
f (x) =
_

_
1
x
2
para x > 1
0 para x 1
7. Encuentre la esperanza y luego demuestre que la varianza de una variable aleatoria con
la siguiente funcin de densidad no existe.
f (x) =
_

_
2
x
3
para x > 1
0 para x 1
8. Diga falso o verdadero. Justique en cada caso.
a) La esperanza de una v.a. puede ser cero.
b) No hay dos v.a.s distintas con la misma esperanza.
c) La esperanza de una v.a. nunca es negativa.
d) La varianza de una v.a. puede ser cero.
e) La varianza de una v.a. nunca es negativa.
f) No hay dos v.a.s distintas con la misma varianza.
9. Demuestre que
a) E(E(X)) = E(X)
b) Var(Var(X)) = 0
10. Sea X la variable aleatoria constante c. Compruebe que
a) E(X) = c
b) E(X
n
) = c
n
c) Var(X) = 0
11. Calcule la media y varianza de la variable aleatoria X con funcin de probabilidad
f (x) =
_

_
1
9
si x = 0, 1, 2
2
9
si x = 3, 4, 5
0 otro caso
12. Calcule la media y varianza de la variable aleatoria X cuya funcin de probabilidad es
f (x) =
_

_
_
1
2
_
x+1
si x = 0, 1, 2, 3, . . .
0 otro caso
3.7. Problemas 61
13. Diga falso o verdadero. Justique en cada caso.
a) Var(E(X)) = 0
b) E(Var(X)) = E(X)
14. Sea X una variable aleatoria continua con funcin de densidad f (x) = 12e
|x|
, para
< x < . Demuestre que f (x) es efectivamente una funcin de densidad y com-
pruebe que
a) E(X) = 0
b) E(X
2
) = 2
c) Var(X) = 2
d) E(X
n
) = n! para n par
15. Diga falso o verdadero. Justique en cada caso.
a) E(X) =E(X)
b) Var(X) =Var(X)
c) E(Var(X)) =Var(E(X))
16. Encuentre el error en la siguiente demostracin de la armacin de que la varianza de
cualquier variable aleatoria es cero.
0 =Var(0)
=Var(X +(X))
=Var(X) +Var(X)
=Var(X) +Var(X)
= 2Var(X)
17. Calcule el nsimo momento de una variable aleatoria cuya funcin de probabilidad o
de densidad es
a) f (x) =
1
5
para x =2, 1, 0, 1, 2
b) f (x) =
1
ex!
para x = 0, 1, 2, . . .
c) f (x) =|x|, para 1 < x < 1
d) f (x) =
e
|x|
2
para x R
4. VECTORES ALEATORIOS
En este captulo se har una breve introduccin al tema de variables aleatorias multidi-
mensionales o tambin llamadas vectores aleatorios. Se realizar un anlisis breve sobre los
vectores aleatorios, razn por la cual se consideran nicamente vectores aleatorios de dimen-
sin dos, aunque todas las deniciones y resultados que se mencionan pueden extenderse
fcilmente, en la mayora de los casos, para vectores de dimensin superior.
4.1. Deniciones
Al igual que en el captulo anterior, supondremos que se tiene siempre como elemento
base un espacio de probabilidad dada por la tripleta o terna (, F, P).
Denicin 27 (Vector aleatorio): Un vector aleatorio de dimensin dos es un vector de
la forma (X,Y) en donde cada coordenada es una variable aleatoria. De manera anloga se
pueden tener vectores aleatorios multidimensionales (X
1
, X
2
, . . . , X
n
).
Entonces Un vector aleatorio es una funcin X : R
n
tal que para cualquier conjunto
B en B(R
n
), se cumple que la imagen inversa X
1
B es un elemento de F. Esto signica
entonces que un vector aleatorio es una funcin de en R
n
y se la puede representar de la
forma X = (X
1
, X
2
, . . . , X
n
) en donde cada coordenada es una funcin de en R.
De lo anteriormente dicho un vector aleatorio (X,Y) puede considerarse como una fun-
cin de en R
2
como se muestra en la Figura 6.
Figura 6: Representacin grca de la denicin de un vector aleatorio en dos dimenciones.
Es decir, el vector (X,Y) evaluado en es (X,Y)() = (X(),Y()) con posible valor
(x, y). Nuevamente observe que el vector con letras maysculas (X,Y) es el vector aleatorio,
mientras que el vector con letras minsculas (x, y) es un punto en el plano. Estudiaremos a
continuacin algunas funciones asociadas a vectores aleatorios. Estos conceptos son comple-
tamente anlogos al caso unidimensional estudiado en el captulo anterior.
62
4.2. Distribuciones conjuntas 63
Denicin 28 (Vectores aleatorios discretos y continuos): Diremos que un vector aleato-
rio es discreto, o continuo, si las todas las variables aleatorias que conforman sus distintas
coordenadas lo son. Por simplicidad consideraremos nicamente vectores aleatorios cuyas
coordenadas son variables aleatorias todas discretas, o continuas, pero no mezclas de ellas.
4.2. Distribuciones conjuntas
Como en el caso de variables aleatorias, todo vector aleatorio induce una medida de pro-
babilidad sobre R
n
. Esta medida de probabilidad puede estudiarse, de manera equivalente,
mediante la funcin de distribucin conjunta denida a continuacin.
Denicin 29 (Funcin de distribucin conjunta): La funcin de distribucin de un
vector (X,Y), denotada por F
(X,Y)
: R
2
[0, 1], se dene como sigue
F(x, y) = P(X x,Y y) (21)
El nmero F(x, y) es entonces la probabilidad de que el vector aleatorio (X,Y) tome
algn valor en el rectngulo innito (, x] (, y]. En palabras, la funcin F(x, y) es la
probabilidad de que X sea menor o igual a x, y al mismo tiempo Y sea menor o igual a y, esto
es simplemente la probabilidad del evento (X x) (Y y).
A la funcin F(x, y) se le conoce con el nombre de funcin de acumulacin de proba-
bilidad del vector (X,Y) y tambin como funcin de distribucin bivariada de X y Y , y
en general a la distribucin conjunta de un vector aleatorio de cualquier dimensin nita se
le llama distribucin multivariada. Naturalmente, en el caso unidimensional, la distribucin
se llama univariada. Cuando sea necesario especicarlo se escribe F
(X,Y)
(x, y) en lugar de
F(x, y), y es evidente la forma de extender la denicin para el caso de vectores aleatorios de
ms de dos coordenadas. Con el n de mantener la notacin simple, en la medida de lo posi-
ble se mantiene la correspondencia de las letras, es decir, x es un valor asociado a la variable
aleatoria X, y y est asociada a la variable aleatoria Y. Las funciones de distribucin conjunta
satisfacen propiedades semejantes al caso unidimensional, alguna de ellas se enunciarn a
continuacin.
Proposicin 12: Toda funcin de distribucin conjunta F(x, y) satisface las siguientes
propiedades.
1. lm
(x,y)
F(x, y) = 1, ambas variables.
2. lm
(x,y)
F(x, y) = 0, alguna de las variables.
3. F(x, y) es no decreciente en cada variable.
4. F(x, y) es continua por la derecha en cada variable.
5. Si a
1
< b
1
y a
2
< b
2
, entonces
F(b
1
, b
2
) F(a
1
, b
2
) F(b
1
, a
2
) +F(a
1
, a
2
) 0
4.2. Distribuciones conjuntas 64
4.2.1. Funcin de probabilidad conjunta
Denicin 30: Consideremos un vector aleatorio discreto (X,Y) tal que la variable aleato-
ria X toma los valores en el conjunto {x
1
, x
2
, . . . }, y la variable aleatoria Y toma los valores
en {y
1
, y
2
, . . . }. La funcin de probabilidad del vector (X,Y) que se denota por f (x, y), se
encuentra denida sobre R
2
y toma valores en el intervalo [0, 1] de acuerdo a la siguiente
denicin
f (x, y) =
_
P(X = x,Y = y) si (x, y) {x
1
, x
2
, . . . }{y
1
, y
2
, . . . }
0 en otro caso
(22)
Es decir, el nmero f (x, y) es la probabilidad de que la variable aleatoria X tome el valor
x y al mismo tiempo la variable aleatoria Y tome el valor y. Tal funcin se llama tambin
funcin de probabilidad conjunta de las variables aleatorias X y Y , y para enfatizar este
hecho a veces se escribe f
X,Y
(x, y), pero en general omitiremos los subndices para hacer la
notacin ms corta.
Propiedades de la funcin de probabilidad conjunta
Toda funcin f (x, y) de probabilidad conjunta cumple las siguientes dos propiedades, e
inversamente, toda funcin que las cumpla se llama funcion de probabilidad conjunta.
1. f (x, y) 0
2.

x,y
f (x, y) = 1
Ejemplo 39: Considere el vector aleatorio discreto (X,Y) con funcin de probabilidad
conjunta dada por la siguiente tabla.
x
_
y 0 1
-1 0,3 0,1
1 0,4 0,2
De este arreglo se entiende que la variable X toma valores en el conjunto {1, 1}, mien-
tras que Y toma valores en {0, 1}. Adems las probabilidades conjuntas estn dadas por las
entradas de la tabla, por ejemplo, P(X =1,Y = 0) = 0, 3, esto es, la probabilidad de que X
tome el valor 1 y al mismo tiempo Y tome el valor 0 es 0,3. La misma informacin puede
escribirse de la siguiente manera.
f (x, y) = P(X = x,Y = y) =
_

_
0, 3 si x =1, y = 0
0, 1 si x =1, y = 1
0, 4 si x = 1, y = 0
0, 2 si x = 1, y = 1
0 en otro caso
Como todos estos valores son probabilidades, naturalmente son no negativos, y todos
ellos suman uno.
4.2. Distribuciones conjuntas 65
4.2.2. Funcin de densidad de probabilidad conjunta
Denicin 31: Se dice que la funcin integrable y no negativa f : R
2
[0, ) es la
funcin de densidad del vector aleatorio continuo (X,Y) si para todo par (x, y) en R
2
se
cumple la igualdad
P(X x,Y y) =

f (u, v) dv du (23)
Propiedades de la funcin de densidad de probabilidad conjunta
Toda funcin de densidad de probabilidad conjunta f (x, y) satisface las siguientes dos
propiedades que son anlogas al caso discreto.
1. f (x, y) 0
2.

f (x, y) dx dy = 1
Recprocamente decimos que una funcin f : R
2
[0, ) es una funcin de densidad
de probabilidad conjunta si cumple con las dos condiciones arriba mencionadas.
Ejemplo 40: Esta es una de las funciones de densidad conjunta ms sencillas. Sean a <
b, c < d, y dena la funcin
f (x, y) =
_

_
1
(ba)(d c)
si a < x < b, c < y < d
0 en otro caso
Se trata de una funcin constante en el rectngulo (a, b) (c, d). Esta funcin es de den-
sidad pues es no negativa e integra uno sobre R
2
.
4.2.3. Relacin entre F(x, y) y f (x, y)
4.2.3.1. Obtencin de F(x, y) a partir de f (x, y)
Conociendo la funcin de probabilidad densidad conjunta f (x, y), es posible encontrar
a la funcin de distribucin F(x, y) simplemente integrando en el primer caso sumando en
el caso segundo caso. Para el caso continuo tenemos
F(x, y) = P(X x,Y y) =

f (u, v) dv dx (24)
En el caso discreto se suman todos los valores de f (u, v) para valores de u menores o
iguales a x y valores de v menores o iguales a y.
F(x, y) = P(X x,Y y) =

ux

vy
f (u, v) (25)
4.3. Distribucin marginal 66
4.2.3.2. Obtencin de f (x, y) a partir de F(x, y)
En el caso continuo sabemos que f (x, y) y F(x, y) guardan la relacin
F(x, y) = P(X x,Y y) =

f (u, v) dv dx
por el teorema fundamental del clculo tenemos que
f (x, y) =

2
x y
F(x, y) (26)
4.3. Distribucin marginal
4.3.1. Funcin de densidad marginal
Denicin 32: Sea f (x, y) la funcin de densidad del vector aleatorio continuo (X,Y). Se
dene la funcin de densidad marginal de la variable X como sigue
f (x) =

f (x, y)dy (27)


Entonces segn la ecuacin 27 la funcin de densidad marginal de X se obtiene inte-
grando la funcin de densidad conjunta del veactor aleatorio respecto de la variable Y. La
correspondiente funcin de densidad marginal de la variable Y se obtiene integrando ahora a
f (x, y) respecto de la variable X, esto es
f (y) =

f (x, y)dx (28)


Ejemplo 41: Compruebe que la siguiente funcin es de densidad y luego obtenga las
funciones de densidad marginales f (x) y f (y).
f (x, y) =
_
_
_
x +y si 0 < x, y < 1
0 en otro caso
Se trata de una funcin que toma todos los valores en el rectngulo (0, 1)(0, 1) = (0, 1)
2
.
Esta funcin es de densidad pues es no negativa e integra uno sobre (0, 1)
2
. Por otro lado
segn la ecuacin 27 la funcin de densidad marginal de X, est dada por
f (x) =

f (x, y)dy =
_

1
0
(x +y)dy = x +
1
2
si 0 < x < 1
0 en otro caso
De forma anloga segn la ecuacin 28 la funcin de densidad marginal de Y, est dada
por
f (y) =

f (x, y)dx =
_

1
0
(x +y)dy =
1
2
+y si 0 < y < 1
0 en otro caso
4.3. Distribucin marginal 67
4.3.2. Funcin de probabilidad marginal
Denicin 33: Sea f (x, y) la funcin de probabilidad del vector aleatorio discreto (X,Y).
Se dene la funcin de probabilidad marginal de la variable X como sigue
f (x) =

y
f (x, y) (29)
De manera anloga se dene la funcin de probabilidad marginal f (y). Esto es
f (y) =

x
f (x, y) (30)
Ejemplo 42: Dada la tabla de la variable aleatoria bidimencional (X,Y) del ejemplo 39,
esto es
x
_
y 0 1
-1 0,3 0,1
1 0,4 0,2
obtenga las funciones de probabilidad marginales f (x) y f (y).
Segn la ecuacin 29, la funcin de probabilidad marginal de X est dada por
f (x) =

y
f (x, y) =
_
_
_
0, 4 si x =1
0, 6 si x = 1
0 en otro caso
De manera anloga segn la ecuacin 30, la funcin de probabilidad marginal de Y est
dada por
f (y) =

x
f (x, y) =
_
_
_
0, 7 si y = 0
0, 3 si y = 1
0 en otro caso
4.3.3. Funcin de distribucin marginal
Denicin 34 (Funcin de distribucin marginal): Sea (X,Y) un vector con funcin de
distribucin F(x, y). A la funcin
F(x) = lm
y
F(x, y) (31)
se le conoce como la funcin de distribucin marginal de X. Anlogamente se dene la
funcin de distribucin marginal de Y como
F(y) = lm
x
F(x, y) (32)
No es difcil vericar que las funciones de distribucin marginales son efectivamente
funciones de distribucin univariadas. En el caso de vectores de dimensin mayor, se puede
obtener la distribucin marginal de cualquier subconjunto de variables aleatorios del vector
original mediante un procedimiento similar.
Ejemplo 43: Dada la siguiente funcin es de densidad de probabilidad conjunta. Obtenga
4.4. Distribucin condicional 68
las funciones de distribucin marginales F(x) y F(y).
f (x, y) =
_
_
_
x +y si 0 < x, y < 1
0 en otro caso
Segn la ecuacin 21, la funcin de distribucin est dada por
F(x, y) = P(X x,Y y) =

f (u, v) dv du
Entonces
F(x, y) =
_

_
0 si x, y < 0

(u+v) dv du si 0 x, y < 1
1 si x, y 1
=
_

_
0 si x, y < 0
xy
2
(x +y) si 0 x, y < 1
1 si x, y 1
Para obtener la funcin de distribucin de X, tenemos que hacer que la variable y tienda
a innito en las regiones donde ello sea posible. Esto puede hacerse nicamente en la regin
dada por el tercer regln. Segn la ecuacin 31 tenemos entonces
F(x) = lm
y
F(x, y) =
_

_
0 si x < 0
x
2
(x +1) si 0 x < 1
1 si x 1
De manera totalmente anloga segn la ecuacin 32 tenemos que
F(y) = lm
x
F(x, y) =
_

_
0 si y < 0
y
2
(1+y) si 0 y < 1
1 si y 1
4.4. Distribucin condicional
La siguiente denicon es una extensin del concepto elemental de probabilidad condi-
cional de eventos.
Denicin 35 (Funcin de densidad condicional): Sea (X,Y) un vector con funcin de
densidad f
X,Y
(x, y), y sea y tal que f
Y
(y) = 0. A la funcin
f
X|Y
(x|y) =
f
X,Y
(x, y)
f
Y
(y)
(33)
se le conoce como la funcin de densidad condicional de la variable aleatoria X dado que
la variable aleatoria Y toma el valor y.
No es difcil comprobar que esta funcin es efectivamente una funcin de densidad, tanto
en el caso discreto como en el continuo. Observe que el valor y permanece jo y la funcin
es vista como una funcin de la variable real x.
Ejemplo 44: Considere la funcin de densidad conjunta
f
X,Y
(x, y) =
_
24x(1y) si 0 < x < y < 1
0 en otro caso
4.5. Esperanza condicional 69
Segn la ecuacin 33 f
X|Y
=
f
X,Y
(x, y)
f
Y
(y)
razn por la cual determinemos primero f
Y
(y).
Entonces
f
Y
(y) =

f (x, y)dx =
_

y
0
24x(1y) si 0 < y < 1
0 en otro caso
=
_
12y
2
(1y) si 0 < y < 1
0 en otro caso
Por lo tanto para cualquier valor jo de y en el intervalo (0, 1) la funcin de densidad
condicional de X dado Y es la que aparece abajo.
f
X|Y
(x|y) =
_

_
24x(1y)
12y
2
(1y)
si 0 < y < 1
0 en otro caso
=
_

_
2x
y
2
si 0 < x < y
0 en otro caso
Es inmediato vericar que esta funcin, vista como funcin de x, es de densidad. El valor
de y puede entonces considerarse como un parmetro de esta nueva distribucin. De forma
anloga podemos determinar la funcin de densidad de Y dado X, esto es
f (x) =

f (x, y)dy =
_
_
_

1
x
24x(1y) si 0 < y < 1
0 en otro caso
=
_
12x(x 1)
2
si 0 < x < 1
0 en otro caso
por lo que
f
Y|X
(y|x) =
_

_
24x(1y)
12x(x 1)
2
si x < y < 1
0 en otro caso
=
_

_
2(1y)
(x 1)
2
si 0 < x < 1
0 en otro caso
4.5. Esperanza condicional
Denicin 36: Sea (X,Y) un vector aleatorio con funcin de distribucin F
X,Y
(x, y), y sea
y un valor tal que f
Y
(y) = 0. Si X tiene esperanza nita, entonces se dene
E(X|Y = y) =
_

x f (x|y)dx si (X,Y) es un vector aleatorio continuo

x
x f (x|y) si (X,Y) es un vector aleatorio discreto
(34)
Anlogamente si Y tiene esperanza nita y y sea x un valor tal que f
X
(x) = 0 entonces se
dene
E(Y|X = x) =
_

y f (y|x)dy si (X,Y) es un vector aleatorio continuo

y
y f (y|x) si (X,Y) es un vector aleatorio discreto
(35)
Ejemplo 45: Tomando nuevamente en consideracin la funcin de densidad conjunta
f
X,Y
(x, y) =
_
24x(1y) si 0 < x < y < 1
0 en otro caso
4.6. Independencia 70
obtenga E(X|Y) y E(Y|X).
En el ejemplo 44 habamos obtenido
f
X|Y
(x|y) =
_

_
2x
y
2
si 0 < x < y
0 en otro caso
y f
Y|X
(y|x) =
_

_
2(1y)
(x 1)
2
si x < y < 1
0 en otro caso
Por lo tanto segn la ecuacin 34
E(X|Y) =

x f (x|y) dx =

y
0
x
2x
y
2
dx =
2
y
2

y
0
x
2
dx =
2y
3
adems por la ecuacin 35
E(Y|X) =

y f (x|y) dy =

1
x
y
2(1y)
(x 1)
2
dy =
2
(x 1)
2

y
0
(y y
2
) dy =
2x +1
3
4.6. Independencia
Podemos ahora denir el importante concepto de independencia de variables aleatorias.
Primero deniremos este concepto para dos variables aleatorias, despus lo haremos para n
variables, y nalmente para una coleccin arbitraria de variables aleatorias.
Denicin 37 (Independencia de dos variables aleatorias) Se dice que X y Y son inde-
pendientes, si para cada par de conjuntos de Borel A, B de R, se cumple la igualdad
P(X A,Y B) = P(X A)P(X B) (36)
En trminos de la siempre existente funcin de distribucin, la independencia de dos
variables aleatorias se puede expresar como indica el siguiente resultado.
Proposicin 13 (Independencia de dos variables aleatorias) Las variables aleatorias X
y Y son independientes si, y slo si, para cada (x, y) en R
2
se cumple la igualdad
F
X,Y
(x, y) = F
X
(x)F
Y
(y) (37)
El concepto de independencia de variables aleatorias es una extensin de la misma propiedad
para eventos. Cuando la funcin de densidad (caso continuo) o de probabilidad (caso discre-
to) conjunta existe, la condicin de independencia de X y Y es equivalente a solicitar que para
cualesquiera nmeros reales x y y, se cumpla la identidad
f
X,Y
(x, y) = f
X
(x) f
Y
(y) (38)
Ejemplo 46 Sea (X,Y) un vector aleatorio con funcin de densidad f (x, y) = 4xy, para
0 x, y 1, y cero en otro caso. Determinar si X e Y son independientes.
Encontremos primeramente las funciones de densidad marginales de X e Y. Segn las
ecuaciones 27 y 28, tenemos que f (x) y f (y) son respectivamente
f (x) =

f (x, y)dy =
_

1
0
4xy dy si 0 x 1
0 en otro caso
=
_
_
_
2x si 0 < x < 1
0 en otro caso
4.6. Independencia 71
f (y) =

f (x, y)dx =
_

1
0
4xy dx si 0 y 1
0 en otro caso
=
_
_
_
2y si 0 y 1
0 en otro caso
Observemos que f (x, y) = f (x) f (y), con lo cual X e Y son independientes.
El concepto de independencia puede ser extendido claramente al caso de varias variables
aleatorias de la forma siguiente.
Denicin 38 (Independencia de varias variables aleatorias) Se dice que las variables
aleatorias X
1
, X
2
, . . . , X
n
son independientes si para cualesquiera Borelianos A
1
, A
2
, . . . , A
n
de
R, se cumple
P(X
1
A
1
, X
2
A
2
, . . . , X
n
A
n
) = P(X
1
A
1
)P(X
2
A
2
) P(X
n
A
n
) (39)
Ms an, una coleccin innita de variables aleatorias es independiente si cualquier sub-
conjunto nito de ella lo es.
Usando un procedimiento similar al caso de dos variables aleatorias, puede demostrarse
que la condicin de independencia de n variables aleatorias es equivalente a solicitar que para
cualquier vector (x
1
, x
2
, . . . , x
n
) en R
n
se cumpla la igualdad
F
X
1
,X
2
,...,X
n
(x
1
, x
2
, . . . , x
n
) = F
X
1
(x
1
)F
X
2
(x
2
) F
X
n
(x
n
) (40)
Y en trminos de la funcin de densidad (caso continuo) o de probabilidad (caso discreto)
conjunta, cuando est exista y salvo un conjunto de medida cero, la condicin es
f
X
1
,X
2
,...,X
n
(x
1
, x
2
, . . . , x
n
) = f
X
1
(x
1
) f
X
2
(x
2
) f
X
n
(x
n
) (41)
Cuando las variables X
1
, X
2
, . . . , X
n
son independientes y tomando conjuntos Borelianos
adecuados en la denicin general, puede comprobarse que cualquier subconjunto de estas
variables tambin son independientes. El recproco, sin embargo, es en general falso.
Proposicin 14 Sean X y Y independientes, y sean g y h dos funciones de R en R, Borel
medibles. Entonces las variables aleatorias g(X) y h(Y) tambin son independientes.
Este resultado puede extenderse fcilmente al caso ndimensional, y de esta forma obten-
er que la composicin de n funciones Borel medibles aplicadas, respectivamente, a n variables
aleatorias independientes, produce nuevamente variables aleatorias independientes.
Teorema 11 (Esperanza de una funcin de un vector aleatorio) Sea (X,Y) un vector
aleatorio, y sea : R
2
R una funcin Borel medible tal que la variable aleatoria (X,Y)
tiene esperanza nita. Entonces
E[(X,Y)] =
_

(X,Y) f (x, y)dx dy si (X,Y) es un vector continuo

y
(X,Y) f (x, y) si (X,Y) es un vector discreto
(42)
Proposicin 15 Sean X y Y independientes, y sean g y h dos funciones Borel medibles
tales que g(X) y h(Y) tienen esperanza nita. Entonces
4.7. Covarianza 72
E[g(X)h(Y)] = E[g(X)]E[h(Y)] (43)
En particular, E(XY) = E(X)E(Y)
En general, el recproco de la armacin anterior no es cierta, es decir, la condicin
E(XY) = E(X)E(Y) no es suciente para poder concluir que X y Y son independientes. Por
ejemplo, considere el vector aleatorio discreto (X,Y) con funcin de probabilidad conjunta
x / y -1 0 1
-1 1/5 0 1/5
0 0 1/5 0
1 1/5 0 1/5
Por lo tanto
x / y -1 0 1 f (x)
-1 1/5 0 1/5 2/5
0 0 1/5 0 1/5
1 1/5 0 1/5 2/5
f (y) 2/5 1/5 2/5 1
Observemos que X e Y no son independientes pues por ejemplo
f (x =1) = P(X =1) =
2
5
y f (y =1) = P(Y =1) =
2
5
con lo cual f (x =1) f (y =1) =
4
25
Por otro lado
f (x =1, y =1) = P(X =1,Y =1) =
1
5
Sin embargo se puede comprobar fcilmente que E(XY) = E(X)E(Y) = 0.
4.7. Covarianza
En esta seccin se dene y se estudia la covarianza entre dos variables aleatorias. Una
interpretacin de este nmero, ligeramente modicado, ser dada en la siguiente seccin.
Denicin 39 (Covarianza) La covarianza de X y Y, denotada por Cov(X,Y), es el
nmero
Cov(X,Y) = E[(X E(X))(Y E(Y))] (44)
Para que la denicin anterior tenga sentido es necesario suponer que las esperanzas
E(X), E(Y) y E(XY) son nitas. En general cuando se escribe Cov(X,Y), se suponen tales
condiciones. Se revisan a continuacin algunas propiedades de la covarianza.
Ejemplo 47: Considere el vector aleatorio continuo (X,Y) con funcin de densidad con-
junta
f (x, y) =
_

_
x
2
+
xy
3
si 0 < x < 1, 0 < y < 2
0 en otro caso
4.7. Covarianza 73
Obtenga la covarianza entre X e Y.
Segn la ecuacin 42, E(X) y E(Y) son respectivamente
E(X) =

x f (x, y)dx dy =

2
0

1
0
x
_
x +
xy
3
_
dx dy =
13
18
E(X) =

y f (x, y)dx dy =

2
0

1
0
y
_
x +
xy
3
_
dx dy =
10
9
Entonces segn la ecuaciones 44 y 42 la covarianza entre las variables X e Y es
Cov(X,Y) = E[(X E(X))(Y E(Y))] =

_
x
13
18
__
y
10
9
_
f (x, y)dx dy
=

2
0

1
0
_
x
13
18
__
y
10
9
_ _
x
2
+
xy
3
_
dx dy =
1
162
Proposicin 16 Sean X y Y variables aleatorias y sea c una constante. Entonces
1. Cov(X,Y) = E(XY) E(X)E(Y)
2. Cov(X,Y) =Cov(Y, X)
3. Cov(X, X) =Var(X)
4. Cov(c,Y) = 0
5. Cov(cX,Y) = cCov(X,Y)
6. Cov(X
1
+X
2
,Y) =Cov(X
1
,Y) +Cov(X
2
,Y)
7. Si X y Y son independientes, entonces Cov(X,Y) = 0
8. En general, Cov(X,Y) = 0 no implica que X,Y sean independientes.
Ejemplo 48: La siguiente tabla representa la funcin de probabilidad conjunta del vactor
aleatorio (X,Y). Determine la covarianza entre X e Y.
x
_
y 2 4
-1 1/4 1/4
2 1/4 1/4
Segn el punto 1 de la proposicin anterior Cov(X,Y) =E(XY)E(X)E(Y). Calculemos
entonces E(X), E(Y) y E(XY) utilizando la ecuacin 42
E(X) =

y
x f (x, y) =

x
x[P(X = x,Y = 2) +P(X = x,Y = 4)] =
1
2
E(Y) =

y
y f (x, y) =

x
[2P(X = x,Y = 2) +4P(X = x,Y = 4)] = 3
E(XY) =

y
xy f (x, y) =

x
x[2P(X = x,Y = 2) +4P(X = x,Y = 4)] =
3
2
4.8. Coeciente de correlacin 74
Por lo que Cov(X,Y) = 0. Podemos observar adems que X e Y son independientes ya
que P(X = x, P(Y = y)) = P(X = x)P(Y = y).
x / y 2 4 P(X = x)
-1 1/4 1/4 1/2
2 1/4 1/4 1/2
P(Y = y) 1/2 1/2
4.8. Coeciente de correlacin
El coeciente de correlacin de dos variables aleatorias es un nmero real que mide el
grado de dependencia lineal que existe entre ellas. Su denicin es la siguiente.
Denicin 40 (Coeciente de correlacin) El coeciente de correlacin de las variables
aleatorias X y Y , denotado por (X,Y), es el nmero
(X,Y) =
Cov(X,Y)
_
Var(X) Var(Y)
(45)
Ejemplo 49: Considere nuevamente el vector aleatorio continuo (X,Y) con funcin de
densidad conjunta dada en el ejemplo 47 y obtenga el coecnietne de correlacin entre X e Y
La funcin de densidad conjunta de X e Y viene dada por
f (x, y) =
_

_
x
2
+
xy
3
si 0 < x < 1, 0 < y < 2
0 en otro caso
y en el ejmplo 47 se haba calculado:
E(X) =
13
18
, E(Y) =
10
9
y Cov(X,Y) =
1
162
Como siguiente paso determinemos E(X
2
) y E(Y
2
), entonces
E(X
2
) =

x
2
f (x, y) dx dy =

2
0

1
0
x
2
_
x
2
+
xy
3
_
dx dy =
17
30
E(Y
2
) =

y
2
f (x, y) dx dy =

2
0

1
0
y
2
_
x
2
+
xy
3
_
dx dy =
14
9
Aplicando una de las propiedades de varianza
Var(X) =
17
30

_
13
18
_
2
=
73
1620
Var(Y) =
14
9

_
10
9
_
2
=
26
81
Por lo tanto segn la ecuacin 45 el coeciente de correlacin estar dada por
=

1
162
_
73
1620

26
81
=0, 0513
4.8. Coeciente de correlacin 75
Proposicin 17: El coeciente de correlacin satisface las siguientes propiedades
1. Si X y Y son independientes, entonces (X,Y) = 0
2. 1 (X,Y) 1
Denicin 41 (Correlacin positiva, negativa o nula) Cuando (X,Y) = 0 se dice que
X y Y no estn correlacionadas linealmente. Cuando |(X,Y)| = 1 se dice que X y Y estn
perfectamente correlacionadas positiva o negativamente, de acuerdo al signo de (X,Y).
Ejemplo 50: En el ejemplo 48 habamos visto que para el vactor aleatorio (X,Y) con
funcin de probabilidad dada en la tabla
x
_
y 2 4
-1 1/4 1/4
2 1/4 1/4
la covarianza entre X e Y era igual a cero con lo cual (X,Y) = 0, lo que implica que X e Y
no estn correlacionadas de manera lineal.
4.8.1. Caractersticas del coeciente de correlacin
En la denicin anterior se necesita suponer que las varianzas son estrictamente posi-
tivas y nitas. Tomando en cuenta esto, el coeciente de correlacin tiene las siguientes
caractersticas:
Est fuertemente relacionada con la covarianza, que constituye el numerador de .
Es una cantidad adimencional.
Mide el grado de relacin entre las variables, esto es mide la dependencia entre ellas.
Es una medida del grado de linealidad entre las variables involucradas. Los valores de
prximos a 1, indican un alto grado de linealidad, mientras que los valores cercanos
a cero indican una ausencia de linealidad, pero esto no impide la posibilidad de alguna
relacin no lineal entre las variables.
Los valores positivos de muestran que la variable Y tiende a aumentar con los valores
crecientes de la variable X (relacin directa), mientras que los valores negativos de
muestran que Y tiende a disminuir con los valores crecientes de X (relacin inversa).
4.9. Problemas 76
4.9. Problemas
Distribucin conjunta
1. Demuestre que las siguientes funciones son de distribucin
a) F(x, y) = (1e
x
)
_
1
2
+
1

arctag(y)
_
b) F(x, y) = 1e
x
e
y
e
xy
, para x, y > 0
2. Demuestre que la siguiente funcin no es de distribucin.
F(x, y) =
_
_
_
mn{1, mx{x,y}} si x, y > 0
0 en otro caso
3. Investigue si las siguientes funciones son de distribucin
a) F(x, y) = 1e
xy
, para x, y > 0.
b) F(x, y) = 1e
xy
, para x, y > 0.
4. Sean X y Y dos variables aleatorias, y sean x y y cualesquiera nmeros reales. Diga
falso o verdadero. Demuestre en cada caso.
a) P(X > x,Y > y) = 1P(X x,Y y)
b) P(X x,Y y) P(X x)
c) P(X x) = P(X x,Y x) +P(X x,Y > x)
d) P(X +Y x) P(X x)
e) P(XY < 0) P(X < 0)
5. Sean X y Y dos variables aleatorias, y sean x y y cualesquiera nmeros reales. Diga
falso o verdadero. Demuestre en cada caso.
a) P(X > x,Y > y) = 1P(X x,Y y).
b) P(X x,Y y) P(X x).
c) P(X x) = P(X x,Y x) +P(X x,Y > x).
d) P(X +Y x) P(X x).
e) P(XY < 0) P(X < 0).
Densidad conjunta
6. Graque y demuestre que las siguientes funciones son de densidad.
a) f (x, y) =
1
ab
, para 0 < x < a, 0 < y < b.
b) f (x, y) = 4xy, para 0 x, y 1.
c) f (x, y) = 6x
2
y, para 0 x, y 1.
4.9. Problemas 77
d) f (x, y) =
9x
2
y
2
4
, para 1 x, y 1.
e) f (x, y) = e
xy
, para x, y > 0.
f) f (x, y) = e
x
, para 0 < y < x.
7. Calcule la constante c que hace a f una funcin de densidad.
a) f (x) = cx, para 0 x 1.
b) f (x, y) = cx, para 0 < y < x < 1.
c) f (x, y) = c(x +y), para 0 x, y 1.
d) f (x, y) = c(1x)(1y) para 1 < x, y < 1.
e) f (x, y) = cx(y x) para 0 < x < y < 1.
f) f (x, y) = c
_
x
2
+
1
2
xy
_
, para 0 < x < 1, 0 < y < 2.
g) f (x, y, z) = c(x +y +z), para 0 x, y, z 1.
h) f (x, y, z) = cx(y x)(z y), para 0 < x < y < z < 1.
i) f (x
1
, x
2
, . . . , x
n
) = c(x
1
+x
2
+ +x
n
), para 0 x
1
, x
2
, . . . , x
n
1.
8. Encuentre la funcin de densidad del vector (X,Y) cuya funcin de distribucin es
a) F(x, y) = (1e
x
)
_
1
2
+
1

arctag(y)
_
b) F(x, y) = 1e
x
e
y
e
xy
, para x, y > 0
9. Encuentre la funcin de distribucin del vector (X,Y) cuya funcin de densidad es
a) f (x, y) =
1
ab
, para 0 < x < a, 0 < y < b.
b) f (x, y) = e
xy
, para x, y > 0.
c) f (x, y) = e
y
, para 0 < x < y.
d) f (x, y) = 2e
xy
, para 0 < x < y.
Distribucin marginal
10. Suponiendo el caso absolutamente continuo, demuestre que la funcin de densidad
marginal
f
X
(x) =

f
X,Y
(x, y)dy
es efectivamente una funcin de densidad univariada.
11. Encuentre las funciones de distribucin marginales del vector (X,Y) cuya funcin de
distribucin es
a) F(x, y) = (1e
x
)(1e
y
), para x, y > 0.
b) F(x, y) = (1e
x
2
)(1e
y
2
), para x, y > 0.
4.9. Problemas 78
12. Encuentre las funciones de densidad marginales del vector (X,Y) cuya funcin de den-
sidad es
a) f (x, y) =
1
ab
, para 0 < x < a, 0 < y < b.
b) f (x, y) = 4xy, para 0 < x, y < 1.
c) f (x, y) = 24x(1x y), para x, y > 0 y x +y < 1.
d) f (x, y) =
x +2y
4
, para 0 < x < 2 y 0 < y < 1.
e) f (x, y) =
2(4x +y)
5
, para 0 < x, y < 1.
f) f (x, y) =
1
x
, para 0 < y < x < 1.
g) f (x, y) =
3
2
, para 0 < y < x
2
< 1.
h) f (x, y) =
2x
y
2
, para 0 < x < 1 y y > 1.
13. Sea 0 < a < 1 y dena la funcin f (x, y) = a
x
(1a)
y
, para x, y = 1, 2, . . . . Demuestre
que f (x, y) es una funcin de densidad y calcule las funciones de densidad y de dis-
tribucin marginales. Calcule adems F
X,Y
(x, y).
Distribucin condicional
14. Calcule las funciones condicionales f
X|Y
(x|y) y F
X|Y
(x|y), para las siguientes funciones
de densidad.
a) f (x, y) =
1
ab
, para 0 < x < a, 0 < y < b.
b) f (x, y) = 4xy, para 0 < x, y < 1.
c) f (x, y) = 24x(1x y), para x, y > 0 y x +y < 1.
d) f (x, y) =
x +2y
4
, para 0 < x < 2 y 0 < y < 1.
e) f (x, y) =
2(4x +y)
5
, para 0 < x, y < 1.
f) f (x, y) =
1
x
, para 0 < y < x < 1.
g) f (x, y) =
xy
25
, para 0 < x < 2, 0 < y < 5.
15. Se hacen tres lanzamientos de una moneda equilibrada cuyos resultados llamaremos
cara y cruz. Sea X la variable que denota el nmero de caras que se obtienen en los dos
primeros lanzamientos, y sea Y la variable que denota el nmero de cruces en los dos
ultimos lanzamientos. Calcule f
X,Y
(x, y), f
X
(x), f
Y
(y) y f
Y
|X(y|x) para x = 0, 1, 2.
16. Sea (X,Y) un vector con funcin de densidad f (x, y) =
x +y
8
, para 0 x, y 2. Com-
pruebe que f (x, y) es una funcin de densidad y calcule
4.9. Problemas 79
a) f
X
(x) h) F
X|Y
(x|y).
b) f
Y
(y) i) F
Y|X
(y|x).
c) F
X,Y
(x, y) j) P(Y > X).
d) F
X
(x) k) P(X > 1|Y < 1).
e) F
Y
(y) l) P(X > 1)
f) f
X|Y
(x|y) m) P(X +Y > 1)
g) f
Y|X
(y|x) n) P(|X Y| > 1)
17. Sea (X,Y) un vector con funcin de densidad f (x, y) = 8xy, para 0 < x < y < 1.
Graque y compruebe que f (x, y) es una funcin de densidad. Calcule adems
a) f
X
(x) h) F
X|Y
(x|y)
b) f
Y
(y) i) F
Y|X
(y|x)
c) F
X,Y
(x, y) j) P(Y < 1/2, X < 1/2)
d) F
X
(x) k) P(Y > 1/2|X > 1/2)
e) F
Y
(y) l) P(XY < 1)
f) f
X
|Y(x|y) m) P(X +Y < 1)
g) f
Y
|X(y|x) n) P(|X Y| < 1)
18. Sea (X,Y) un vector con funcin de densidad f (x, y) = 3y, para 0 < x < y < 1. Com-
pruebe que f (x, y) es efectivamente una funcin de densidad y calcule
a) P
_
X +Y <
1
2
_
b) f
X
(x) y f
Y
(y)
c) E(Y) y E(Y|X = x)
19. Sea (X,Y) un vector con distribucin uniforme en el conjunto {1, 2, . . . , 6}{1, 2, . . . 6}.
Calcule
a) P(X =Y)
b) P(X +Y,6)
c) f
X
(x) y f
Y
(y)
d) E(X|X +Y = 6)
20. Sea (X,Y) un vector con funcin de probabilidad conjunta dada por la siguiente tabla
x / y -1 0 1
1 0,3 0,05 0,05
2 0,05 0,2 0,05
3 0,1 0,1 0,1
Calcule
4.9. Problemas 80
a) P(X = 2), P(X +Y = 1) y P(Y X)
b) f
X
(x) y f
Y
(y)
c) f
Y|X
(y|x) para x = 1, 2, 3
d) E(Y|X = x) para x = 1, 2, 3
Independencia de variables aleatorias
21. Sean X y Y variables aleatorias discretas con valores en los conjuntos {x
1
, x
2
, . . . } y
{y
1
, y
2
, . . . }, respectivamente. Demuestre que X y Y son independientes si, y slo si,
para cualesquiera valores de los ndices i, j = 1, 2, . . . se tiene
P(X = x
i
,Y = y
j
) = P(X = x
i
)P(Y = y
j
)
22. Sea (X,Y) un vector aleatorio absolutamente continuo con funcin de densidad f
X,Y
(x, y).
Demuestre que las variables X y Y son independientes si, y slo si, para casi todo par
de nmeros x y y se cumple
f
X,Y
(x, y) = f
X
(x) f
Y
(y)
23. Determine si las siguientes son funciones de densidad de variables aleatorias indepen-
dientes.
a) f (x, y) =
1
ab
, para 0 < x < a, 0 < y < b
b) f (x, y) = 2x, para 0 < x, y < 1
c) f (x, y) = 2e
xy
, para 0 < x < y
d) f (x, y) = e
xy
, para x, y > 0
e) f (x, y) =
3(x
2
+y
2
)
8
, para x, y [1, 1].
f) f (x, y) = 3x(1xy), para 0 < x, y < 1
24. Determine si las siguientes son funciones de distribucin de variables aleatorias inde-
pendientes.
a) F(x, y) = (1e
x
)(1e
y
), para x, y > 0
b) F(x, y) = (1e
x
2
)(1e
y
2
), para x, y > 0
25. Demuestre que X y Y son independientes si, y slo si, cualquiera de las siguientes
condiciones se cumple: Para cada par de nmeros reales x y y,
a) P(X > x,Y > y) = P(X > x)P(Y > y)
b) P(X x,Y > y) = P(X x)P(Y > y)
c) P(X > x,Y y) = P(X > x)P(Y y)
26. Sea (X,Y) un vector con funcin de densidad f (x, y) = c(1x), para 0 < x < y < 1.
4.9. Problemas 81
a) Encuentre el valor de c que hace a f (x, y) una funcin de densidad y graque esta
funcin.
b) Calcule P(X +Y > 1) y P(X 1/2)
c) Encuentre las funciones de densidad marginales f
X
(x) y f
Y
(y)
d) Determine si X y Y son independientes
27. Sea (X,Y) un vector aleatorio con funcin de densidad f (x, y) =
c
2
x+y
, para x = 0, 1, 2
y y =1, 2. Encuentre el valor de la constante c y determine si X y Y son independientes.
Calcule adems las probabilidades P(X = 1), P(X = 2|Y = 2) y P(XY = 2).
28. Sea (X,Y) un vector aleatorio con funcin de densidad f (x, y) = 2, para 0 < x < y < 1.
a) Graque y demuestre que f (x, y) es una funcin de densidad.
b) Encuentre las funciones de densidad marginales f
X
(x) y f
Y
(y).
c) Determine si X y Y son independientes.
d) Calcule P(Y > X) y P(Y > X
2
)
29. Sea (X,Y) un vector con funcin de densidad f (x, y) = c|x +y|, para 1 < x, y < 1.
a) Encuentre el valor de la constante c que hace a f (x, y) una funcin de densidad y
graque esta funcin.
b) Calcule P(X > 0), P(XY > 0) y P(0 < X +Y < 1).
c) Encuentre las funciones de densidad marginales f
X
(x) y f
Y
(y). d) Determine si X
y Y son independientes.
30. Sean X y Y independientes con distribucin bin(n, p) y bin(m, p), respectivamente.
Demuestre que X +Y tiene distribucin bin(n+m, p).
31. Sean X y Y independientes con distribucin Poisson con parmetros
1
y
2
respecti-
vamente. Demuestre que X +Y tiene distribucin Poisson(
1
+
2
).
32. Sea (X,Y, Z) un vector aleatorio con funcin de densidad f (x, y, z) = 8xyz, para 0 <
x, y, z < 1.
a) Compruebe que f (x, y, z) es una funcin de densidad.
b) Calcule P(X <Y < Z) y P(X +Y +Z < 1).
c) Encuentre f
X,Y
(x, y), f
X,Z
(x, z) y f
Y,Z
(y, z).
d) Determine si X, Y y Z son independientes
33. Sea (X,Y) un vector aleatorio discreto con funcin de probabilidad f (x, y) dada por la
siguiente tabla.
x / y -1 0 1
1 0,1 0,05 0,1
2 0,06 0,2 0,04
3 0,1 0,05 0,3
4.9. Problemas 82
a) Graque f (x, y) y compruebe que efectivamente se trata de una funcin de pro-
babilidad conjunta.
b) Calcule y graque las densidades marginales f
X
(x) y f
Y
(y). Verique que ambas
funciones son efectivamente de probabilidad.
c) Son independientes X y Y?.
34. Sea (X,Y) un vector discreto con funcin de probabilidad dada por la siguiente tabla.
x / y 2 4 6
1 2/18 3/18 1/18
2 3/18 5/18 1/18
3 1/18 1/18 1/18
a) Graque f (x, y) y compruebe que efectivamente es una funcin de probabilidad
conjunta.
b) Calcule y graque las probabilidades marginales f
X
(x) y f
Y
(y). Verique que
ambas son efectivamente funciones de densidad.
c) Son independientes X y Y?.
Covarianza
35. Diga falso o verdadero. Demuestre en cada caso.
a) Cov(X,Y) 0.
b) Cov(aX, bY) = abCov(X,Y), con a, b constantes.
c) Cov(X, aY +b) = aCov(X,Y) +b, con a, b constantes.
36. Demuestre que
a) Cov(X,Y) = E(XY) E(X)E(Y).
b) Cov(X,Y) =Cov(Y, X).
c) Cov(X, X) =Var(X).
d) Cov(X, X) =Var(X).
e) Cov(aX +b,Y) = aCov(X,Y), con a, b constantes.
f) Cov(X
1
+X
2
,Y) =Cov(X
1
,Y) +Cov(X
2
,Y).
37. Sea a cualquier nmero real jo. Encuentre variables aleatorias X yY tales que Cov(X,Y) =
a.
38. Demuestre que Var(X Y) =Var(X) +Var(Y) 2Cov(X,Y).
39. Sea (X,Y) con distribucin uniforme en el conjunto {1, 2, . . . , n} {1, 2, . . . , n}. De-
muestre que Cov(X,Y) = 0.
40. Sea (X, Y ) con distribucin uniforme en el conjunto (a, b) (c, d). Demuestre que
Cov(X,Y) = 0.
4.9. Problemas 83
41. Calcule la covarianza de X y Y cuya funcin de probabilidad conjunta est dada por la
siguiente tabla.
x / y -1 0 1
-1 1/12 2/12 3/12
1 3/12 2/12 1/12
42. Calcule la covarianza de X y Y cuya funcin de probabilidad conjunta est dada por la
siguiente tabla.
x / y 1 2 3
2 0,2 0,05 0,15
4 0,05 0,1 0,15
6 0,05 0,1 0,15
Coeciente de correlacin
43. Diga falso verdadero. Demuestre en cada caso.
a) (X,Y) =(Y, X)
b) (X +a,Y) =(X,Y), a constante.
c) (aX +b,Y) = a(X,Y) +b, a, b constantes.
44. Sea a un nmero cualquiera en [1, 1]. Encuentre variables aleatorias X y Y tales que
(X,Y) = a.
45. Sean X y Y independientes con distribucin Ber(p) con p = 1/2. Demuestre que el
coeciente de correlacin entre X +Y y |X Y| es cero, y sin embargo estas variables
aleatorias no son independientes.
46. Sea X con distribucin normal estndar. Demuestre que el coeciente de correlacin
entre X y X
2
es cero, y sin embargo estas variables no son independientes. Este re-
sultado puede extenderse al caso en el que la distribucin de X cumple la condicin
E(X) = E(X
3
) = 0.
47. Sea X una variable aleatoria y sean a y b constantes. Demuestre que
a) (X, X) = 1
b) (X, X) =1
c) (X, aX +b) = signo(a)
48. Demuestre que (aX +b, cY +d) = signo(ac)(X,Y), en donde ac = 0. Recuerde que
signo(x) =
_
_
_
1 si x > 0
1 si x < 0
0 si x = 0
49. Calcule el coeciente de correlacin de X y Y cuya funcin de densidad conjunta est
dada por la siguiente tabla.
x / y 1 2
0 1/8 1/4
1 1/2 1/8
4.9. Problemas 84
50. Calcule el coeciente de correlacin de X y Y cuya funcin de densidad conjunta est
dada por la siguiente tabla. Son independiente X e Y?.
x / y 1 2 3
2 1/9 1/9 1/9
4 1/9 1/9 1/9
6 1/9 1/9 1/9
51. Calcule el coeciente de correlacin de X y Y cuya funcin de densidad conjunta es
a) f (x, y) =
1
2
sen(x +y), para x, y
_
0,

2
_
.
b) f (x, y) = e
x/2
, para |y| < x.
c) f (x, y) = e
xy
, para x, y > 0.
5. DISTRIBUCIONES DE
PROBABILIDAD
Estudiaremos a continuacin algunas distribuciones de probabilidad de variables aleato-
rias importantes. Estas distribuciones son modelos particulares para asignar probabilidades
a subconjuntos de nmeros reales. Empezaremos con las distribuciones de tipo discreto y
continuaremos despus con las de tipo continuo. Es importante sealar que sta es slamente
una lista parcial de algunas distribuciones de probabilidad de mayor uso.
5.1. Distribuciones discretas de probabilidad
5.1.1. Distribucin Bernoulli
Un ensayo Bernoulli se dene como aquel experimento aleatorio con nicamente dos
posibles resultados, llamados genricamente xito y fracaso, con probabilidades respec-
tivas P(xito) = p y P(Fracaso) = 1p.
5.1.1.1. Construccin de una distribucin de Bernoulli
Sea un experimento aleatorio que arroja nicamente dos posibles resultados, denominados
xito y fracaso. Si se dene la variable aleatoria X como aquella funcin que lleva el resultado
xito al nmero 1 y el resultado fracaso al nmero 0, entonces decimos que X tiene una
distribucin Bernoulli con parmetro p (0, 1), y escribimos X Ber(p). La funcin de
probabilidad es
f (x) =
_
p
x
(1p)
1x
si x = 0, 1
0 para otro caso
(46)
Proposicin 18: Sea X Ber(p), entonces tenemos que
a) E(X) = p
b) Var(X) = p(1p)
c) M
X
(t) = 1p+ pe
t
Demostracin
a) A partir de la denicin de esperanza se tiene que
E(X) =

x
x f (x) = 0 (1p) +1 p = p
85
5.1. Distribuciones discretas de probabilidad 86
b) Segn la denicin de varianza, Var(X) =

x
[x E(X)]
2
f (x), entonces tenemos que
Var(X) = (0p)
2
(1p) +(1p)
2
p = p
2
(1p) + p(1p)
2
= p(1p)
c) Recordando que la funcin generadora de momentos se dene como M
X
(t) = E(e
tX
),
entonces
M
X
(t) =

x
e
tx
f (x) = e
0
(1p) +e
t
p = 1p+ pe
t
Ejemplo 51: Considere el experimento aleatorio de lanzar una moneda al aire. Calcula la
esperanza, la varianza y la funcin generadora de momentos.
Suponga que
1
= cara y
2
= cruz son los dos resultados posibles, con probabilidades
p =
1
2
y 1 p =
1
2
, respectivamente. Sea X la variable aleatoria dada por X(
1
) = 1, y
X(
2
) = 0. Entonces X tiene distribucin Ber
_
1
2
_
, por lo tanto
E(X) = p =
1
2
, Var(X) = p(1p) =
1
2
(1
1
2
) =
1
4
y M
X
(t) = 1
1
2
+
1
2
e
t
=
1
2
(1+e
t
)
5.1.2. Distribucin binomial
La distribucin binomial fue desarrollada por suizo Jakob Bernoulli (1654-1705), es la
principal distribucin de probabilidad discreta. La variable aleatoria binomial y su distribu-
cin estn basadas en un experimento que satisface las condiciones citadas a continuacin.
5.1.2.1. Construccin de la distribucin binomial
Suponga que se realizan n ensayos idnticos independientes de Bernoulli en donde la
probabilidad de xito y de fracaso en cada uno de ellos es la misma, siendo la probabilidad
de xito igual a p y la del fracaso igual a 1 p, con p (0, 1). El espacio muestral de este
experimento consiste de todas las posibles sucesiones de longitud n de xitos y de fracasos,
esto es
={(EEE . . . E), (FEE . . . E), (FFE . . . E), . . . , (FFF . . . FE), (FFF . . . F)}
Usando el principio multiplicativo, es fcil ver que este conjunto tiene 2
n
elementos.
Si ahora se dene la variable aleatoria X como el nmero de xitos en cada una de estas
sucesiones, esto es
X(EEE . . . E) = n, X(FEE . . . E) = n1, . . . , X(FFF . . . EF) = 1, X(FFF . . . F) = 0
entonces X toma los valores 0, 1, . . . , n, y se dice que X tiene una distribucin binomial con
parmetros n y p. Se escribe X bin(n, p), y su funcin de probabilidad es
f (x) =
_

_
n!
x!(nx)!
p
x
(np)
1x
si x = 0, 1, . . . , n
0 para otro caso
(47)
Proposicin 19: Sea X bin(n, p), entonces tenemos que
5.1. Distribuciones discretas de probabilidad 87
a) E(X) = np
b) Var(X) = n(1p)
c) M
X
(t) = (1p+ pe
t
)
n
Demostracin
a) Como la variable aleatoria X constituye el nmero de xitos obtenidos en cada uno
de los posibles resultados en el experimento (posibles sucesiones de ). Entonces
X =
n

j=1
X
j
, donde X
j
Ber(p), j = {1, 2, . . . , n}, por lo que la esperanza, varian-
za y funcin generadora de momentos de cada X
j
son E(X
j
) = p, Var(X
j
) = p(1p)
y M
X
j
(t) = pe
t
+ p 1 respectivamente. Aplicando la propiedad de linealidad de la
esperanza se tiene
E(X) = E
_ n

j=1
X
j
_
=
n

j=1
E(X
j
) =
n

j=1
p = np
b) Tomando en cuenta la propiedad de varianza que establece que si tenemos n variables
aleatorias independientes, todas con varianzas nitas, entonces la varianza de las suma
de las n v.a. es idntica a la suma de las varianzas de las variables, por lo tanto la
varianza de X es:
Var(X) =Var(
n

j=1
X
j
) =
n

j=1
Var(X
j
) =
n

j=1
p(1p) = np(1p)
c) Una de las propiedades de la funcin generadora de momentos establece que si tenemos
n variables aleatorias independientes, entonces la funcin generadora de momentos de
la suma de las n v.a. es idntico al producto de la funcin generadora de momentos de
las variables, entonces
M
X
(t) = M_ n

j=1
X
j
_(t) =
n

j=1
M
X
j
(t) =
n

j=1
(pe
t
+ p1) = (pe
t
+ p1)
n
Ejemplo 52: El experimento consiste en lanzar cuatro veces al aire una moneda. Nuestro
inters es el nmero de caras obtenidas en los cuatro lanzamientos. Como es evidente, la
probabilidad de obtener un xito ( cara ), en una de las pruebas ( lanzamiento ) es 0,50 y la
de obtener un fracaso es tambin 0,50.
a) Cul es la probabilidad de no obtener caras en los cuatro lanzamientos?
b) Cul es la probabilidad de obtener dos caras en los cuatro lanzamientos?
c) Haga una distribucin de probabilidad binomial
d) Calcular la media, la desviacin estndar y la funcin generadora de momentos de esta
distribucin binomial
5.1. Distribuciones discretas de probabilidad 88
Esta distribucin binomial tiene por funcin de probabilidad a la siguiente funcin
f (x) =
_

_
4!
x!(4x)!
_
1
2
_
x
_
1
2
_
4x
si x = 0, 1, 2, 3, 4
0 para otro caso
=
_

_
4!
x!(4x)!
_
1
2
_
4
si x = 0, 1, 2, 3, 4
0 para otro caso
a) La probabilidad de no obtener caras en los cuatro lanzamientos es P(X = 0), esto es,
P(X = 0) =
4!
0!(40)!
_
1
2
_
4
=
1
16
b) La probabilidad de obtener dos caras en los cuatro lanzamientos es P(X = 2), esto es,
P(X = 2) =
4!
2!(42)!
_
1
2
_
4
=
6
16
=
3
8
c) La distribucin de probabilidad est dada por la siguiente tabla
x 0 1 2 3 4
p(x) 1/16 4/16 3/8 1/4 1/16
c) Teniendo en cuenta la proposicin 19 tenemos que la esperanza, la varianza y la funcin
generadora de momentos son respectivamente
E(X) = 4
1
2
= 2, Var(X) = 4
1
2

1
2
= 1 y M
X
(t) =
_
1
1
2
+
1
2
e
t
_
4
=
1
16
(e
t
+1)
4
5.1.3. Distribucin Poisson
Esta distribucin fue descubierta por Simen Denis Poisson (1781-1840) en 1837 como
lmite de la distribucin binomial. En 1838 en su trabajo Recherches sur la probabilit des
jugements en matires criminelles et matire civile (Investigacin sobre la probabilidad de
los juicios en materias criminales y civiles). El trabajo estaba enfocado en ciertas variables
aleatorias N que cuentan, entre otras cosas, un nmero de ocurrencias discretas (muchas veces
llamadas arribos) que tienen lugar durante un intervalo de tiempo de duracin determinada.
La distribucin de Poisson tiene conexin con los procesos de Poisson. Se aplica a varios
fenmenos discretos de la naturaleza (esto es, aquellos fenmenos que ocurren 0, 1, 2, 3, . . .
veces durante un periodo denido de tiempo o en una rea determinada) cuando la probabili-
dad de ocurrencia del fenmeno es constante en el tiempo o el espacio.
La distribucin de Poisson surge cuando estamos interesados en medir el nmeros de
sucesos aleatorios que suceden en un intervalo de tiempo jo. La variable aleatoria se dis-
tribuye a lo largo del tiempo o del espacio. Las condiciones para que se trate de una distribu-
cin de Poisson son:
Los eventos de inters deben ocurrir independientemente unos de otros
La probabilidad de que suceda un evento en un intervalo depende de la longitud del
intervalo y no de su posicin.
5.1. Distribuciones discretas de probabilidad 89
5.1.3.1. Construccin de una distribucin de Poisson
Supongamos que deseamos observar el nmero de ocurrencias de un cierto evento dentro
de un intervalo de tiempo dado, por ejemplo, el nmero de clientes que llegan a un cajero
automtico durante la noche, o tal vez deseamos registrar el nmero de accidentes que ocurren
en cierta avenida durante todo un da. Para modelar este tipo de situaciones podemos denir
la variable aleatoria X como el nmero de ocurrencia de este evento en el intervalo de tiempo
dado. Es claro entonces que X puede tomar los valores 0, 1, 2, . . . , y en principio no ponemos
una cota superior para el nmero de observaciones del evento. Adicionalmente supongamos
que conocemos la tasa media de ocurrencia del evento de inters, que denotamos por la letra
(lambda). El parmetro es positivo y se interpreta como el nmero promedio de ocurrencias
del evento, por unidad de tiempo. La probabilidad de que la variable aleatoria X tome un valor
entero x 0 se denir a continuacin. Decimos que X tiene una distribucin Poisson con
parmetro > 0, y escribimos X Poisson() cuando:
f (x) =
_

_
e

x
x!
si x = 0, 1, 2, . . .
0 para otro caso
(48)
Figura 7: Grca de f (x) de la distribucin Poisson
El eje horizontal es el ndice x. La funcin solamente est denida en valores enteros de
x. Las lneas que conectan los puntos son solo guas para el ojo y no indican continuidad.
Proposicin 20: Sea X Poisson(), entonces tenemos que
a) E(X) =
b) Var(X) =
c) M
X
(t) = e
(e
t
1)
5.1. Distribuciones discretas de probabilidad 90
Demostracin
a) A partir de la denicin de esperanza se tiene que
E(X) =

x=0
x
e

x
x!
=

x=1
e

x
(x 1)!
=

x=1
e

x1
(x 1)!
=
b) Segn una de las propiedades de la varianza se tiene, Var(X) = E(X
2
) [E(X)]
2
, en-
tonces calculemos primero E(X
2
)
E(X
2
) =

x=0
x
2
e

x
x!
=

x=1
x
e

x
(x 1)!
=

x=1
(x 1+1)
e

x
(x 1)!
=

x=1
(x 1)
e

x
(x 1)!
+

x=1
e

x
(x 1)!
=

x=2
e

x
(x 2)!
+

x=1
e

x1
(x 1)!
=
2

x=2
e

x2
(x 2)!
+

x=1
e

x1
(x 1)!
=
2
+
Entonces:
Var(X) =
2
+
2
=
c) Por la denicin de funcin generadora de momentos, se tiene que
M
X
(t) =

x=0
e
tx
e

x
x!
= e

x=0
(e
t
)
x
x!
= e

e
e
t

= e
(e
t
1)
Ejemplo 53: Una distribucin de Poisson est dada por: P(X = x) =
e
1,8
(1, 8)
x
x!
Hallar
a) P(X = 1), P(X 2) y P(X 3)
b) E(X),Var(X) y M
X
(t)
Desarrollo
a) Tomando la funcin de probabilidad tenemos que
P(X = 1) =
e
1,8
(1, 8)
1
1!
= 1, 8e
1,8
= 0, 2975
P(X 2) = P(X = 0) +P(X = 1) +P(X = 2)
=
e
1,8
(1, 8)
0
0!
+
e
1,8
(1, 8)
1
1!
+
e
1,8
(1, 8)
2
2!
= 0, 7306
P(X 3) = 1P(x < 3) = 1[P(X = 0) +P(X = 1) +P(X = 2)]
= 10, 7306 = 0, 2694
b) A partir de la proposicin 20 se tiene que
E(X) =Var(X) = = 1, 8 y M
X
(t) = e
1,8(e
t
1)
5.1. Distribuciones discretas de probabilidad 91
5.1.3.2. Relacin con la distribucin binomial
La distribucin de Poisson puede ser vista como un caso lmite de la distribucin binomi-
al, es decir, una distribucin binomial en la que n y p 0 se puede aproximar por una
distribucin de Poisson de parmetro = np.
Ejemplo 54: En una central telefnica automtica la probabilidad de que una llamada sea
conectada errneamente es 10
3
.
a) Para un da donde son conectadas 2000 llamadas independientes, hallar el valor aprox-
imado de la probabilidad que se efecten 4 conexiones errneas.
b) Cul es el nmero mnimo de llamadas independientes que se requieren para asegurar
con probabilidad 0,9 que por lo menos una de las llamadas sea conectada errnea-
mente?
Desarrollo
a) Sea X la v.a que represente el nmero de llamadas telefnicas conectadas errneamente
en un da determinado. Entonces la funcin de probabilidad de X est dada por:
P(X = x) =
e
np
(np)
x
x!
donde p = 10
3
y n = 2000 segn las condiciones de este problema. Entonces np = 2
y
P(X = 4) =
e
2
(2)
4
4!
= 0, 09
b) Si X es nuevamente el nmero de llamadas conectadas errneamente en un da determi-
nado entonces X Poisson(np). Segn la informacin P(X 1) 0, 9 y considerando
que P(X 1) = 1P(X < 1) = 1P(X = 0) entonces:
1
e
np
(np)
0
0!
0, 9
0, 1 e
np
ln|0, 1| np
n 2303 llamadas
5.1.4. Distribucin geomtrica
En la teora de probabilidad y estadstica, la distribucin geomtrica es cualquiera de las
dos distribuciones de probabilidad discretas siguientes:
La distribucin de probabilidad del nmero X de ensayos de Bernoulli necesaria para
obtener un xito, contenido en el conjunto {1, 2, 3, . . . } o
la distribucin de probabilidad del nmero Y = X 1 de fallos antes del primer xito,
contenido en el conjunto {0, 1, 2, 3, . . . }
A cualquiera de stas dos distribuciones se la denomina distribucin geomtrica, es una
cuestin de convencin y conveniencia.
5.1. Distribuciones discretas de probabilidad 92
5.1.4.1. Construccin de una distribucin geomtrica
Supongamos que tenemos ahora una sucesin innita de ensayos independientes Bernoul-
li, en cada uno de los cuales la probabilidad de xito es p. Para cada una de estas sucesiones
denimos la variable aleatoria X como el nmero de fracasos antes de obtener el primer
xito. Por ejemplo, X(FEFEFF . . . ) = 1, X(EFFEEE . . . ) = 0, X(FFFEFE . . . ) = 3. Ob-
servamos que X puede tomar los valores 0, 1, 2, . . . . La probabilidad de que X tome el valor
entero x 0 es p(1 p)
x
. Decimos entonces que X tiene una distribucin geomtrica con
parmetro p, y escribimos X geo(p) cuando
P(X = x) =
_
_
_
p(1p)
x
si x = 0, 1, 2, . . .
0 para otro caso
(49)
El nombre de esta distribucin proviene del hecho de que cuando escribimos la suma de
todas las probabilidades, obtenemos una suma geomtrica. La inspeccin sucesiva de artcu-
los hasta encontrar una defectuoso, posiblemente en un proceso de control de calidad, puede
modelarse usando una distribucin geomtrica.
Proposicin 21: Si X es la v.a. que muestra el nmero de fracasos antes del primer xito
esto es; X geo(p) entonces:
a) E(X) =
(1p)
p
b) Var(X) =
(1p)
p
2
c) M
X
(t) =
p
1e
t
(1p)
, con t < ln

1
1p

Demostracin
a) A partir de la denicin de esperanza se tiene que
E(X) =

x=0
xp(1p)
x
= p

x=0
x(1p)
x
= p(1p)

x=0
x(1p)
x1
=p(1p)

x=1
d
dp
[(1p)
x
] =p(1p)
d
dp
_

x=1
(1p)
x
_
=p(1p)
d
dp
_
1
p
1
_
=p(1p)
(1)
p
2
=
1p
p
b) Segn una de las propiedades de la varianza se tiene, Var(X) = E(X
2
) [E(X)]
2
, en-
tonces calculemos primero E(X
2
)
E(X
2
) =

x=0
x
2
p(1p)
x
= p

x=1
x
2
(1p)
x
= p(1p)

x=1
x
2
(1p)
x1
=p(1p)

x=1
d
dp
[x(1p)
x
] =p(1p)
d
dp
_

x=1
x(1p)
x
_
5.1. Distribuciones discretas de probabilidad 93
=p(1p)
d
dp
_
1
p

x=1
px(1p)
x
_
=p(1p)
d
dp
_
1p
p
2
_
=p(1p)
_
p
2
(1p)2p
p
4
_
=p(1p)
_
p2
p
3
_
=
(1p)(2p)
p
2
Entonces:
Var(X) =
(1p)(2p)
p
2

(1p)
2
p
2
=
1p
p
2
c) Por la denicin de funcin generadora de momentos, se tiene que
M
X
(t) =

x=0
e
tx
p(1p)
x
= p

x=0
[e
t
(1p)]
x
=
p
1e
t
(1p)
con t < ln

1
1p

Observacin: Recordar que una serie geomtrica es de la forma

x=1
r
x1
y converge a
1
1r
si su radio r cumple con la condicin |r| < 1
Ejemplo 55: Supongamos que un dado ordinario (equilibrado) es lanzado repetidas veces
hasta que aparece el resultado 1 por primera vez. Calcular
a) obtener la distribucin de probabilidad de la v.a. que se ajuste a este experimento y
calcular la probabilidad de obtener el 1 en el cuarto lanzamiento
b) la esperanza, la varianza y la funcin generadora de momentos
Desarrollo
a) Sea X la v.a que represente el nmero de lanzamientos necesarios del dado para obtener
por primera vez el resultado 1. Entonces X geo(P =
1
6
), con lo cual
P(X = x) =
_

_
1
6
_
5
6
_
x
si x = 0, 1, 2, . . .
0 para otro caso
Por lo que
P(X = 3) =
1
6
_
1
5
6
_
3
=
125
1296
b) Segn la proposicin 21 se tiene que
E(X) =
1
1
6
1
6
= 5, V(X) =
1
1
5
_
1
6
_
2
= 30 y M
X
(t) =
1
6
1e
t
_
1
1
6
_ =
1
65e
t
5.1.5. Distribucin binomial negativa
Si en una sucesin innita de ensayos de Bernoulli (el resultado en cada experimento es
un xito o fracaso) cada uno con parmetro p (0, 1); la variable aleatoria X cuenta el nmero
de fracasos antes de obtener el r-simo xito, entonces decimos que X tiene una distribucin
binomial negativa con parmetros r y p, y escribimos X bin neg(r, p).
5.1. Distribuciones discretas de probabilidad 94
5.1.5.1. Construccin de una distribucin binomial negativa
Para construir una distribucin binomial negativa es necesario conocer el nmero de prue-
bas que se repiten, el r-simo xito en el nmero de pruebas que se repiten y la probabilidad
de que suceda un xito en cada una de las pruebas.
Para n = r, r +1, . . . se dene A
n
como el suceso que establece que el nmero total de
pruebas requeridas para obtener exactamente r xitos es n. Como el suceso A
n
ocurre si y
solo si ocurren exactamente r 1 xitos en las primeras n 1 pruebas y el r-simo xito se
da en la n-simo prueba. Puesto que todas las pruebas son de Bernoulli entonces son todas
independientes entre si y plicando el principio de anlisis combinatorio, se obtiene que:
P(A
n
) =
_
n1
r 1
_
p
r1
(1p)
(n1)(r1)
p
con lo cual
P(A
n
) =
_
n1
r 1
_
p
r
(1p)
nr
(50)
Si decimos que X es la v.a. que cuenta el nmero de fracasos antes de obtener el r-simo
xito, entonces X puede tomar los valores del conjunto {0, 1, 2, . . . }. Adems recordemos
que n por denicin de A
n
es nmero de fracasos (x) ms nmero de xitos (r), esto es
n = x +r. Entonces se entiende la v.a. X podra caracterizar numricamente al suceso A
n
como X(A
n
) = x, por lo que tendremos;
P(A
n
) = P(A
x+r
) = P(X = x) (51)
Tomando en cuenta las ecuaciones (50) y (51) se tiene
P(X = x) =
_

_
_
r +x 1
x
_
p
r
(1p)
x
si x = 0, 1, 2, . . .
0 para otro caso
(52)
Donde
_
_
r +x 1
x
_
_
=
(r +x 1)!
x!(r 1)!
Aparece el trmino p
r
pues la sucesin de ensayos Bernoulli no concluye sino hasta
obtener r xitos. Podemos tener un nmero variable de fracasos, de ah el trmino (1p)
x
, y
nalmente el factor
_
_
r +x 1
x
_
_
que nos dice las diferentes formas en que los r xitos pueden
aparecer en los r +x1 ensayos realizados antes del ltimo que necesariamente fue un xito.
Es claro que esta distribucin es una generalizacin de la distribucin geomtrica, la cual
se obtiene tomando r = 1.
Proposicin 22: Si X es la v.a. que muestra el nmero de fracasos antes del r xito esto
es; X bin neg(r, p) entonces:
a) E(X) =
r(1p)
p
b) Var(X) =
r(1p)
p
2
5.1. Distribuciones discretas de probabilidad 95
c) M
X
(t) =
_
p
1e
t
(1p)
_
r
, con t < ln

1
1p

Demostracin
Si X es la v.a que cuenta el nmero de fracasos antes del r-simo xito en sucesin de
pruebas de Bernoulli; entonces X =
r

i=1
X
i
, donde todas las v.a. X
i
son independientes entre si
y cada X
i
geo(p), i = 1, 2, . . . , r; con lo cual E(X
i
) =
1p
p
,Var(X
i
) =
1p
p
2
y M
X
i
(t) =
p
1e
t
(1p)
. Esto resulta del hecho de que para cada xito se tubo que haber tenido un cierto
nmero de fracasos, que es la caracterstica de la distribucin geomtrica. Entonces
a) la esperanza de X es
E(X) = E
_ r

i=1
X
i
_
=
r

i=1
E(X
i
) =
r

i=1
1p
p
=
r(1p)
p
b) la varianza de X es
Var(X) =Var
_ r

i=1
X
i
_
=
r

i=1
Var(X
i
) =
r

i=1
1p
p
2
=
r(1p)
p
2
c) y la funcin generadora de momentos de X es
M
X
(t) = M_ r

i=1
X
i
_(t) =
r

i=1
M
X
i
(t) =
r

i=1
p
1e
t
(1p)
=
_
p
1e
t
(1p)
_
r
Ejemplo 56: Se lanza repetidas veces una moneda honesta, cuyos dos resultados son cara
y cruz.
a) Cul es la probabilidad de obtener la tercera cruz en el quinto lanzamiento?
b) Obtener la esperanza, varianza y la funcin generadora de momentos para esta distribu-
cin.
Desarrollo
a) Sea X la v.a. que represente el nmero de caras (fracasos) necesarias astes de obtener
por tercera vez cruz. Entonces X bin neg(3,
1
2
), con lo cual
P(X = x) =
_

_
_
2+x
x
_
_
1
2
_
3
_
1
2
_
x
si x = 0, 1, 2, . . .
0 para otro caso
Por lo que
P(X = 2) =
_
2+2
2
_
_
1
2
_
3
_
1
2
_
2
= 6
_
1
2
_
5
=
6
32
= 0, 1875
5.1. Distribuciones discretas de probabilidad 96
b) Segn la proposicin 22 se tiene que
E(X) =
3
_
1
1
2
_
1
2
= 3, V(X) =
3
_
1
1
2
_
_
1
2
_
2
= 6 y M
X
(t) =
1
2
1e
t
_
1
1
2
_ =
1
2e
t
5.1.6. Distribucin hipergeomtrica
Como la mayora de los muestreos se hacen sin remplazamiento. As, si la poblacin es
pequea la probabilidad de obtener el artculo del tipo requerido cambia en cada observacin.
En estadstica la distribucin hipergeomtrica es una distribucin de probabilidad discreta con
tres parmetros discretos N, r y n. Adems es apropiada para muestreos sin reemplazamiento
de poblaciones pequeas. Esta distribucin se reere a un espacio muestral donde hay ele-
mentos que tienen dos tipos de caractersticas posibles. Indica la probabilidad de obtener un
nmero de objetos x de uno de estos tipos, al sacar una muestra de tamao n, de un total de
N objetos, de los cuales k son del tipo requerido.
5.1.6. Construccin de una distribucin hipergeomtrica
Supongamos que tenemos un conjunto de N objetos de los cuales k son de una primera
clase y N k son de una segunda clase. Supongamos que de este conjunto tomamos una
muestra aleatoria de tamao n (n N), la muestra es sin reemplazo y el orden de los ob-
jetos seleccionados no importa. El espacio muestral de este experimento consiste de todas
las posibles muestras de tamao n que se pueden obtener del conjunto mayor de tamao N.
La cardinalidad del espacio muestral es
_
N
n
_
. Si para cada muestra denimos la variable
aleatoria X como el nmero de objetos de la primera clase contenidos en la muestra selec-
cionada, entonces X puede tomar los valores 0, 1, 2, . . . , n; suponiendo n k. La probabilidad
de que X tome un valor x estar dada por la frmula que enunciamos a continuacin. Dec-
imos que X tiene una distribucin hipergeomtrica con parmetros N, k y n, y escribimos
X hipergeo(N, k, n) si
P(X = x) =
_

_
_
k
x
__
Nk
nx
_
_
N
n
_
si x = 0, 1, 2, . . . , n
0 para otro caso
(53)
El trmino
_
k
x
_
nos dice las diferentes formas en que de los k objetos de la primera clase
se pueden escoger x de ellos, y el trmino
_
Nk
nx
_
es nuevamente las diferentes formas de
escoger nx objetos de la totalidad de Nk objetos de la segunda clase. Usamos el principio
multiplicativo para obtener el nmero total de muestras diferentes en donde x objetos son de
la primera clase y nx objetos son de la segunda clase.
Proposicin 23: Dada una poblacin nita de tamao N con dos clases posibles de ob-
jetos. Si X es la v.a. que muestra el nmero de objetos de la primera clase contenidos en
5.1. Distribuciones discretas de probabilidad 97
una muestra de tamao n seleccionada de dicha poblacin entonces X hipergeo(N, k, n) y
presenta las siguientes caracteristicas:
a) E(X) =
nk
N
b) Var(X) =
nk
N
_
1
k
N
__
Nn
N1
_
Demostracin
Como primer paso seleccionemos n objetos de la poblacin de tamao N que contiene k
objetos de una primera clase y Nk objetos de la segunda clase. Denamos a X =
n

i=1
X
i
como
la v.a aleatoria que cuenta el nmero de objetos de la primera clase en la muestra selecciona-
da; en donde cada X
i
, i = 1, 2, . . . , n es una v.a que presenta las siguientes caractersticas:
X
i
= 1 si se selecciona un objeto de la primera clase en la i-sima extraccin
X
i
= 0 si se selecciona un objeto de la segunda clase en la i-sima extraccin
Debido a la aleatoriedad, la probabilidad de que la i-sima bola extraida sea de la primera
clase es simplemente
k
N
. Por lo tanto:
P(X
i
= 1) =
k
N
y P(X
i
= 0) =
Nk
N
E(X
i
) = P(X
i
= 1) =
k
N
Var(X
i
) = E(X
2
i
) [E(X
i
)]
2
=
k
N

_
k
N
_
2
=
k
N
_
1
k
N
_
Entonces tenemos que:
a) la esperanza de X es
E(X) = E
_ n

i=1
X
i
_
=
n

i=1
E(X
i
) =
n

i=1
k
N
=
nk
N
b) la varianza de X es
Var(X) =Var
_ n

i=1
X
i
_
= E(X
2
) E(X)
calculemos entonces:
E(X
2
) =
n

x=0
x
2
_
k
x
__
Nk
nx
_
_
N
n
_ =
nk
N
n

x=1
x
_
k 1
x 1
__
Nk
nx
_
_
N1
n1
_
5.1. Distribuciones discretas de probabilidad 98
=
nk
N
n

x=1
(x 1+1)
_
k 1
x 1
__
Nk
nx
_
_
N1
n1
_
=
nk
N
_
(k 1)(n1)
N1
n

x=2
_
k 2
x 2
__
Nk
nx
_
_
N2
n2
_ +
n

x=1
_
k 1
x 1
__
Nk
nx
_
_
N1
n1
_
_
=
nk
N
_
(k 1)(n1)
N1
+1
_
=
nk
N
_
(k 1)(n1) +N1
N1
_
Por lo tanto
Var(X) =
nk
N
_
(k 1)(n1) +N1
N1
_

_
nk
N
_
2
=
nk
N
_
N
2
(k +n)N+nk
N(N1)
_
=
nk
N
_
Nk
N
__
Nn
N1
_
Ejemplo 57: Supngase que una urna contiene cinco bolas rojas y diez azules. Si se
seleccionan bolas de la urna sin reemplazamiento; sea X la v.a que cuenta el nmero de bolas
rojas extraidas. Si se extraen al azar sin reemplazamiento siete bolas
a) Cul es la probabilidad de seleccionar exactamente cuatro bolas rojas?
b) Cul es la probabilidad de seleccionar almenos tres bolas rojas?
c) Calcular la esperanza y la varianza de esta distribucin
Desarrollo
Como X es la v.a que cuenta el nmero de bolas rojas extraidas en un muestreo sin reem-
plazmiento; se tiene que X hipergeo(15, 5, 7). Por lo tanto
P(X = x) =
_

_
_
5
x
__
10
7x
_
_
15
7
_
si x = 0, 1, 2, 3, 4, 5
0 para otro caso
a) Para contestar la pregunta de este item basta calcular P(X = 4), esto es;
P(X = 4) =
_
5
4
__
10
3
_
_
15
7
_ =
5 120
6435
=
40
429
5.2. Distribuciones continuas de probabilidad 99
b) Para contestar esta parte debemos calcular P(X 3); que equivale a decir,
P(X 3) = P(X = 3) +P(X = 4) +P(X = 5)
Por lo tanto
P(X 3) =
_
5
3
__
10
4
_
_
15
7
_ +
_
5
4
__
10
3
_
_
15
7
_ +
_
5
5
__
10
2
_
_
15
7
_ =
140
429
+
40
429
+
1
143
=
61
143
c) Segn la proposicin 23 se tiene que
E(X) =
7 5
15
=
7
3
y V(X) =
_
7 5
15
__
155
15
__
157
151
_
=
8
9
5.2. Distribuciones continuas de probabilidad
5.2.1. Distribucin uniforme continua
Las distribuciones uniformes corresponden al experimento de elegir puntos al azar entre
dos puntos jos a y b. Como la probabilidad de elegir cualquier punto es la misma, la funcin
de densidad tendr la misma altura en todos los puntos entre a y b, es decir se trata de una
funcin constante desde a y b, de altura
1
ba
.
Denicin 42: Decimos que una variable aleatoria X tiene una distribucin uniforme
continua en el intervalo (a, b), y escribimos X uni f (a, b) cuando su funcin de densidad es
f (x) =
_

_
1
ba
si a < x < b
0 en otro caso
(54)
Figura 8: Grca de f (x) de la distribucin exponencial
5.2. Distribuciones continuas de probabilidad 100
La grca general de esta funcin se muestra en la Figura 8, y es evidente que se trata de
una funcin de densidad pues es no negativa e integra uno. Los parmetros de esta distribucin
son los nmeros a y b.
Proposicin 24: Sea X la v.a. continua con distribucin uniforme en el intervalo (a, b),
entonces X tiene las siguientes caractersticas
a) E(X) =
a+b
2
b) Var(X) =
(ba)
2
12
c) M
X
(t) =
e
bt
e
at
(ba)t
d) F(x) =
_

_
0 si x > a
x
ba
si a x < b
1 si x b
Demostracin
Como X es una v.a. continua con distribucin uniforme en el intervalo (a, b) entonces su
funcin de densidad de probabilidad es
f (x) =
_

_
1
ba
si a < x < b
0 en otro caso
con lo cual
a) por denicin de esperanza para v.a. continua
E(X) =

x f (x)dx =

b
a
x
1
ba
dx =
1
2(ba)
x
2

b
a
=
1
2(ba)
(b
2
a
2
) =
a+b
2
b) por denicin de varianza para v.a continua
Var(X) =

_
x
a+b
2
_
2
1
ba
dx =
1
3(ba)
_
x
a+b
2
_
3

b
a
=
1
3(ba)
__
b
a+b
2
_
3

_
a
a+b
2
_
3
_
=
1
3(ba)
__
ba
2
_
3

_
ab
2
_
3
_
=
1
3
(ba)
2
4
=
(ba)
2
12
c) por dencicin de funcin generadora de momentos
M
X
(t) =

e
tx
1
ba
dx =
1
ba

b
a
e
tx
dx =
1
t(ba)
e
tx

b
a
=
e
bt
e
at
(ba)t
5.2. Distribuciones continuas de probabilidad 101
d) por denicin de funcin de distribucin
F(x) = P(X x) =
_

_
0 si x < a

x
0
1
ba
du si a x < b
1 si x > b
=
_

_
0 si x < a
x
ba
si a x < b
1 si x b
Figura 9: Grca de F(x) de la distribucin exponencial
Ejemplo 58: Supongase que tenemos una cuerda de 2m de longitud que queremos cortar
por un punto al azar a una cierta distancia de uno de los extremos. Sea X la v.a. que represente
el punto elegido; entonces
a) Expresar y grcar la funcin de densidad?
b) Calcular P(X 0, 7), P(X 1) y P(0, 5 X 1, 25)
c) Obtener E(X),Var(X) y M
X
(t), adems a partir de la funcin de densidad obtener y
gracar la funcin de distribucin
Desarrollo
Como X es la v.a que represente el punto elegido entre 0 y 2; entonces X uni f (0, 2)
a) Como el rea debe ser 1, la altura del rectngulo ser
1
2
, entonces la funcin de densidad
es:
f (x) =
_

_
1
2
si 0 < x < 2
0 en otro caso
b) Calculemos ahora P(X 0, 7), P(X 1) y P(0, 5 X 1, 25)
P(X 0, 7) =

0,7
0
1
2
dx =
1
2
x

0,7
0
=
1
2
(0, 70) = 0, 35
5.2. Distribuciones continuas de probabilidad 102
Figura 10: Grca de f (x) del ejemplo 58
P(X 1) =

2
1
1
2
dx =
1
2
x

2
1
=
1
2
(21) =
1
2
P(0, 5 X 1, 25) =

1,25
0,5
1
2
dx =
1
2
x

1,25
0,5
=
1
2
(1, 250, 5) = 0, 375
c) Por la proposicin 24
E(X) =
0+2
2
= 1 Var(X) =
(20)
2
12
=
1
3
M
X
(t) =
e
2t
e
0t
(20)t
=
e
2t
1
2t
F(x) =
_

_
0 si x < 0
x
2
si 0 x < 2
1 si x 2
Figura 11: Grca de F(x) del ejemplo 58
5.2. Distribuciones continuas de probabilidad 103
5.2.2. Distribucin Normal
La distribucin normal fue reconocida por primera vez por el francs Abraham de Moivre
(1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elabor desarrollos ms pro-
fundos y formul la ecuacin de la curva; de ah que tambin se la conozca, ms comnmente,
como la campana de Gauss. La distribucin de una variable normal est completamente
determinada por dos parmetros, su media smbolizada por y su desviacin estndar sim-
bolizada por .
La distribucin continua de probabilidad ms importante de toda la estadstica es la dis-
tribucin de probabilidad normal.
Denicin 43: Decimos que una variable aleatoria X tiene distribucin de probabilidad
normal si su funcin de densidad de probabilidad est denida por la siguiente ecuacin:
f (x) =
1

2
2
e

1
2
(
x

)
2
, para < x < (55)
Donde R y > 0 son los parmetros. Escribimos entonces X N(,
2
). La grca
de esta funcin de densidad tiene forma de campana como se puede apreciar en la Figura 12,
en donde se muestra adems el signicado geomtrico de los dos parmetros.
Figura 12: Representacin grca de f (x) de una variable aleatoria normal
No es inmediato pero es posible demostrar que E(X) = , y ello signica que la campana
esta centrada en este valor, el cual puede ser negativo, positivo o cero. Tambin puede de-
mostrarse que Var(X) =
2
, y que la distancia del punto a cualquiera de los dos puntos en
donde la funcin tiene puntos de inexin es , por lo tanto la campana se abre o se cierra de
acuerdo a la magnitud de este parmetro. El papel que desempean y puede apreciarse en
la grca 13.
5.2.2.1. Caractersticas de la distribucin de probabilidad normal
La distribucin de probabilidad normal con su curva tiene las siguientes caractersticas:
1. La curva normal tiene forma de campana. La media, la moda y la mediana de la dis-
tribucin son iguales y se localizan en el centro de la distribucin.
5.2. Distribuciones continuas de probabilidad 104
Figura 13: Representacin grca de f (x) para ciertos valores de y
2
de una variable
aleatoria normal.
2. La distribucin de probabilidad normal es simtrica alrededor de su media. Por o tanto,
la mitad del rea bajo la curva est antes del punto central y la otra mitad despus. El
rea total bajo la curva es igual a 1.
3. La curva normal se aproxima de manera asinttica al eje horizontal conforme se aleja
de la media en cualquier direccin. Esto signica que la curva se acerca al eje horizontal
conforme se aleja de la media, pero nunca lo llega a tocar.
5.2.2.2. La familia de la distribucin de probabilidad normal
La forma de la campana de Gauss depende de los parmetros y . La media indica
la posicin de la campana, de modo que para diferentes valores de la grca es desplazada
a lo largo del eje horizontal. Por otra parte, la desviacin estndar determina el grado de
apuntalamiento de la curva. Cuanto mayor sea el valor de , ms se dispersarn los datos en
torno a la media y la curva ser ms plana. Un valor pequeo de este parmetro indica, por lo
tanto, una gran probabilidad de obtener datos cercanos al valor medio de la distribucin.
Como se deduce, no existe una nica distribucin normal, sino una familia de distribu-
ciones con una forma comn, diferenciadas por los valores de sus medias y sus varianzas.
Si las curvas tienen iguales sus medias pero diferentes varianzas entonces las curvas
estarn centradas en la misma posicin y tendrn diferentes formas; tal como lo muestra
la Figura 14.
Si las curvas tienen desviaciones estndar iguales y medias diferentes, las curvas sern
idnticas pero centradas en diferentes posiciones sobre el eje horizontal, as como lo
muestra la Figura 15.
Si las curvas tienen medias diferentes y tambin sus desviaciones estndar son difer-
entes entonces aparte de estar centradas en diferentes lugares del eje x, tendr formas
diferentes; as como lo muestra la Figura 16.
5.2. Distribuciones continuas de probabilidad 105
Figura 14: Curvas normales que tienen medias iguales y desviaciones estndar diferentes
Figura 15: Curvas normales que tienen medias diferentes y desviaciones estndar iguales
Figura 16: Curvas normales que tienen medias diferentes y desviaciones estndar diferentes
5.2. Distribuciones continuas de probabilidad 106
5.2.2.3. La distribucin normal estndar
En particular, decimos que la variable aleatoria X tiene una distribucin normal estndar
si tiene una distribucin normal con parmetros E(X) = = 0 y Var(X) =
2
= 1. En este
caso la funcin de densidad se reduce a la siguiente expresin
f (x) =
1

2
e

x
2
2
(56)
Para facilitar los clculos se decidi tabular las diferentes probabilidades para variable
aleatoria que sigue una distribucin normal. Pero, puesto que sera imposible tener una tabla
para cada posible distribucin normal, se elabor solamente una, la tabla de la distribucin
normal estndar.
De esta manera solo se tiene que transformar o estandarizar una distribucin normal es-
pecca, se revisa la tabla, y se conoce la probabilidad. Para la estandarizacin se debe realizar
la siguiente operacin.
Proposicin 25: Sea X una variable aleatoria con distribucin normal con parmetros
y
2
. Entonces la siguiente variable aleatoria tiene una distribucin normal estndar
Z =
X

(57)
Demostracin
Para probar que Z sigue una distribucin normal estandar debemos mostrar que E(Z) = 0
y Var(Z) = 1. Recordemos adems que si X N(,
2
) entonces E(X) = y Var(X) =
2
.
Para realizar la demostracin de esta proposicin recordemos adems las propiedades de la
esperanza y la varianza de una v.a. Por lo tanto
E(Z) = E
_
X

_
=
1

E(X ) =
1

[E(X) ] =
1

[] = 0
Var(Z) =Var
_
x

_
=
1

2
Var(X ) =
1

2
Var(X) =
1

2
= 1
A la operacin anterior se le conoce con el nombre de estandarizacin, y bajo tal transfor-
macin se dice que la variable X ha sido estandarizada. Es comn usar la letra Z para denotar
una variable aleatoria con distribucin normal estndar, y seguiremos nosotros tambin esa
costumbre.
La proposicin anterior parece muy modesta pero tiene una gran importancia opera-
cional pues establece que el clculo de las probabilidades de una variable aleatoria normal
cualquiera se reduce al clculo de las probabilidades para la normal estndar. Explicaremos
esta situacin con ms detalles. Suponga que X es una variable aleatoria con distribucin
N(,
2
), y que deseamos calcular, por ejemplo, P(a < X < b), para a < b nmeros dados.
Tenemos entonces que
P(a < X < b) = P(a < X < b) = P
_
a

<
X

<
b

_
por lotanto
P(a < X < b) = P
_
a

< Z <
b

_
La igualdad de estas probabilidades es consecuencia de la igualdad de los eventos. De
esta forma una probabilidad que involucra a la variable X se ha reducido a una probabilidad
que involucra a una variable Z.
5.2. Distribuciones continuas de probabilidad 107
5.2.2.4. reas bajo la curva normal
Una caracterstica que tiene cualquier distribucin normal es que el rea bajo la curva,
que representa la probabilidad de que la variable aleatoria tome ciertos valores X x, se
distribuye siempre en la misma proporcin.
En la tabla de la distribucin normal estndar, estn registradas las reas bajo la curva nor-
mal que se encuentran a la derecha de los valores Z positivos, de esta forma solo se necesita
transformar la distribucin normal de inters en una distribucin normal estndar mediante la
frmula, y el rea a la derecha del valor z ser el mismo que el rea a la derecha de x, esto es
P(X x) = P(Z z).
Ejemplo 59: Los coecientes intelectuales de 600 aspirantes de cierta universidad se dis-
tribuyen aproximadamente de forma normal con una media de 115 y una desviacin estndar
de 12. Si se selecciona un aspirante al azar, encuentre la probabilidad de que:
a) tenga un coeciente mayor de 120
b) tenga un coeciente menor de 100
c) tenga un coeciente menor de 122
d) tenga un coeciente entre 115 y 125
e) tenga un coeciente entre 90 y 105
Desarrollo
Segn las condiciones del problema la v.a. X representa el coeciente intelectual del
estudiante elegido y adems X N(115, 144). Para calcular las probabilidades de los distintos
itens debemos transformar esta distribucin normal en una distribucin normal estndar (con
media cero y desviacin estndar 1), para lo cual hay que cambiar el valor de x por un valor
z con la frmula z =
x 115
12
. Entonces la probabilidad de que:
a) tenga un coeciente mayor de 120 es: P(X > 120) = P
_
Z >
120115
12
_
= P(Z > 0, 41)
La distribucin ya transformada se observa en el siguiente grco:
Se busca el valor del rea para 0 Z 0, 41 en la tabla de reas bajo la curva normal
estandar; que corresponde al valor 0,1591. Como el rea a la derecha del valor z = 0, 41
es el que corresponde a la probabilidad pedida, entonces la probabilidad de que un
aspirante a la universidad tenga un coeciente intelectual mayor de 120 es:
P(X > 120) = P(Z > 0, 41) = 0, 50, 1591 = 0, 3409
5.2. Distribuciones continuas de probabilidad 108
b) tenga un coeciente menor de 100 es:
P(X < 100) =
_
Z <
100115
12
_
= P(Z <1, 25)
La distribucin ya transformada queda as:
En la tabla de reas bajo la curva normal estandar no se tabularon valores z negativos,
pero como la curva normal es simtrica, el rea entre cero y el valor z = 1, 25 sm-
bolizado por A(1, 25); es del mismo tamao que el rea entre cero y el valor z = 1, 25
dada por A(1, 25), por lo que solo se necesita buscar en la tabla el rea correspondiente
al valor positivo de z. Como el rea que se busca esta a la izquierda de z = 1, 25, se
tiene que:
P(X < 100) = P(Z <1, 25) = 0, 5A(1, 25) = 0, 50, 3944 = 0, 1056
c) tenga un coeciente menor de 122 es:
P(X < 122) =
_
Z <
122115
12
_
= P(Z < 0, 58)
La distribucin ya transformada queda as:
Se busca el valor del rea para 0 Z 0, 58 en la tabla de reas bajo la curva normal
estandar, que es el valor 0,2190. Y como el rea a la izquierda del valor z = 0, 58 es el
rea que buscamos, entonces el resultado a buscar es:
P(X < 122) = P(Z < 0, 58) = 0, 5+0, 2190 = 0, 7190
5.2. Distribuciones continuas de probabilidad 109
d) tenga un coeciente entre de 115 y 125 es:
P(115 < X < 125) =
_
115115
12
< Z <
125115
12
_
= P(0 < Z < 0, 83)
Se busca el valor del rea para 0 Z 0, 83 en la tabla de reas bajo la curva normal
estandar, que es el valor 0,2967. Y como el rea a buscar es el rea entre z =0 y z =0, 83,
entonces el resultado a buscar es:
P(115 < X < 125) = P(0 < Z < 0, 83) = 0, 2967
e) tenga un coeciente entre de 90 y 105 es:
P(90 < X < 105) =
_
90115
12
< Z <
105115
12
_
= P(2, 08 < Z <0, 83)
Se busca el valor del rea para 2, 08 Z 0, 83 en la tabla de reas bajo la curva
normal estandar, que es el valor 0,2967. Y como el rea a buscar es el rea entre z = 0 y
z = 0, 83, entonces el resultado a buscar es:
P(115 < X < 125) = P(0 < Z < 0, 83) = 0, 2967
5.2. Distribuciones continuas de probabilidad 110
5.2.2.4. Aproximacin normal a la binomial
Cuando las muestras son pequeas, en una distribucin binomial se obtienen fcilmente
probabilidades asociadas a un evento mediante la frmula de la binomial. Cuando las mues-
tras son grandes, el clculo nos llevara bastante tiempo. La distribucin normal es a menudo
una buena aproximacin a una distribucin binomial cuando np y nq son ms grandes que 5.
Ejemplo 60: La probabilidad de que un paciente se recupere de una rara enfermedad de
la sangre es 0,4. Si se sabe que 100 personas contrajeron esa enfermedad,
a) Cul es la probabilidad de que menos de 30 sobrevivan?
b) Cul es la probabilidad de que exactamente 35 sobrevivan?
c) Cul es la probabilidad de que a lo ms 30 sobrevivan?
Desarrollo
El primer paso es vericar si el experimento cumple con los requisitos de una distribu-
cin binomial, y si es el caso calcular la media y la desviacin estndar de la distribucin.
Como cada paciente puede recuperarse o no de la enfermedad y adems esta situacin se da
de manera independiente entre dichos pacientes, entonces este experimento cumple con las
condiciones de la distribucin binomial.
Si X es la variable aleatoria que denota el nmero de pacientes que sobreviven a la enfer-
medad (se recuperan), entonces X bin(n = 100; P = 0, 4). Entonces la media y la varianza
de X estan dadas por:
E(X) =
p
= np = (100)(0, 4) = 40
_
Var(X) =
p
=
_
np(1p) =
_
(100)(0, 4)(0, 6) =

24 = 4, 899
a) P(X < 30)
Para resolver el problema con la frmula de la distribucin binomial se tendra que
calcular 30 binomiales, desde la binomial de cero hasta la binomial de 29. Mediante el
uso de la aproximacin normal a la binomial el procedimiento es mucho ms corto.
El primer paso es aplicar al valor de x el factor de correccin de continuidad, que es
simplemente sumar o restar 0, 5 al valor de x, dependiendo del problema. En este caso
queremos la probabilidad de que x valga menos de 30, no incluye al 30, entonces se le
5.2. Distribuciones continuas de probabilidad 111
resta 0, 5. En seguida se aplica la frmula de Z, utilizando el valor de x = 29, 5, y en
seguida buscar el rea en la tabla normal:
P(X < 30) = P
_
Z <
29, 540
4, 899
_
= P(Z <2, 14)
Recordemos que en la tabla de reas bajo la curva normal no se tabulan valores neg-
ativos de z y que la distribucin normal es simtrica; estos A(z) = A(z). Se busca el
valor del rea para 0 Z 2, 14 en la dicha tabla, que corresponde al valor 0,48382.
Y como el rea a la izquierda del valor z =2, 14 es el rea que buscamos, entonces el
resultado a buscar es:
P(X < 30) = P(Z <2, 14) = 0, 50, 48382 = 0, 01618
b) P(X = 35)
En este caso se pide una probabilidad cuando la variable aleatoria X toma un valor
exacto. En una distribucin continua la probabilidad de que la variable aleatoria sea
exactamente un determinado valor no se puede calcular y se estima que es cero, mien-
tras que en una distribucin discreta aproximada a una distribucin normal (continua)
la probabilidad de X sea igual a un valor puntual se calcula sumando y restando el fac-
tor de correccin de continuidad a dicho valor puntual y estimar el rea entre ambos
puntos. Esto es
P(X = 35) = P
_
34, 540
4, 899
Z
35, 540
4, 899
_
= P(1,12 Z 0, 92)
5.2. Distribuciones continuas de probabilidad 112
Se buscan en tabla, los valores de las reas para 0 z 0, 92 y 0 z 1, 12. Se
encuentra que A(1, 12) =A(1, 12) =0, 3686 y A(0, 92) =A(0, 92) =0, 3212. Como
el rea buscada se encuentra entre z =1, 12 y z =0, 92 que es exactamente igual al
rea comprendida entre z = 0, 92 y z = 1, 12 por la simetra de la distribucin normal;
entonces:
P(X =35) =P(1, 12 Z 0, 92) =A(1, 12)A(0, 92) =0, 36860, 3212 =0, 0474
Oservacin: En este caso, como se pide la probabilidad cuando X es exctamente igual
a 35, lo podemos resolver con la frmula de la binomial, y el resultado que produce es
poco diferente: 0,04913.
c) P(X 30)
Aqu se pide la probabilidad de que X tome valores desde 0 hasta 30 inclusive, como
el 30 est incluido el factor de correccin de continuidad se suma. Entonces
P(x 30) = P
_
Z
30, 540
4, 899
_
= P(Z 1, 94)
Como A(1, 94) = A(1, 94); se busca el valor del rea para 0 Z 1, 94 en la tabla,
que corresponde al valor 0,4738. Y como el rea a la izquierda del valor z =1, 94 es
el rea que buscamos, entonces el resultado a buscar es:
P(X 30) = P(Z <1, 94) = 0, 50, 4738 = 0, 0262