Apuntes de Clase # 1
Fecha: Octubre/Noviembre - 2006
1. Teora de la probabilidad
1.1. Definiciones basicas
Definicion 1.1.1 (Espacio muestral) Es el conjunto de todos los resultados posibles de un ex-
perimento. Se lo suele representar con la letra S.
Definicion 1.1.2 A cada resultado o elemento de un espacio muestral se lo llama punto muestral
Ejemplo 1.1.1 Si se esta interesado en el numero que muestra la cara superior de un dado en un
lanzamiento entonces el espacio muestral es
S1 = {1, 2, 3, 4, 5, 6}
S2 = {par, impar}
Definicion 1.1.3 Si un espacio muestral contiene un numero finito de posibilidades o una serie
interminable con tantos elementos como numeros enteros existen, se llama espacio muestral dis-
creto
Definicion 1.1.4 Si un espacio muestral contiene un numero infinito de posibilidades igual al nume-
ro de puntos en un segmento de lnea, se llama espacio muestral continuo
Ejemplo 1.1.2 Se esta interesado en que el resultado del lanzamiento de un dado sea divisible para
tres. El evento A = {3, 6} es el conjunto de resultados que cumplen la condicion indicada. A es un
subconjunto de S1 del ejemplo 1.1.1.
0 P (A) 1 P () = 0 P (S) = 1
Ejemplo 1.1.3 Si se lanza dos veces una moneda, Cual es la probabilidad de que ocurra al menos
una cara?
A1-1
Definicion 1.1.7 La probabilidad condicional de B dado A, que se denota con P (B|A), se define
como
P (A B)
P (B|A) = si P (A) > 0
P (A)
Teorema 1.1.1 Si A, B y C son tres eventos cualquiera en un espacio muestral S tal que P (AB) 6=
0, entonces
P (A B C) = P (A) P (B|A) P (C|A B)
P (A B C) = P [(A B) C]
= P (A B) P (C|A B)
P (A B C) = P (A B) P (C|A B)
= [P (A) P (B|A)] P (C|A B)
= P (A) P (B|A) P (C|A B)
P (A B) = P (A)P (B)
Demostracion Para esta prueba basta aplicar las definiciones 1.1.7 y 1.1.8
Definicion 1.1.9 (Variable aleatoria) Es una una funcion que asocia un numero real con cada
elemento del espacio muestral.
Ejemplo 1.1.4 Se sacan dos bolas de manera sucesiva sin reemplazo de una urna que contiene 4
bolas rojas y 3 negras. Los posibles resultados y los valores y de la variable aleatoria Y , donde Y es
el numero de bolas rojas, son
Espacio muestral y
RR 2
RB 1
BR 1
BB 0
Definicion 1.1.10 Una variable aleatoria se llama variable aleatoria discreta si se puede contar
su conjunto de resultados posibles. Cuando una variable aleatoria puede tomar valores en una escala
continua, se la denomina variable aleatoria continua
Observacion 1.1.1 A menudo los posibles valores de una variable aleatoria continua son precisa-
mente los mismos valores que contiene el espacio muestral continuo.
En la mayor parte de los problemas practicos, las variables aleatorias continuas representan datos
medidos, mientras que las variables aleatorias discretas representan datos contados.
A1-2
1.2. Funciones de probabilidad
Definicion 1.2.1 La funcion f (x) es una funcion masa de probabilidad de la variable aleatoria
discreta X si y solo si se satisfacen las siguientes condiciones
f (x) 0 para cada valor dentro de su dominio;
P
x f (x) = 1, donde la suma se extiende sobre todos los valores dentro de su dominio;
Nota 1 En la mayora de los casos se utilizara el termino funcion de probabilidad para refe-
rirse de manera general a las funciones de masa de probabilidad y a las funciones de densidad de
probabilidad.
f (x, y) 0 x X y y Y
P P
x y f (x, y) = 1
P (X = x, Y = y) = f (x, y) x X y y Y
PP
Para cualquier region A en el plano xy, P [(X, Y ) A] = f (x, y)
A
Definicion 1.2.4 La funcion f (x, y) es una funcion de densidad conjunta de las variables alea-
torias continuas X y Y si
f (x, y) 0 x, y R
R R
f (x, y) dx dy = 1
RR
P [(X, Y ) A] = f (x, y) dx dy, para cualquier region A en el plano xy
A
P (X1 = x1 , X2 = x2 , . . . , Xm = xm ) = f (x1 , x2 , . . . , xm )
para cualquier valor que se encuentre en el dominio de la funcion;
A1-3
Para cualquier region A en el hiperplano x1 , x2 xm ,
PP P
P [(X1 , X2 , . . . , Xm ) A] = . . . f (x1 , x2 , . . . , xm )
A
para el caso discreto, y
f (x1 , x2 , . . . , xm ) 0 x1 , x2 , . . . , xm ( , )
R R R
. . . f (x1 , x2 , . . . , xm )dx1 dx2 . . . dxm = 1
F (x1 , x2 , . . . , xm ) = P (X1 x1 , X2 x2 , . . . , Xm xm )
X X X
= ... f (t1 , t2 , . . . , tm )
t1 x1 t2 x2 tm xm
para todo x1 , x2 , . . . , xm (, )
Definicion 1.2.8 La distribucion acumulada F (x) de una variable aleatoria continua con fun-
cion de densidad f (x) es
Z x
F (x) = P (X x) = f (t)dt para < x <
F (x1 , x2 , . . . , xm ) = P (X1 x1 , X2 x2 , . . . , Xm xm )
Z x1 Z x2 Z xm
= ... f (t1 , t2 , . . . , tm ) dt1 dt2 . . . dtm
para todo x1 , x2 , . . . , xm (, )
dm F (x)
f (x1 , x2 , . . . , xm ) = si todas las derivadas existen.
dx1 dx2 . . . dxm
A1-4
Teorema 1.2.1 Si X es una variable aleatoria continua y a y b son constantes reales con a b,
entonces
P (a X b) = P (a X < b) = P (a < X b) = P (a < X < b)
Definicion 1.2.10 Las distribuciones marginales de X sola y Y sola son
X X
g(x) = f (x, y) y h(y) = f (x, y)
y x
A1-5
Ejemplo 1.2.2 Las variables aleatorias V, W, X, Y y Z tienen funcion de densidad conjunta f (v, w, x, y, z).
Cual es la formula para calcular la distribucion condicional de V, W y Z dado X y Y ?
Solucion Definiendo como h(v, w, z|x, y) a la distribucion condicional en cuestion y aplicando la
formula de la definicion 1.2.13 se tiene
f (v, w, x, y, z)
h(v, w, z|x, y) =
g(x, y)
Ejemplo 1.2.3 La funcion de densidad conjunta para las variables aleatorias X y Y es
1 (2x + y) para 0 < x < 1 ; 0 < y < 2
f (x, y) = 4
0 en otro caso
1+y
h(y|X = 1/4) = para 0 < x < 1 ; 0 < y < 2
6
Observacion 1.2.4 En un sentido estricto h(y|x) es una funcion que depende solo de y puesto que
x es un valor dado. La ventaja de expresar la distribucion condicional como se pidio en el ejercicio
original, es que de esa manera se estan representando a todas las posibles funciones de densidad
condicional en una sola expresion.
Definicion 1.2.14 (Independencia estocastica) Sean X y Y dos variables aleatorias, discretas o
continuas, con distribucion de probabilidad conjunta f (x, y) y distribuciones marginales g(x) y h(y),
respectivamente. Se dice que las variables aleatorias X y Y son estocasticamente independientes
si y solo si
f (x, y) = g(x)h(y)
para todo x, y en sus respectivos dominios.
A1-6
Definicion 1.2.15 (Generalizacion 1) Sean X1 , X2 , . . . , Xm un conjunto de variables aleatorias,
discretas o continuas, con distribucion de probabilidad conjunta f (x1 , x2 , . . . , xm ) y distribucio-
nes marginales g1 (x1 ), g2 (x2 ), . . . , gm (xm ), respectivamente. Se dice que las variables aleatorias
X1 , X2 , . . . , Xm son estocasticamente independientes si y solo si
f (x1 , x2 , . . . , xm )
Teorema 1.2.2 Si dos conjuntos de variables aleatorias A y B son independientes entonces cada
variable aleatoria que se encuentra en A es independiente de cualquiera de las que se encuentra en
B y viceversa.
La demostracion de este teorema se deja de tarea. Suponga que las variables aleatorias en X se encuentran
ordenadas de tal manera que A = {X1 , X2 , . . . , Xi } y B = {Xi+1 , Xi+2 , . . . , Xm }, donde i es un numero cualquier
entre 1 y m; luego pruebe la independencia entre dos elementos elementos cualquiera Xj A y Xk B.
2. Esperanza matematica
2.1. Medidas de posicion central
Definicion 2.1.1 (Valor esperado) Sea X una variable aleatoria con distribucion de probabilidad
f (x). La media o valor esperado de X esta definida por
X
= E(X) = xf (x)
x
si X es discreta, y Z
= E(X) = xf (x) dx
si X es continua.
Teorema 2.1.1 Sea X una variable aleatoria con funcion de probabilidad f (x). La media o valor
esperado de la variable aleatoria g(X) es
X
g(x) = E[g(x)] = g(x)f (x)
x
si X es discreta, y Z
g(x) = E[g(x)] = g(x)f (x) dx
si X es continua
A1-7
Definicion 2.1.2 Sean X y Y variables aleatorias con distribucion de probabilidad conjunta f (x, y).
La media o valor esperado de la variable aleatoria g(X, Y ) es
XX
g(x,y) = E[g(X, Y )] = g(x, y)f (x, y)
x y
si X y Y son discretas, y
Z Z
g(x,y) = E[g(X, Y )] = g(x, y)f (x, y) dx dy
si X y Y son continuas
Definicion 2.1.3 Sean X y Y dos variables aleatorias con funcion de probabilidad conjunta f (x, y),
el valor esperado condicional de X dado Y , se define como:
P
x xf (x|y) si X es una v.a. discreta
E(X|y) =
R
xf (x|y) dx si X es una v.a. continua
A1-8
Teorema 2.2.2 Sea X una variable aleatoria con distribucion de probabilidad f (x). La varianza
de la variable aleatoria g(X) es
X
2
g(X) = E{[g(X) g(x) ]2 } = [g(x) g(X) ]2 f (x)
x
si X es discreta, y Z
2
g(X) = Var[g(X)] = [g(x) g(X) ]2 f (x) dx
si X es continua
Demostracion [g(X) g(X) ]2 es una funcion de X que se puede representar por j(X). Si a esta
nueva funcion j(X) se le aplica el teorema 2.1.1 se tendra que
X
E[j(X)] = j(x)f (x)
x
Si X y Y son discretas, y
Z Z
XY = Cov(X, Y ) = E[(X X )(Y Y )] = (x X )(y Y )f (x, y) dx dy
Si X y Y son continuas.
1 XY 1
El signo es el mismo que el de la covarianza y por tanto su interpretacion. La ventaja del coeficiente
de correlacion sobre la covarianza es que es comparable, sin embargo, esta comparacion solo establece
un orden y no magnitudes.
A1-9
Teorema 2.2.3 La covarianza de dos variables aleatorias X y Y con medias X y Y , respectiva-
mente, puede ser expresada de la siguiente manera
XY = E(XY ) X Y
Para el caso continuo basta reemplazar los sumatorios por integrales y la prueba esta completa.
Teorema 2.2.4 La covarianza de X consigo misma es igual a la varianza de X
Cov(X, X) = Var(X)
XX = Cov(X, X) = E(X X) X X
= E(X 2 ) 2X
= Var(X) //
QED
Cov(X, Y ) = 0
E(XY ) = E(X)E(Y )
A1-10
Demostracion Por la definicion 2.1.2
Z Z
E(XY ) = xyf (x, y) dx dy
Como X y Y son independientes, entonces de acuerdo a la definicion 1.2.14 se puede decir que
f (x, y) = g(x)h(y)
= E(X)E(Y )
dos conjuntos de variables aleatorias cualquiera. Si las variables aleatorias en A son independientes
de las que se encuentran en B entonces
E(Xi1 Xi2 Xir Xj1 Xj2 Xjs ) = E(Xi1 Xi2 Xir )E(Xj1 Xj2 Xjs )
E(aX + b) = aE(X) + b
la integral del primer termino de la ecuacion anterior es la definicion de E(X) y la integral del
segundo termino es igual a 1, entonces tenemos
E(aX + b) = aE(X) + b
Corolario 2.3.1 Si a = 0 entonces E(b) = b. Se concluye que el valor esperado de una constante b
es igual a esta misma constante
Teorema 2.3.2 El valor esperado de la suma o diferencia de dos o mas funciones de una variable
aleatoria X es la suma o diferencia de los valores esperados de las funciones. Es decir.
A1-11
Demostracion Por definicion
Z
E[g(X) h(X)] = [g(x) h(x)]f (x) dx
Z Z
= g(x)f (x) dx h(x)f (x) dx
= E[g(X)] E[h(X)]
Teorema 2.3.3 El valor esperado de la suma o diferencia de dos o mas funciones de las variables
aleatorias X y Y es la suma o diferencia de los valores esperados de las funciones. Es decir
Para el caso discreto basta con reemplazar las integrales por sumatorias.
Observacion Sobre el valor esperado se podra concluir que es un operador lineal, es decir, el
valor esperado de una suma de elementos es siempre la suma del valor esperado de los elementos.
Teorema 2.3.4 Si a y b son constantes, entonces
2
aX+b = Var(aX + b) = a2 X
2
= a2 2
aX+b = E(aX + b) = a + b
entonces
2
aX+b = E[(aX + b a b)2 ] = E[(aX a)2 ] =
A1-12
Corolario 2.3.5 Al hacer a = 1, se tiene que
2
X+b = Var(X + b) = Var(X) = 2
Corolario 2.3.6 Si b=0 entonces
2
aX = Var(aX) = a2 Var(X) = a2 X
2
= a2 2
Teorema 2.3.5 Si X y Y son variables aleatorias con distribucion de probabilidad conjunta f (x, y),
entonces
2
aX+bY = Var(aX + bY ) = a2 Var(X) + b2 Var(Y ) + 2ab Cov(X, Y )
= a2 X
2
+ b2 Y2 + 2abXY
Demostracion Por definicion
2
aX+bY = E{[(aX + bY ) aX+bY ]2 }
Utilizando el corolario 2.3.4 y el corolario 2.3.2 se tiene que
aX+bY = E(aX + bY ) = aE(X) + bE(Y ) = aX + bY
Por tanto,
2
aX+bY = E{[(aX + bY ) (aX + bY )]2 }
= E{[a(X X ) + b(Y Y )]2 }
= E[a2 (X X )2 + b2 (Y Y )2 + 2ab(X X )(Y Y )]
= E[a2 (X X )2 ] + E[b2 (Y Y )2 ] + E[2ab(X X )(Y Y )]
= a2 E[(X X )2 ] + b2 E[(Y Y )2 ] + 2abE[(X X )(Y Y )]
= a2 Var(X) + b2 Var(Y ) + 2ab Cov(XY )
= a2 X
2
+ b2 Y2 + 2ab XY
Corolario 2.3.7 Si X y Y son variables aleatorias independientes, entonces
2
aX+bY = a2 X
2
+ b2 Y2
Demostracion El resultado se obtiene aplicando el teorema 2.2.6 (si X y Y son independientes,
entonces E(XY ) = E(X)E(Y ) ) junto con el teorema 2.2.3 (XY = E(XY ) E(X)E(Y )). La
conclusion es que si X y Y son independientes, XY = 0, quedando demostrado el corolario.
Corolario 2.3.8 Si X y Y son variables aleatorias con distribucion de probabilidad conjunta f (x, y)
entonces
2
aXbY = Var(aX bY ) = a2 Var(X) + b2 Var(Y ) 2ab Cov(X, Y )
= a2 X
2
+ b2 Y2 2ab XY
Corolario 2.3.9 Si X y Y son variables aleatorias independientes, entonces
2
aXbY = a2 X
2
+ b2 Y2
Teorema 2.3.6 (Generalizacion 1) Si X1 , X2 , . . . , Xm son variables aleatorias independientes,
entonces
a21 X1 +a2 X2 +...+am Xm = a21 X
2
1
+ a22 X
2
2
+ . . . + a2m X
2
m
donde la doble suma se extiende para todos los valores de i y j, desde 1 hasta m, para los que i < j
A1-13
La demostracion de este teorema se deja de tarea
{c1 , c2 , c3 , c4 }
entonces
Lo que se necesita hacer para demostrar el teorema es desarrollar un polinomio como el anterior,
pero con m elementos en vez de 4.
2.4. Momentos
Definicion 2.4.1 El r-esimo momento alrededor del origen de una variable aleatoria X, deno-
tado por 0r , es el valor esperado de X r , simbolicamente,
X
0r = E(X r ) = xr f (x)
x
donde X es continua.
A1-14
Definicion 2.4.2 El r-esimo momento alrededor de la media de una variable aleatoria X,
denotado por r , es el valor esperado de (X )r ; simbolicamente,
X
r = E[(X )r ] = (x )r f (x)
x
cuando X es continua
Observaciones 2.4.2
y por tanto
Z k Z +k Z
2 2 2
= (x ) f (x) dx + (x ) f (x) dx + (x )2 f (x) dx
k k
Dado que (x )2 f (x) es no negativo se puede borrar la segunda integral para obtener
Z k Z
2 2
(x ) f (x) dx + (x )2 f (x) dx
k
A1-15
2.6. Funciones generatrices de momentos
Los momentos de la mayora de las distribuciones se pueden determinar directamente con los metodos
descritos en la sub-seccion 2.4, el metodo de las funciones generatrices de momentos proporciona
simplificaciones considerables en algunos casos.
Definicion 2.6.1 la funcion generatriz de momentos de una variable aleatoria X, donde existe,
esta dada por X
MX (t) = E(etX ) = etx f (x)
x
cuando X es discreta y Z
tX
MX (t) = E(e )= etx f (x) dx
cuando X es continua
Teorema 2.6.1
dr MX (t)
= 0r
dtr t=0
t2 x2 tr xr
etx = 1 + tx + + ... + + ...
2! r!
As, para el caso discreto se obtiene
X t2 x2 tr xr
Mx (t) = 1 + tx + + ... + + . . . f (x)
x
2! r!
X X t2 X 2 tr X r
= f (x) + t xf (x) + x f (x) + . . . + x f (x) + . . .
x x
2! x r! x
t2 tr
= 1 + t + 02 + . . . + 0r + . . .
2! r!
Al diferenciar la funcion r veces con respecto a t se obtendra
simplificando
dr MX (t) t2 ts
r
= 0r + 0r+1 t + 0r+2 + . . . + 0r+s + . . .
dt 2! s!
evaluando en t = 0
dr MX (t)
= 0r //
dtr t=0 QED
Observacion 2.6.2 La dificultad principal al usar la serie de Maclaurin de una funcion generatriz
de momentos para determinar los momentos de una variable aleatoria usualmente no es encontrar
la funcion, sino expandirla en la serie de Maclaurin. Por esto el teorema anterior es de utilidad.
A1-16
Teorema 2.6.2 Si a y b son constantes, entonces
MX+a (t) = E[e(X+a)t ] = eat MX (t)
MbX (t) = E(ebXt ) = MX (bt);
h X+a i
( )t a
t t
M X+a (t) = E e b = e MX
b
b b
Ejemplo 2.6.1 X tiene la siguiente funcion de probabilidad
1 3
f (x) = para x = 0, 1, 2, 3
8 x
Encontrar la funcion generatriz de momentos de esta variable aleatoria y calcular 01 y 02 .
Solucion De acuerdo con la definicion 2.6.1 la funcion generatriz de momentos sera
3
1 X tx 3
MX (t) = E(etX ) = e
8 x
x=0
1 1
= (1 + 3et + 3e2t + e3t ) = (1 + et )3 //
8 8
Por el teorema 2.6.1
dMX (t) 3 3
01 t 2 t
= = (1 + e ) e = //
dt
t=0 8 t=0 2
y
d2 MX
3 3
02 = t 2t t 2 t
2
= (1 + e )e + (1 + e ) e = 3 //
dt
t=0 4 8
t=0
Ejemplo 2.6.2 Si la funcion de densidad de X esta dada por
1 para 0 < x < 1
f (x) =
0 otro caso
determinar su funcion generatriz de momentos, calcular 01 y 2 .
Solucion De acuerdo con la definicion 2.6.1 la funcion generatriz de momentos de X esta dada
por
1 1
ext et 1
Z
MX (t) = ext dx = =
0 t 0 t
Por el teorema 2.6.1
tet et + 1
dMX (t) 0
01 = = =
dt t=0 t2
t=0 0
para solucionar la indefinicion se utiliza la regla de LHopital
tet
0 1
1 = = //
2t t=0
2
Para calcular 2 primero se necesita determinar M(X) (t). De acuerdo al teorema 2.6.2
et 1
M(Xu) (t) = et MX (t) = et
t
Aplicando ahora el teorema 2.6.1
2
dM(X)
2 =
dt 2
t=0
t
te et + 1 et 1
= 2et 2
+ 2 et +
t t
2 t t t
t t e 2te + 2e 2
+e
t3
t=0
A1-17
las tres fracciones se convierten en indefiniciones de la forma 00 , al evaluar en t = 0, por lo que se
requiere aplicar LHopital. Luego de hacer las operaciones del caso se obtiene que
1 1 1 1 1
2 = 2 = + 2 + = + + = //
3 2 4 3 12
Observacion 2.6.3 Del ejemplo anterior se puede inferir que en realidad no se evalua la funcion
en t = 0 sino que se determina su lmite cuando t tiende a cero.
Teorema 2.6.3 En caso de existir, hay una correspondencia unvoca entre las funciones generatrices
de momentos y las funciones de probabilidad.
si X y Y con continuas.
Observacion 2.7.1 Segun la definicion anterior 01,0 corresponde a E(X), la esperanza de X; y 00,1
corresponde a E(Y ), la esperanza de Y .
r,s = E[(X X )r (Y Y )s ]
XX
= (x X )r (y Y )s f (x, y)
x y
r,s = E[(X X )r (Y Y )s ]
Z Z
= (x X )r (y Y )s f (x, y) dx dy
A1-18