Anda di halaman 1dari 34

Capitulo IV:

IV.1 Variables Aleatorias Discretas

Problema IV.1.1
Sea A = f1; 2; 3g. Se realiza el siguiente experimento, se extrae al azar un subconjunto
de A.
(a) Encuentre (
; F ; P )
(b) Se de ne la variable aleatoria X :
! IR como:
( X i ! 6= 
! ! X (! ) = i 2!
0 !=
Pruebe que X es variable aleatoria discreta, obtenga su soporte y su ley inducida.
Solucion:
(a)
= P (A) F = P (P (A)) j
j = 23 = 8.
De hecho
= ff1g; f2g; f3g; f1; 2g; f1; 3g; f2; 3g; f1; 2; 3g; g
Dado ! 2
IP (!) = j
1 j = 18 .
(b) Como F = P (P (A)) toda funcion X :
! IR sera medible pues esa -algebra
contiene a todos los subconjuntos.
Hagamos el calculo de X (!)

!  f1g f2g f3g f1; 2g f1; 3g f2; 3g f1; 2; 3g


X (! ) 0 1 2 3 3 4 5 6
X (!) 2 f0; 1; 2; 3; 4; 5; 6g por lo tanto es una variable aleatoria discreta.
La ley inducida de la variable aleatoria discreta X esta determinada por los numeros
IP [X 1(k)] con k 2 f0; 1; 2; :::; 6g
k 0 1 2 3 4 5 6
X 1 (k )  f1g f2g f3g [ f1; 2g f1; 3g f2; 3g f1; 2; 3g
IP [X 1 (k)] 1 1 1 2 1 1 1
8 8 8 8 8 8 8

1
Problema IV.1.2
Se hacen n lanzamientos independientes con un dado ordinario de 6 lados. Calcule la
probabilidad que:
(a) El mayor de los numeros obtenidos sea k con k 2 f1; :::; 6g.
(b) El menor de los numeros obtenidos sea k con k 2 f1; :::; 6g.
Solucion:
Es claro que la variable aleatoria a examinar tiene un soporte discreto.
El espacio de probabilidad sera
= f1; :::; 6gn F = P (
)
Dado w 2
IP (f!g) = 61n , es decir estamos considerando un dado equilibrado con
lanzamientos independientes.
(a) Llamemos Xi el valor del i-esimo lanzamiento 8i = 1; :::; n.
Es sencillo de entender que:
 
IP i=1
max X  k = IP (Xi  k 8i = 1; :::; n)
;:::;n i

Por independencia entre lanzamientos lo anterior sera igual a:


Y
n
IP (Xi  k)
i=1

Como todas las variables Xi tienen igual distribucion basta calcular:


" [k # X
k X
k 1 k
IP (Xi  k) = IP fXi = kg = IP (Xi = k) = =
6 6
i=1 i=1 i=1
 
Por lo tanto IP i=1
max X i  k = k n 8k = 0; :::; 6
;:::;n 6
Ademas:
   
IP i=1
max X  k = IP fi=1
;:::;n i
max X  k 1g [ fi=1
;:::;n i
max X = kg
;:::;n i
 k 1 n
= 6 + IP (i=1
max X = k) 8k = 1; :::; 6
;:::;n i
2
Por lo tanto, al despejar:
   k n  k 1 n
IP i=1
max X =k = 6
;:::;n i 6

(b) Es extremadamente comodo notar que:


min X = max (7
i=1;:::;n i i=1;:::;n
Xi )

En consecuencia:
   
IP min X = k
i=1;:::;n i
= IP (7 i=1
max X = k) = IP i=1
;:::;n i
max X =7 k
;:::;n i

Por lo tanto:
   7 k n  6 k n  (k 1) n  k n
IP i=1min X =k = 6
;:::;n i 6 = 1 6 1 6

Si uno no se da cuenta de la relacion anterior para resolver (b) se puede calcular


IP i=1min X  k = IP (Xi  k 8i = 1; :::; n) y razonar como en (a).
;:::;n i

Observacion:
El metodo utilizado para calcular la distribucion del maximo se puede utilizar para
cualquier familia de variable aleatorias iid (independientes identicamente distribuidas) y
lo mismo para el mnimo.
Problema IV.1.3
Tres puntos son escogidos al azar e independientemente en el intervalo [0; 1]. Sea X el
numero de puntos que pertenecen al inervalo [0; c] donde c 2 [0; 1] es un numero real jo.
Se pide que determine para cada i 2 f0; 1; 2; 3g : P [X = i].
Solucion:
El experimento consistente en extraer tres puntos al azar y de manera independien-
te del intervalo [0; 1] se modela con el espacio muestral producto
:= [0; 1]  [0; 1]  [0; 1]
3
dotado de la -algebra producto A := ([0; 1])
([0; 1])
([0; 1]) y de la medida de
probabilidad P tal que
(8A1; A2; A3 2 ([0; 1])) : P (A1  A2  A3 ) = largo(A1 )  largo(A2 )  largo(A3 )
Consideremos la funcion X :
! f0; 1; 2; 3g de nida por
X (!) := No. de coordenadas de ! pertenecientes al intervalo [0; c]:

Como
X 1(f0g) =]c; 1]]c; 1]]c; 1] 2 A
X 1(f1g) = [0; c]]c; 1]]c; 1] [ ]c; 1]  [0; c]]c; 1] [ ]c; 1]]c; 1]  [0; c] 2 A
X 1(f2g) = [0; c]  [0; c]]c; 1] [ [0; c]]c; 1]  [0; c] [ ]c; 1]  [0; c]  [0; c] 2 A
X 1(f3g) = [0; c]  [0; c]]0; c] 2 A
si en el conjunto f0; 1; 2; 3g de nimos la -algebra A0 := P (f0; 1; 2; 3g) se tendra que
X : (
; A) ! (f0; 1; 2; 3g; A0 )) resulta medible y
P [X = 0] = (1 c)  (1 c)  (1 c) = (1 c)3
P [X = 1] = c  (1 c)  (1 c) + (1 c)  c  (1 c) + (1 c)  (1 c)  c = 3c(1 c)2
P [X = 2] = c  c  (1 c) + c  (1 c)  c + (1 c)  c  c = c2(1 c)
P [X = 3] = c  c  c = c3
Problema IV.1.4
Una urna contiene diez cartas enumeradas de 1 hasta 6; se extraen sucesivamente cartas
de la urna y sin reposicion.Considere el experimento (E) consistente en determinar en
que extraccion aparece la primera carta con numero par. Se pide que:
(a) Modele el experimento (E) como la evaluacion de cierta variable aleatoria X de nida
en cierto espacio probabilstico.
(b) Determine para cada n 2 f1; :::; 6g : P [X = n]:
Solucion:
(a) Consideremos el conjunto
:= f! = (!1 ; :::; !6) 2 f1; :::; 6g6 : i 6= j ) !i 6= !j g
y la funcion X :
! f1; :::; 6g de nida por
(8! 2
) : X (!) := minfi 2 f1; :::; 6g : !i es par g
El experimento (E) puede ser modelado como la evaluacion de la funcion X en un
punto !, extrado al azar y de manera equiprobable en el conjunto
. Lo anterior
4
justi ca que en el e.m.
(de cardinal nito) de namos la -algebra A := P (
) y
la medida de probabilidad

(8A 2 A) : P (A) := jjA j = j Aj



j 6!
Al poner en el espacio de llegada de X la -algebra P (f1; :::; 6g) vemos que X es
una funcion medible e.d. X es una variable aleatoria .
(b) Claramente se tiene que si
6  n > 4 ) [X = n] := f! 2
: X (!) = ng = 
luego
P [X = 5] = 0
P [X = 6] = 0
Por otro lado facilmente se demuestra que:
j[X = 1]j = jf! 2
: !1 es par gj = 3  5  4  3  2  1 = 5!  3
j[X = 2]j = jf! 2
: !2 es impar ^ !2 es par gj = 3  3  4  3  2  1 = 4!  9
j[X = 3]j = jf! 2
: !1; !2 son impares ^ !3 es par gj = 3  2  3  3  2  1 = 3!  18
j[X = 4]j = jf! 2
: !1; !2 ; !3 son impares ^ !4 es par gj = 3  2  1  3  2  1 = 3!  6
y por lo tanto
360
P [X = 1] = 720
216
P [X = 2] = 720
108
P [X = 3] = 720
36
P [X = 4] = 720

Problema IV.1.5
Considere el experimento (E 0 ) de tirar dos veces e independientemente un dado y a
continuacion sumar los resultados obtenidos en cada tirada. Se le pide que:
(a) Modele el experimento (E 0 ) como la evaluacion de cierta v.a. X de nida en cierto
espacio probabilstico (
; A; P ) y a valores en cierto espacio de probabilidad (
0 ; A0 ).
(b) Determine en (E 0 ) la probabilidad de que ocurra el suceso \la suma de los resultados
obtenidos en cada tirada es par".
5
(c) Determine si en (E 0 ) el suceso \los resultados obtenidos en cada tirada del dado son
numeros consecutivos" puede o no ser descrito a partir de los valores que toma la
v.a. X .
Solucion:
(a) El experimento (E 0 ) es natural modelarlo con el e.m.
0 := IN y la -algebra de
sucesos de interes A0 := P (
0 ). Por otro lado, el experimento (E ) consistente en
tirar dos veces e independientemente una moneda se modela naturalmente con el
espacio probabilstico (
; A; P ) donde
:= f(i; j ) : i; j 2 f1; :::; 6gg; A := P (
) y
P (A) := j36Aj para todo A 2 A.
Es claro que cualquier pregunta concerniente al resultado de (E 0 ) se puede formular
en terminos de los valores que toma la funcion X :
!
0 de nida por:
X (!) = i + j si ! = (i; j ) 2

Este hecho es lo que intenta rescatar en la de nicion de medibilidad de una funcion.


En nuestro caso en particular es claro que
(8A 2 A0 ) : X 1 (A) 2 A
y por lo tanto la funcion X : (
; A) ! (
; A0 ) es medible, es decir, X es una variable
aleatoria.
(b) Denotando por A al suceso en (E 0 ) de nido por \la suma de los resultados obtenidos
en cada tirada es par" se tiene que A tiene asociado en
0 el conjunto
A := f2n : n 2 IN g 2 A0
Es claro que la frecuencia de ocurrencia del suceso A en el experimento (E 0 ) coincide
con la frecuencia de ocurrencia del suceso X 1 (A) en el experimento (E ). Es por
este motivo que la probabilidad de ocurrencia del suceso A en (E 0 ) viene dada por
el numero P [X 2 A] := P (X 1 (A)) ,que esta bien de nido pues X 1 (A) 2 A. De
este modo como
X 1 (A) = f(1; 1); (1; 3); (1; 5); (2; 2); (2; 4); (2; 4); (2; 6); (3; 1); (3; 3); (3; 5);
(4; 2); (4; 4); (4; 6); (5; 1); (5; 3); (5; 5); (6; 2); (6; 4); (6; 6)g
entonces
P [X 2 A] = jX 36(A)j = 18
1 1
=
36 2
6
(c) El suceso B en (E ) de nido por \los resultados obtenidos en cada tirada del dado
son numeros consecutivos" tiene asociado en
el conjunto
B := f(1; 2); (2; 1); (2; 3); (3; 2); (3; 4); (4; 3); (4; 5); (5; 4); (5; 6); (6; 5)g
>A partir del valor que toma X (!) se puede discriminar si ! 2 B o ! 2= B?
Claramente no pues si X (!) = 5 entonces ! puede ser (2; 3) 2 B o (1; 4) 2= B.
Formalmente lo anterior se expresa como
(8B0 2 A0 ) : X 1 (B0 ) 6= B
Lo anterior muestra que la v.a. X resume lo su ciente la informacion del resultado
del experimento (E ) como para eventualmente no poder saber a partir del valor que
toma X si el resultado del experimento (E ) pertenece o no a B.

Si decimos que en (E ) un suceso es X -observable, si a partir del valor que toma la


v.a. X podemos decidir si el resultado de (E ) pertenece o no al suceso en cuestion,
se tendra de lo discutido que los unicos sucesos X -observables en (E ) son aquellos
que pertenecen al conjunto de nido por
fA 2 A : A = X 1 (A0 ) para algun A0 2 A0 g =: (X )

Problema IV.1.6
Sea (
; A; P ) un espacio probabilstico y X; Y :
! f1; 2; 3g dos variables aleatorias
tales que
(8i; j 2 f1; 2; 3g) : P [X = i; Y = j ] = aij
donde A = (aij )1i;j3 es la matriz dada por
2 0 1=5 0 3
A = 4 1=5 1=5 1=5 5
0 1=5 0
Determine para cada j 2 f1; 2; 3g : P [X = j ] y P [Y = j ].
Solucion:
Es implcito del enunciado que X e Y son funciones medibles de A en P (f1; 2; 3g) y
por lo tanto
(8j 2 f1; 2; 3g) : [X = j ] := X 1 (fj g) 2 A ; [Y = j ] := Y 1(fj g) 2 A
7
Por otro lado es evidente que:

= f! 2
: X (!) 2 f1; 2; 3gg = f! 2
: Y (!) 2 f1; 2; 3gg
y por lo tanto

= [X = 1] [ [X = 2] [ [X = 3] = [Y = 1] [ [Y = 2] [ [Y = 3] (1)
Consideremos j 2 f1; 2; 3g jo, de (1) vemos que:
[3 [3
[X = j ] = ([X = j ] \ [Y = i]) = [X = j; Y = i]
i=1 i=1
de donde se concluye que
X
3 X
3
(8j 2 f1; 2; 3g) : P [X = j ] = P [X = j; Y = i] = pji (2)
i=1 i=1
De manera analoga se demuestra que
X
3 X
3
(8j 2 f1; 2; 3g) : P [Y = j ] = P [X = i; Y = j ] = pij (3)
i=1 i=1
Finalmente en virtud de (2) y (3) obtenemos que:
P [X = 1] = 1=5 ; P [X = 2] = 3=5 ; P [X = 3] = 1=5
P [Y = 1] = 1=5 ; P [Y = 2] = 3=5 ; P [Y = 3] = 1=5
y por lo tanto (8j 2 f1; 2; 3g) : P [X = j ] = P [Y = j ]. E sto no signi ca necesariamente
que (8! 2
) : X (!) = Y (!) , solo quiere decir que si (Ex ) (respec. (Ey )) es el
experimento consistente en evaluar la funcion X (respec. Y ) en un punto extrado al
azar en
siguiendo la ley de probailidad P , entonces los experimentos (Ex) y (Ey ) estan
regidos por la misma ley probabilstica i.e. un observador que observe la realizacion
consecutiva de uno solo de estos experimentos sin saber si se trata de (Ex) o (Ey ), no
sera capaz de distinguirlos y los vera como parte de un mismo fenonemo aleatorio.
Problema IV.1.7
Dadas X1 ; :::; Xn variables aleatorias independientes de Poisson con parametros 1 ; :::; n
respectivamente.
Pn
Muestre que Y = Xi es una variable aleatoria de Poisson de parametro i
Pn
i=1 i=1
8
Solucion: Se probara por induccion sobre n.
(Caso n = 2)
Como las variables X1 , X2 son independientes, la probabilidad condicional de X2 con
respecto a X1 es igual a la probabilidad de X2. Ademas ambas variables tienen su soporte
en IN . Dado k 2 IN Al aplicar probabilidades totales se obtiene:
X
1   
IP (X1 + X2 = k) = IP (X2 = k X1) = IP X2 = k X1 X1 = m IP (X1 = m)
m=0
Es decir:
X
1
IP (X1 + X2 = k) = IP (X2 = k m)IP (X1 = m)
m=0
k
Como IP (Xi = k) = ei ki! cuando k 2 IN y 0 en cualquier otro caso, al reemplazar
tendremos que:
X
k m k m
(1 +2) 1 2
IP (X1 + X2 = k) = e (k m)!
m=0

Al multiplicar por kk!! se obtiene:


(1 +2)
IP (X1 + X2 = k) = e k! (1 + 2)k

Esto debido a que por el teorema del Binomio de Newton se sabe que:
k k
X m k m = (1 + 2 )k
m=0 m 1 2
Esto muestra que:
(1 +2)
IP (X1 + X2 = k) = e k! (1 + 2)k
Es decir X1 + X2 tiene distribucion de Poisson de parametro 1 + 2.
(n ) n + 1)
Si X1 ; :::; Xn+1 son independientes ) X1 ; :::; Xn son independientes. Al aplicar la
Pn
hipotesis de induccion tengo que Y = Xi es una variable aleatoria de Poisson de
i=1
Pn
parametro  . i
i=1
9
Siendo Y funcion solo de X1 ; :::; Xn entonces sera independiente de Xn+1, luego aplicando
nuevamente la hipotesis de induccion para el caso n = 2 obtenemos que X1 + ::: + Xn+1
Pn
es una variable aleatoria de Poisson de parametro i + n+1.
i=1
Observacion: Este es uno de los muchos ejemplos de familias de variables aleatorias
independientes que son cerradas bajo la suma. Es decir la suma de variables aleatorias en
la familia es otro elemento de la misma familia. Un ejercicio relacionado sera encontrar
otra familia con la misma propiedad, por ejemplo variables aleatorias normales con media
y varianza desconocidas.
Problema IV.1.8
Sea X1; :::; Xn una familia de variables aleatorias exponenciales independientes con es-
peranzas 1; :::; n respectivamente.
(a) Pruebe que Y = i=1min X es variable aleatoria exponencial. >Cual es su parametro?
;:::;n i
 
(b) Muestre que IP Xk = i=1min X = 1+ :::k+ n
;:::;n i

Solucion:
(a) Calculemos directamente la distribucion FY (y) = IP (Y  y) = 1 IP (Y > y).
Siempre que y  0.
Es facil convencerse que i=1min X > y , Xi > y 8i = 1; :::; n.
;:::;n i
Esto prueba que IP (Y > y) = IP (X1 > y; :::; X2 > y), por independencia de los Xi
tendremos que:
Y
n
FY ( y ) = 1 IP (Xi > y)
i=1
R1
Ademas como IP (Xi > y) = i  e i xdx = e iix i y1= e iiy  i
y
Pn i y Pn i x
Al reemplazar tendremos que FY (y) = 1 e i=1
Ry Pn
= ( i ) e i=1 dx:
0 i=1

Es decir la variable Y es exponencial de parametro i.


Pn
i=1
(b) Es claro que Xk = i=1min X i , Xk  min Xi .
Ademas Xk y min X son
;:::;n
independientes
i6=k
exponenciales de par
a metro y
P respec-
i6=k i k i
i6=k
tivamente.
10
De manera general si X e Y son variables aleatorias exponenciales independientes de
1 Ry
R R1
parametros y . Entonces IP (X  Y ) = e xe y dxdy = e y (1 e y )dy
0 0 0

Por lo tanto IP (X  Y ) = 1 = + .
( + )
 
En nuestro caso particular tendremos que IP Xk  min X = k+ P
i6=k i
k k
i = 1 +:::+ n
i6=k

IV.2 Funciones de Distribucion y densidades de Variables Aleatorias

Problema IV.2.1
Sea (
; F ; IP ) espacio de probabilidad y T :
!
funcion medible sobreyectiva tal que:
8A 2 F IP T 1(A) = IP (A); es decir IP -invariante
  
Sean J0 = A 2 F T 1(A) = A y J = A 2 F IP T 1 (A)4A = 0 .
  
Muestre que J0 y J son -algebras.
Solucion:
Primero veamos que J0 es -algebra.
Como T 1() =  y T 1 (
) =
) ;
2 J0
Dado A 2 J0 T 1 (Ac ) = T 1 (A)c = Ac ) Ac 2 J0
Dados A; B 2 J0 ) T 1(A \ B) = T 1(A) \ T 1(B) = A \ B , A \ B 2 J0
S  S S S
Dado fA g2  J0 ) T 1 A = T 1(A ) = A ) A 2 J0
 2  2  2  2
Lo anterior muestra que J0 es -algebra.
Para probarlo para J recordemos que A4B = (A n B) [ (B n A) [ Diferencia simetrica].
Entonces 4 =  y
4
=  ) ;
2 J .
Una representacion equivalente es, A4B = (A [ B) n (A \ B).
Dados A; B 2 J :
11

T 1 (A \ B)4(A \ B) = T 1(A \ B) n (A \ B) [ (A \ B) n T 1 (A \ B)
  
T 1(A \ B) n (A \ B) = T 1 (A) \ T 1 (B) \ (Ac [ Bc)
  
= T 1 ( B ) \ T 1 ( A) n A [ T 1 ( A) \ T 1 ( B ) n B


(A \ B) n T 1(A \ B) = A \ B \ T 1(A)c [ T 1(B)c

  
= B \ A n T 1 ( A) [ A \ B n T 1 ( B )

Como IP (A [ B)  IP (A) + IP (B) 8A; B 2 F las igualdades anteriores muestran que:
    
IP A n T 1 (A) = IP T 1(A) n A = IP T 1(B) n B = IP B n T 1 (B) = 0
  
Aseguran que:  
IP T 1(A \ B)4(A \ B) = 0
Solo resta ver que se tienen esas condiciones.
  
A; B 2 J ) IP T 1 (A)4A = IP T 1(B)4B = 0

Por de nicion:
  
IP T 1(A)4A = IP T 1 (A) n A + IP A n T 1 (A)
  
) IP T 1(A) n A = IP A n T 1(A) = 0
De manera analoga se prueba para B, luego A \ B 2 J
Dado A 2 J
T 1 (A)c 4Ac = [Ac [ T 1 (Ac )] n [Ac \ T 1(A)c ] = [Ac [ T 1(A)c ] \ [A [ T 1 (A)]
= [T 1 (A) \ Ac ] [ [A \ T 1 (A)c ]
= [T 1 (A) n A] [ [A n T 1(A)]
= [T 1 (A)4A]
   
Entonces IP T 1 (Ac )4Ac = 0 ssi IP T 1(A)4A = 0 ) Ac 2 J
Dado fA g2  J
[ ! [ ! " [ ! \ c# "[ \ #
T 1 A 4 A = T 1 A \ A [ A \ T 1 (Ac )
 2  2  2  2  2  2

Sabemos que 8 2  IP T 1(A )4A = 0

12
  
Es decir IP T 1(A ) n A = IP A n T 1(A ) = 0

T S  T S  T 1 ( A ) \ Ac 
Como A  A0 80 2  ) T
c c 1 A \ Ac  
 2  2  2  2
 S  S 
Por lo tanto IP T 1 A \ Ac = 0
 2  2
S S S
De manera analoga A \ T 1(A )c  [A \ T 1 (A )c]
 2  2  2
S S 
Luego IP A \ T 1(A )c = 0 con lo que:
 2 "  2
[ ! [ !# [
IP T 1 A 4 A = 0 es decir A 2 J
 2  2  2
Por lo tanto J es -algebra.
Observacion: Ademas como [T 1(A) = A ) IP (T 1 (A)4A) = 0] ) J0  J .
Problema IV.2.2
Si Y sigue una distribucion uniforme en [0; 5], > Cual es la probabilidad de que ambas
races de la ecuacion
4x2 + 4xY + Y = 0
sean reales?
Solucion:
Por de nicion, si Y es una v.a. con distribucion uniforme en [0; 5] entonces Y es v.a.
con densidad
(8t 2 IR) : fY (t) = 15 1[0;5] (t)
Al considerar que Y es una funcion medible que esta de nida en cierto espacio de
probabilidad
y a valores en IR, se tendra que dado ! 2
la ecuacion en la indetermi-
nada x:
4x2 + 4xY (!) + Y (!) = 0
tiene ambas de sus races reales si y solo si
[4Y (!)]2 4  4  Y (!)  0
i.e.
Y (!)  [Y (!) 1]  0
13
De lo anterior, concluimos que al de nir en
el suceso
R := f! 2
: la ecuacion 4x2 + 4xY (!) + Y (!) = 0 tiene ambas races reales g
entonces
R = f! 2
: Y (!)[Y (!) 1]  0g
(1)
= f! 2
: Y (!)  0 ^ Y (!)  1g [ f! 2
: Y (!)  0 ^ Y (!)  1g
Pero como
Z0
P (f! 2
: Y (!)  0 ^ Y (!)  1g) = P (f! 2
: Y (!)  0g) = fY (t) = 0
1
de (1) concluimos que:
P (R) = P (f! 2
: Y (!)  0 ^ Y (!)  1g) = P (f! 2
: Y (!)  1g)
Z+1 Z5 1 4
= P [Y 2 [1; +1]] = fY (t)dt = 5 dt = 5
1 1
Antes de nalizar notamos que la igualdad (1), asegura que al conjunto R tiene sentido
calcularle probabilidad. En efecto, si en
se encuentra de nida una -algebra A respecto
de la cual la funcion Y :
! IR es medible, entonces de (1) es directo que:
R = [Y  1] [ [Y  0] (2)
Como Y es funcion medible se tiene que [Y  1] 2 A e [Y  0] 2 A, de donde por (2)
resulta evidente que R 2 A.
Problema IV.2.3
Dadas X , Y , Z variables aleatorias independientes con distribucion uniforme en [0; 1].
>Cual es la probabilidad que la ecuacion cuadratica Xt2 + Y t + Z = 0 tenga raices reales?
Solucion:
Por independencia la densidad conjunta del vector (X; Y; Z ) sera:
fXY Z (x; y; z) = fX (x)fY (y)fZ (z) = 11[0;1](x)  11[0;1](y)  11[0;1] (z)
Xt2 + Y t + Z tendra races reales si y solo si Y 2 4XZ  0.
14
Por lo tanto la solucion es calcular el area de la interseccion en IR3 entre el cubo [0; 1]3
y la super cie Y 2 4XZ  0 ya que hay una densidad uniforme en el cubo.
p
Como X; Y; Z  0 entonces al despejar de Y 2 4XZ  0 obtenemos Y  2 XZ .
Para poderpestablecer un parametrizacion del dominio, de ahora en adelante asumiremos
que Y  2 XZ y que X , Y , Z 2 [0; 1].
p
Para que Y 2 [0; 1] ) 2 XZ  1
p p
Mas precisamente Y 2 [2 XZ; 1] cuando 2 XZ  1
p
Claramente tendremos que suponer ademas que 2 XZ  1
p
2 XZ  1 ) XZ  41 ) Z (X )  41X
( Z 2 [0; 1 ] si X 2 [ 1 ; 1]
4X 4
Z 2 [0; 1] si X 2 [0; 41 ]
Con el razonamiento anterior estamos en condiciones de dar una parametrizacion de la
super cie. Esta sera:
p p
([0; 14 ]; [2 XZ; 1]; [0; 1]) [ ([ 41 ; 1]; [2 XZ; 1]; [0; 41X ])
En consecuencia la probabilidad a calcular sera:

Z41 Z1 Z1 Z1 Z41X Z1
IP [Y 2 4XZ  0] = dydzdx + dydzdx
0 0 2pXZ 1 0 2pXZ
4
Z14 Z1 p Z1 Z41X p
= (1 2 XZ )dzdx + (1 2 XZ )dzdx
0 0 14 0
Z41
4 p Z 1 1
1 )dx
= (1 3 X )dx + ( 4X 6X
0 1 4
= 41 4  2  ( 1 ) 32 + 1 ln 4  0:25441342
3 3 4 12

Problema IV.2.4

15
Sea X una v.a. con funcion de densidad fX . Se de ne la v.a. Y := Xb a donde a; b 2 IR
estan dados y b > 0.Demuestre que la v.a. Y tambien tiene funcion de densidad.
Solucion:
Debemos encontrar una funcion fY : IR ! IR+ [ f0g integrable en IR tal que
Zy
(8y 2 IR) : FY (y) = fY (u)du
1
donde FY es la funcion de distribucion de la v.a. Y .
En efecto, dado y 2 IR tiene que

FY (y) := P [ X b a  y] = P [X a  y  b] = P [X  y  b + a]
y por lo tanto
yZb+a
FY ( y ) = fX (v)dv (1)
1
Consideremos el cambio de variable lineal v = u  b + a. La expresion en (1) queda:
Zy
FY ( y ) = b  fX (u  b + a)du
1
Al de nir (8y 2 IR) : fY (y) := b  fX (y  b + a) de lo anterior obtenemos que:
Zy
(8y 2 IR) : FY (y) = fY (y)dy
1
lo que demuestra que la v.a. Y tiene funcion de densidad.
Para nalizar destacamos que la medibilidad de la funcion Y esta garantizada por la me-
dibilidad de la v.a. X , y ademas la integrabilidad en IR de la funcion fY es consecuencia
de la integrabilidad en IR de la funcion fX .
Problema IV.2.5

16
Sea X una v.a. simetrica en torno a cero i.e. (8x > 0) : P [X > x] = P [X < x].
Muestre que si X es v.a con funcion de densidad fX entonces la v.a de nida por Y := X 2
tiene funcion de densidad dada por
0 ;y  0
fY (y) := y 12 fX (y 12 ) ;y > 0

Solucion:
Demostremos primero que:
(1) Si X es v.a. simetrica en torno a cero entonces
(8x  0) : P [0  X  x] = P [ x  X  0]
(2) Si X es v.a. simetrica en torno a cero con funcion de densidad entonces
(8x  0) : P [jX j  x] = 2P [0  X  x]
En efecto, si X es v.a. simetrica en torno a cero entonces P [X > 0] = P [X < 0] y por lo
tanto P [X  0] = P [X  0]. Dado x > 0 se veri ca que:
P [0  X  x] = P [X  0] P [X > x]
= P [X  0] P [X < x]
= P [ x  X  0]
luego (1) es valido si x > 0, como (1) es evidente si x = 0 concluimos .
Por otro lado, si X es v.a. simetrica en torno a cero con funcion de densidad, dado x  0
es claro que:
P [jX j  x] = P [ x  X  x] = P [ x  X < 0] + P [0  X  x] (3)
Como X tiene funcion de densidad en particular se tiene que P [X = 0] = 0, luego de (3)
obtenemos que:
P [jX j  x] = fP [ x  X < 0] + P [X = 0]g + P [0  X  x]
i.e.
P [jX j  x] = P [ x  X  0] + P [0  X  x]
de donde por (1) concluimos que
(8x  0) : P [jX j  x] = 2P [0  X  x]
17
lo que demuestra (2).
Procedamos a demostrar que Y tiene funcion de densidad. Notemos que P [Y  0] = 1
luego
(8y < 0) : FY (y) := P [Y  y] = 0 (4)
Por otro lado, si y  0 entonces
FY (y) := P [Y  y] = P [X 2  y] = P [jX j  py ]
de donde al denotar por fX a la funcion de densidad de la v.a X, por (2) obtenemos que
Zpy
(8y  0) : FY (y) = 2P [0  X  py] = 2 fX (u)du (5)
0
Al hacer en (5) el cambio de variable v = u2 obtenemos que
Zy
(8y  0) : FY (y) = v 12 fX (v 12 )dv (6)
0
Al de nir entonces 0
fY (y) := y 21 fx(y 12 );;yy > 00
es facil convencerse a partir de (4) y (6) que
Zy
(8y 2 IR) : FY (y) = fY (u)du
1
y por lo tanto la v.a. Y tiene funcion de densidad.
Antes de nalizar destacamos que la medibilidad de la funcion Y esta garantizada por la
medibilidad de la v.a. X . Ademas la integrabilidad en IR de la funcion fY es consecuencia
de la integrabilidad en IR de fX y de la igualdad de las integrales que permiten pasar de
las expresiones (5) a la (6).
Problema IV.2.6
Sea X una v.a. con funcion de distribucion FX y sea c 2 IR una constante dada. Se
de ne la v.a. Y := maxfX; cg. Se pide que:
(a) De una expresion para la funcion de distribucion de la v.a. Y a partir de la funcion
de distribucion de la v.a. X .
18
(b) Demuestre que si X es v.a. con densidad y P [X  c] = 0 entonces Y tambien tiene
funcion de densidad >Que puede decir si P [X  c] > 0? .
Solucion:
(a) En lo que sigue denotaremos por FY a la funcion de distribucion de la v.a. Y ,
cuya medibilidad esta garantizada por la medibilidad de la v.a X. Claramente si
X :
! IR entonces
(8! 2
) : Y (!) := maxfX (!); cg  c
luego
(8y < c) : P [Y  y ]  P [Y < c] = 0
de donde
(8y < c) : FY (y) = 0 (1)
Por otro lado, si y  c es claro que:
Y (!)  y , maxfX (!); cg  y , X (!)  y
luego
(8y  c) : FY (y) = FX (y) (2)
De (1) y (2) se concluye que:
0
FY (y) = FX (y);; yy < cc (3)

(b) Denotemos por fX a la funcion de densidad de la v.a. X , entonces dado que


P [X  c] = 0 se tendra de (3) que
(8y  c) : FY (y) = FX (y) := P [X  y]
= P [ X  c] + P [ c < X  y ] (4)
= P [c < X  y ]
Como X es v.a. con densidad entonces (8x 2 IR) : P [X = x] = 0, en particular
P [X = c] = 0 , y por lo tanto de (4) obtenemos que
(8y  c) : FY (y) = P [c < x  y] + P [X = c] = P [c  X  y]
de donde
Zy
(8y  c) : FY (y) = P [X 2 [c; y]] = fX (u)du (5)
c
19
Al de nir entonces fY : IR ! IR+ [ f0g por
0
fY (u) = fX (u);; uu<cc

se tendra que fY es una funcion integrable en IR y de (5)


Zy
(8y  c) : FY (y) = fY (u)du
1
Como ademas
Zy
(8y < c) : FY (y) = 0 = fY (u)du
1
concluimos que
Zy
(8y 2 IR) : FY (y) = fY (u)du
1
lo que demuestra que la v.a. Y tiene funcion de densidad.
En el caso que P [X  c] > 0, a partir de (3) obtenemos que
FY (c) = FX (c) := P [X  c] > 0
Como (8y < c) : FY (y) = 0 es directo que FY (c ) = 0 luego
P [Y = c] = FY (c) FY (c ) = FY (c) > 0 (6)
y por lo tanto la v.a Y no puede tener funcion de densidad pues de tenerla debiera
en particular tenerse que P [Y = c] = 0 lo que esta en contradiccion con (6).

Problema IV.2.7
Sean X1; :::; Xn variables aleatorias con densidad comun de Rayleigh con parametro > 0,
dada por:
f (x) = x2 e x2=22 11x>0(x)
(a) Determine la densidad conjunta de Y1 ; :::; Yn con Yi = Xi2 8i = 1; :::; n.
(b) >Cual es la distribucion de U = 1min X?
in i
20
Solucion:
(a)
Calculemos directamente la distribucion de Y = X 2 con X variable aleatoria Rayleigh
de parametro .
IP [Y  y] = IP [jxj  py] = IP [ py  x  py]
= IP [0  x  py] ( Esto pues X es positiva )
Zpy x x2 p
FX ( y ) = x2 =22 e2 dx = 22 j0 y
2 e e
0
2
= (1 e y=2 ) (y  0)
Por lo tanto la ley de la variable aleatoria Y es exponencial.
Si los Xi son independientes ) Xi2 son independientes luego:
n  1
Y 
fY1 ;:::;Yn (y1 ; :::; yn ) = yi =22 con yi  0 8i = 1; :::; n
i=1 22 e

(b) Ahora escribimos U en terminos de los Xi .


 
IP [U  u] = 1 IP [U > u] = 1 IP 1min X >u
in i
= 1 IP [X1 > u; X2 > u; :::; Xn > u]
= 1 IP [X1 > u]    IP [Xn > u] = 1 IP [X1 > u]n
" "
Indep. igual densidad
Calculemos explcitamente la distribucion de una variable aleatoria X con densidad de
Raleigh.
(u > 0) IP [X > u] = 1 IP [X  u]
Zu x 2 2
x =2 dx
=1 2 e
0
IP [X > u] = 1 + e x2 =22 ju
= 1 + e u2 =22 1 = e u2 =22
0
Al reemplazar obtenemos:
IP [U  u] = 1 e nu2=22
21
Entonces la distribucion de U es tambien de Rayleigh pero de parametro pn .
(c) Calculemos la distribucion de Z utilizando las probabilidades condicionales.
 X1 
FZ (z) = IP [Z  z] = IP X  z = IP [X1  zX2 ]
2
Z1   
= IP X1  zX2 X2 = x2 fX2 (x2 )dx2
0

Sabemos que:
   Zzx2
IP X1  zX2 X2 = x2 = fX1=X2 (s; x2 )ds
0
Como X1 y X2 son independientes la distribucion condicional sera:

fX1=X2 (a=b) = fXf1 X2((ba;) b) = fX1 (a)


X2
Z1 Zzx2 se
IP [Z  z] = s2 =22 ds x2 e x22 =22 dx2
2 2
0 0
Z1 Z1 x2
(e s2 =22 j0 ) x2 e x22 =22 dx2 = x22 =22 (1 z2 x22 =22 )dx2
zx2 2 2 e e
0 0
Z1 x2 Z1 x2
x22 =22 dx2 x22 (z2 +1)=22 dx2
= 2 e 2 e
0 0

La funcion densidad debe integrar 1 para cualquier parametro por lo que sabemos que:
Z1 x
x2 =22 dx = 1 8 2 IR+
2 e
0

) (z2 + 1) R x2 e x2(z2+1)=22 dx = 1


2 1
Consideremos  2 = (z2+1)
0
Reemplazando tendremos que:

IP [Z  z] = 1 (z2 1+ 1) = (z2z+ 1)
2

22
Observacion: Sera un buen ejercicio hacer el mismo calculo utilizando el metodo del
Jacobiano. Otra pregunta interesante sera cambiar el min de la parte (a) por un max.
Sigue siendo una variable aleatoria de Rayleigh ?
Problema IV.2.8
Suponga que X1 ; :::; Xn son independientes e identicamente distribuidas con densidad
comun f . Muestre que la densidad conjunta de U = 1min X y V = 1max
in i
X es:
in i
fU;V (u; v) = n(n 1)[F (v) F (u)]n 2 f (u)f (v)11IR (u v)
Solucion:
1. Calculo de IP (U  u; V  v).
 
IP 1min X  u; 1max
in i
X  v = IP [Xi  u 8i = 1; :::; nXi  v 8i = 1; :::; n]
in i
) IP [U  u; V  v] = IP [u  Xi  v 8i = 1; :::; n]
Por independencia e igual distribucion
IP [u  Xi  v 8i = 1; :::; n] = IP [u  X1  v]n
= [F (v) F (u)]n  11IR (u v)
2. Solo consideraremos u < v ya que en otro caso se prueba rapidamente que vale 0.
Z1 Zv
IP [U  u; V  v] = fUV (u; v)dvdu
u 1

Sea g(u; v) =


Rv f (u; v)dv ) IP [U  u; V  v] = R1 g(u; v)du
UV
1 u
Al derivar con respecto a u y utilizar el teorema fundamental del calculo tendremos que:
d IP [U  u; V  v] = d Z g(u; v)du = g(u; v) = Z f (u; v)dv (1)
1 v
du du UV
u 1

Por otro al derivar (0) tendremos que:


d IP [U  u; V  v] = d [F (v) F (u)]n = n[F (v) F (u)]n 1 f (u) (2)
du du
23
Al igualar (1) con (2) se deduce que:
Zv
fUV (u; v)dv = n[F (v) F (u)]n 1f (u)
1
Derivando una vez mas, pero ahora con respecto a v.
d Z f (u; v)dv = d n[F (v) F (u)]n 1f (u)
v
dv UV dv
1
f (u; v) = n(n 1)[F (v) F (u)]n 2 f (u)f (v ) u < v

Es claro que existe una formula similar a esta para el caso de una variable aleatoria
discreta, que es ademas un buen ejercicio para comprender este problema.
IV.3 Metodo del Jacobiano

Problema IV.3.1
Sea X variable aleatoria exponencial de parametro X e Y variable aleatoria con dis-
tribucion uniforme en [0; 2].
Asumiendo que X e Y son independientes, calcule la distribucion conjunta de:
p p
U = X cos Y V = X sin Y
Muestre que U y V son variables aleatorias independientes y determine sus leyes junto
con las de:
2(U 2 + V 2) y U V

Solucion:
La densidad conjunta de X,Y es:
fXY (x; y) =   e x  11[0;1)(x)  21  11[0;2] (y)
El cambio de variables que transforma las variables X,Y en las variables U,V es:
24
x px cos y  u
y ! px sin y = v
Es necesario obtener el cambio de variables inverso, es decir que transforma U,V en X,Y,
este cambio de variables que notaremos ' es:
u '  u2 + v2  x
v
! arctg( v ) = y
u
El Jacobiano de ' sera:
 2u 2v 
D'(u; v) =  u2v 1+( uv )2  u
1 1 1
1+( uv )2

Por lo tanto:
jdetD'(u; v)j = j u22+u2v2 + u22+v2v2 j = 2
Entonces utilizando la regla del Jacobiando que en este caso sera:
fUV (u; v) = jdetD'(u; v)j  fXY (x(u; v); y(u; v))
Al reemplazar obtenemos:2 2
fUV (u; v) = 2  e (u +v )  21    11[0;1)(u2 + v2 )  11[0;2] (arctg( uv ))
Para simpli car las funciones indicadoras basta notar que:
u2 + v2  0 8u; v 2 IR
arctg( uv ) 2 [0; 2] 8u; v 2 IR

) fUV (u; v) =   e (u2 +v2 ) 8u; v 2 IR


Como la densidad conjunta de U,V se escribe como un producto de dos funciones, una
que solo depende de U y otra que solo depende de V, entonces las variables U y V son
independientes. De hecho esto es un si y solo si cuando consideramos variables aleatorias
con densidad. Lo unico que hay que determinar es como repartir las constantes para que
ambas funciones marginales integren 1. En este caso eso se ve inmediatamente por ser
ambas densidades iguales.
q  u2 q  v2
Entonces fU (u) =  e y f V ( v ) = e
Esto demuestra que:
Z1 2 r 
e u du = 
1
25
Observacion:
Normalmente lo anterior se veri ca para comprobar los calculos.
Como U 2 y V 2 son independientes la distribucion de la suma tendra la densidad de la
convolucion de ambas densidades, es decir:
Z1 Z1 
(k s)2  e s2 ds
fU 2 +V 2 (k) = fU (k s)fV (s)ds =  e
1 1

 Z1
) fU 2+V 2 (k) =  e [(k s)2 +s2 ]ds
1
Para poder desarrollar la expresion se intenta \armar" la densidad de alguna variable
aleatoria conocida en la variable de integracion.
Como (k s)2 + s2 = 2s2 2ks + k2 = 2(s k2 )2 + k2 k22 = 2(s k2 )2 + k22 .
Z1 Z1
) fU 2 +V 2 (k) =  e  k2
2  e 2(s 2 k )2
ds =  e  k22 e 2u2 du
1 1

r
=   2  e  k22
r
) fU 2 +V 2 (k) = 2  e  k2
2

La suma de los cuadrados de estas variables aleatorias es una variable aleatoria con la
misma densidad pero con parametro 2 .
Para calcular la ley de 2(U 2 + V 2) basta ver que:
Z2x r 
IP (2(U 2 + V 2 )  x) = IP (U 2 + V 2  2x ) = 2  e
 k2
2 dk
1
Al hacer el cambio de variables u = 2  k en la integral se tendra:
Z2x r   k2
Zx r    u2 dx
2 2 2 
2 e dk = e
2
2 2
1 1
q u2 u2
Es decir: f2(U 2+V 2)(x) = fU 2 +V 2 ( 2x )  21 = 
2(2)2 e 8 = p81  e 8

26
Para calcular la ley de UV agregamos la variable V y buscamos el cambio de variables
inverso al que transforma U,V en V, VU es decir:
U  V  X  X  Y  U 
V ! VU ) Y ! X = V
El Jacobiano sera entonces: y x
1 0 ) jdetj = jxj
Por lo tanto utilizando nuevamente la regla del Jacobiano:
r r
fXY (x; y) = jxj    e x2y2    e x2 = jxj  e x2(1+y2)
Para obtener la marginal de Y integramos la conjunta con respecto a x.

 Z1 2  Z
1
2  e

x2 (1+y2 ) 1
) fY (y) =  jxje x2 (1+y2 ) dx =  xe x 2 (1+y2 )
dx =   2(1 + y2)
1 0 0

) fY (y) = (1 +1 y2 )
Por lo tanto VU tiene distribucion de Cauchy.
Problema IV.3.2
Sean X; Y variables aleatorias independientes exponenciales de parametro .
Calcule e identi que la distribucion de:

Z = X X+ Y

Solucion:
La densidad conjunta de X; Y sera:
fXY (x; y) = fX (x)  fY (y) = 2  e (x+y)11 + (x)  11 + (y )
IR IR

Agregando la variable aleatoria X +Y consideremos el cambio de variables que transforma


(X; Y ) en ( XX+Y ; X + Y ).
27
Nos interesa el cambio de variables inverso, al anotar z = x+x y y t = x + y se tendra:
'
(z; t) ! (x; y) = (zt; t(1 z))
t z

El Jacobiano de este cambio de variables sera: jdetD'j(z; t) = j t (1 z) j = t
Por lo tanto al aplicar la regla del Jacobiano:
fZT (z; t) = t  fXY (x(z; t); y(z; t)) = 2 t  e (zt+t zt) 11 + (zt)  11 + (t(1 z))
IR IR

) fZT (z; t) = 2t  e t  11 + (zt)  11 + (t(1


IR IR z))
Como estamos considerando z  0 y t  0
) 11IR+ (zt) = 11IR+ (t) y 11IR+ (t(1 z)) = 11[0;1](z)
Entonces:
fZT (z; t) = e t  t  11IR+ (t)  2  11[0;1](z)
Para obtener la marginal de Z basta integrar la conjunta con respecto a t.
0Z1 1
fZ (z) = @ e t  tdtA  2  11[0;1] (z)
0
Integrando por partes:
Z1
e t  tdt = e 2 t 1 1 e t 1 = 1
0 2 0 2
0
Entonces fZ (z) = 11[0;1](z) es decir una variable aleatoria uniforme en [0; 1].
   
Observacion: Al obtener fZT (z; t) = 11[0;1] (z)  e t  t  11[0;1] (t)  2 , un resultado
que se escribe como un producto gZ (z)  gT (t) se sabe que las variables son independientes
y que ambas funciones son multiplos de fZ (z) y fT (t) respectivamente, solo es necesario
repartir las constantes para que las marginales integren 1.
IV.4 Normal Multivariada

Problema IV.4.

28
Un vector aleatorio X~ = (X1 ; :::; Xn) 2 IRn se dice que sigue una ley normal multivariada
de vector de medias  2 IRn y matriz de varianzas-covarianzas  2 IRnn (lo que se anota
X~  Nn(; ):::) si  es d.p. y X~ tiene funcion de densidad
fX~ (~x) = 1p e T 1
21 (~x )  (~x )
(2)n=2 det
Demuestre que X~  Nn(; ) si y solo si 9Z~  Nn (0; I ) y A 2 IRnn invertible tal que
X~ = AZ~ +  y  = AAT .
Solucion:
Demostremos primero que si Z~  Nn(0; I ) y A 2 IRnn es invertible entonces el
vector aleatorio X~ := AZ~ +  tiene ley Nn(; ) con  = AAT . En efecto como
Z~  Nn(0; I ) entonces
fZ~ (~z) = (21)n=2 e 12 ~zT ~z
Consideremos la transformacion lineal afn g : IRn ! IRn dada por g(~z) := A~z + , es
claro que como A es invertible entonces g es biyectiva de hecho g 1(~x) = A 1~x A 1 .
Del metodo del Jacobiano concluimos que el vector aleatorio X~ := g(Z~ ) posee funcion
de densidad en IRn y que esta viene dada por:
fX~ (~x) = fZ~ (g 1 (~x))jdetJg 1 (~x)j = jdetA 1 jfZ~ (A 1 (~x ))

= j(2
detA j e1 T T 1 1
21 (~x ) (A ) A (~x )
)n=2
Al de nir la matriz  := AAT (que es d.p.) se tiene que :
(1) (AT ) 1 A 1 = (AAT ) 1 =  1
(2) jpdetA 1j = jdetAj 1
(3) det = [(detA)  (detAT )]1=2 = [(detA)2 ]1=2 = jdetAj
De (1) y (2) concluimos que:
fX~ (~x) = (2)n=12 jdetAj e 21 (~x )T  1 (~x )
y de (3) obtenemos que:
fX~ (~x) = 1p e T 1
21 (~x )  (~x )
(2)n=2 det
luego X~  Nn(; ).
29
Recprocamente, supongamos que X~  Nn(; ). Como  es matriz d.p. del curso de
algebra lineal sabemos que 9A 2 IRnn invertible tal que  = AAT . Consideremos el
vector aleatorio Z~ de nido por Z~ := A 1 X~ A 1 el cual veri ca trivialmente la
identidad X~ = AZ~ + . Para concluir basta demostrar que Z~  Nn(0; I ).En efecto, como
Z~ = g 1(X~ ) del metodo del jacobiano, podemos concluir que Z~ es un vector aleatorio
con densidad en IRn, dada por
fZ~ (~z) = fX~ (g(~z))jdetJg (~z)j = jdetAjfX~ (A~z + )
= jn= detAp j e 12 (A~z+ )T  1 (A~z+ )
(2) 2 det
= jn= detAp j e 12 ~zT (AT  1 A)~z
(2) 2 det
De (1) es claro que AT  1A = I , luego por (3) obtenemos que:

fZ~ (~z) = (21)n=2 e 21 ~z ~z


T
= 1p e 12 (~z 0)T I 1 (~z 0)
(2)n=2 detI
i.e. Z~  Nn(0; I ).
Problema IV.4.
Demostrar que si X~  Nn (; ) y B 2 IRpn es de rango completo entonces el vector
aleatorio Y~ 2 IRp de nido por Y := BX~ tiene una ley Np(B; BBT ).
Solucion:
Como X~  Nn(; ) del problema anteriormente resuelto sabemos que 9A 2 IRnn
invertible y Z  Nn(0; In ) tales que  = AAT y X~ = AZ~ + . Se tiene entonces que:
Y~ = (BA)Z~ + B con BA 2 IRpn; B 2 IRp
Demostremos primero que:
(1) dim[KerBA] = n p
(2) dim[(KerBA)? ] = p
En efecto como una matriz es de rango completo si y solo si la aplicacion lineal asociada
es epiyectiva, es directo del hecho que A sea invertible y B de rango completo que BA
es de rango completo. Del teorema del nucleo imagen sale que:
dim[IRn] = dim[KerBA] + dim[ImBA] , n = dim(KerBA) + p
30
y por lo tanto dim[KerBA] = n p lo que demuestra (1). Por otro lado como
IRn = [KerBA]  (KerBA)? entonces
dim[IRn] = dim[KerBA] + dim[(KerBA)? ] , n = (n p) + dim[(KerBA)? ]
de donde dim[(KerBA)? ] = p, lo que demuestra (2).
De (1) sale que 9P 2 IRn(n p) cuyas columnas son una base ortonormal del s.e.v.
KerBA y de (2) tambien sale que 9Q 2 IRnp cuyas columnas son una base ortonormal
del s.e.v. (KerBA)? . Es facil veri car entonces que:
(3) P T P = In p ; QT Q = Ip
(4) P T Q = 0 2 IR(n p)p ; QT P = 0 2 IRp(n p).
Al de nir la matriz por bloques R := [P jQ] 2 IRnn es evidente que:
PT   P T P P T Q 
RT R =
QT [P jQ] = QT P QT Q
y por lo tanto de (3) y (4) obtenemos que RT R = In, es decir, R es matriz ortonormal
(en particular invertible). De namos el vector aleatorio V~ := RT Z~ , entonces como
V~ = RT Z~ + 0
con RT 2 IRnn invertible y Z~  Nn(0; In ), del problema anteriormente resuelto con-
cluimos que V~  Nn(0; RT R) i.e. V~  Nn(0; In ). De la identidad trivial Z~ = RT V~ ,
obtenemos que:
Y~ = (BAR)V~ + B
Pero BAR = (BA)[P jQ] = [(BA)P j(BA)Q] . Como las columnas de Q son elementos
del Ker(BA), es facil deducir que (BA)Q = 0 2 IRpp, y por lo tanto
Y~ = [B A P j 0 ]V~ + B (5)
h i
Si escribimos V~ como V~ = VV~~21 donde V~1 son las primeras p componentes del vector
aleatorio V~ y V~2 las ultimas (n p) componentes del vector aleatorio V~ , de (5) obtenemos
que
Y~ = (BAP )V~1 + B (6)
Dado que V~  Nn(0; In ) es facil deducir que V~1  Np(0; Ip ). Ademas como B; A
y P son matrices de rango completo, tambien lo sera la matriz BAP , luego como
BAP 2 IRpp, concluimos que BAP es matriz invertible. Del problema anterior se
deduce que Y~  Np(B; (BAP )(BAP )T ), pero
(BAP )(BAP )T = BA(PP T )AT B = BAIn AT BT = B(AAT )BT = BP T
31
i.e Y~  Np(B; BBT ).
Problema IV.4.
Sea X~  Nn(0; 2 I ) donde  2 IR+. Demostrar que si A 2 IRnn y a 2 IRn n f0g son
tales que Aa = 0 entonces las variables aleatorias X~ T AX~ y aT X~ son independientes.
Solucion:
En efecto, como A 2 IRnn es simetrica entonces es diagonizable y como Aa = 0,
entonces a es vector propio de A asociado al valor propio  = 0. Se tiene entonces que
existe una base ortonormal en IRn de vectores propios de A de la forma:
fv1 ; :::; vn 1; kaak g
donde (8i = 1; :::; n 1) : vi es vector propio de A asociado a algun valor propio i de
A. De namos la matriz
h i
P := v1 ; :::; vn 1; kaak 2 IRnn
Es facil convencer que:
(1) P T P = PP T =2In 3
1
(2) D := P T AP = 64
6 ... 77
n 1 5
0
De (1) sale que P T es invertible y luego de rango completo, por lo tanto del problema ante-
riormente resuelto concluimos que el vector aleatorio Y~ := P T X~  Nn(P T 0; P T (2 I )P )
i.e Y~  Nn(0; 2 I ).
De (2) sale que A = PDP T , luego
X
n 1
X~ T AX~ = X~ T (PDP T )X~ = (P T X~ )T D(P T X~ ) = Y~ T DY~ = iYi2 (3)
i=1
aT X~ = aT (P Y~ ) = (aT P )Y~ = Yn (4)
Si Y~  Nn(0; 2 I ) entonces
Pn y2 Y
1 21 i n 1 yi2
fY~ (y1 ; :::; yn ) = (2)n=2 n e i=1 = p e 2
i=1 2
32
Como (8i = 1; :::; n) :
+1 R y2
p21 e 2i dyi = 1, concluimos que las variables aleatorias
1
Y1; :::; Yn son independientes.
Finalmente de (3) y (4), obtenemos que:
X~ T AX~ = funcion (Y1 ; :::; Yn 1)
aT X~ = funcion (Yn)
Como Y1; :::; Yn son v.a. independientes entonces de lo anterior,tambien lo seran las
variables aleatorias X~ T AX~ y aT X~ .
Problema IV.4.
Demostrar que si X1; :::; Xn son variables aleatorias i.i.d. N (; 2 ) entonces las variables
aleatorias
1 Xn 1 Xn

X := n Xi y Sn := n 1 (Xi X )2
2
i=1 i=1
son independientes.
Solucion:
De namos para cada i 2 f1; :::; ng la variable aleatoria Yi := Xi   N (0; 2 ). Es
facil veri car que:
 1 X n
X = ( n Yi ) 
i=1
1 Xn
n = n 1 (Yi Y )
S2 2
i=1
luego para demostrar que X y Sn2 son independientes, basta probar que n1 Yi
Pn
i=1
Pn
y n 1 (Yi Y ) son independientes. En efecto como X1; :::; Xn son independientes
1
i=1
entonces tambien lo seran Y1; :::; Yn luego al de nir el vector aleatorio Y~ := (Y1 ; :::; Yn)
se tiene que Y~ poseee funcion de densidad dada por:
Y
n 1 yi2 1 e 21 y~T ~y
fY~ (~y) = p e 2 = (2)n= 2 n
2
i=1

i.e. Y~  Nn(0; 2 I ).
33
Pn
Denotando por 11 := ei donde e1 ; :::; en son los vectores de la base canonica de IRn,
i=1
se tiene que:
1X n
Y = 1 11T Y~ = ( 11 )T Y~ (1)
n i=1 i n n
y
1 X n
 1 Xn
 1 Xn 1 Xn
n 1 (Yi Y ) = n 1 f Yi 2nY  n Yi n( n Yi) g
2 2 2
i=1 i=1 i=1 i=1
X
n 1X
n
= 12 f Yi2 n( n Yi)2 g:
i=1 i=1
Ademas como
Pn Y 2 = Y~ T Y~ Pn
y ( n1 Yi)2 = ( n1 Y~ T 11)( n1 11T Y~ ) = n12 ~yT 1111T Y~
i
i=1 i=1
obtenemos que
1 X
n
n 1 i=1 (Yi Y )2 = (n 1 1) fY~ T Y~ 1 Y~ T 1111T Y~ g
n
(2)
1 T
= Y~ T ( I nn 11111 )Y~

De las igualdades (1) y (2) como Y~  Nn(0; 2 ; In) para concluir (segun fue demostrado
Pn Pn
en el problema anterior) que n1 Yi e n1 1 (Yi Y )2 son independientes, bastara
i=1 i=1
que:
I n 1 1111T 11
( n 1 )n = 0
En efecto:
1 T
( I nn 11111 ) 1n1 = n(n1 1) (11 n 1 1111T 11)
= n(n1 1) (11 n 1 11n) = n(n1 1) (11 11) = 0
Pn Pn
luego n1 Yi e n 1 1 (Yi Y )2 son independientes, y por lo tanto tambien lo son
i=1 i=1
X y Sn2 .

34

Anda mungkin juga menyukai