Anda di halaman 1dari 28

Apéndice A

Algunos conceptos y
resultados de Probabilidad

A.1. Espacio de probabilidad


Es la terna (Ω, F, P) donde Ω es un conjunto arbitrario, aunque en la Teoría
de Probabilidad se le conoce como espacio muestral, y es el conjunto de posibles
resultados de un experimento aleatorio.

F es una σ-algebra de subconjuntos de Ω que satisface:

1. Ω ∈ F
2. Si A ∈ F, entonces Ac ∈ F
3. Si A1 , A2 , ..., An ∈ F, entonces A1 ∪ A2 ∪ ... ∪ An ∈ F

P : F → [0, 1] es una función conocida como medida de probabilidad que


cumple:

1. P (Ω) = 1
2. P (A) ≥ 0 ∀ A ∈ F
∞ n
3. Si A1 , A2 , ... ∈ F y Ai ∩Aj = ∅, i = j, entonces P ( i=1 Ai ) = i=1 P (Ai )

Proposición A.1 (Algunas propiedades de P)

Proposition 1 (a) Si A ⊆ B entonces P (A) ≤ P (B).


(b) P (∅) = 0
(c) P (Ac ) = 1 − P (A)

8
(d) P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
 
(e) Desigualdad de Boole P ( ni=1 Ai ) ≤ ni=1 P (Ai )
  
(f) Fórmula Adición-Sustracción P ( ni=1 Ai ) = ni=1 P (Ai ) − i=j P (Ai ∩
 n
Aj ) + i1 >i2 >i3 P (Ai1 ∩ Ai2 ∩ Ai3 ) + ... + (−1)n+1 P ( i=1 Ai )

A.2. Probabilidad Condicional e independencia


Sean A y B en F tal que P (B) > 0. Entonces

P (A ∩ B)
P (A|B) =
P (B)

Proposición: P (·|B) es una medida de probabilidad.


Teorema de la probabilidad
n total: Sean B1 , B2 , ..., Bn ∈ F tales que Bi ∩
Bj
n = ∅ ∀ i =
 j y i=1 Bi = Ω, entonces para A ∈ F : P (A) =
i=1 P (A|Bi )P (B i )

Teorema de Bayes: P (Bj |A) = P (A∩Bj)


= nP (A|Bj )P (Bj )
P (A) i=1 P (A|Bi )P (Bi )

Definición A.1 Se dice que A y B ∈ F son independientes si sólo si P (A∩B) =


P (A)P (B)

Definición A.2 Se dice que A1 , A2 , ..., An ∈ F son inpendientes (entre sí) si y


sólo si

Definition 2 P (Ai ∩ Aj ) = P (Ai ) ∩ P (Aj ) para i = j.


P (Ai ∩ Aj ∩ Ak ) = P (Ai ) ∩ P (Aj ) ∩ P (Ak ) para i = j = k = i.

P (A1 ∩ A2 ... ∩ An ) = P (A1 ) ∩ P (A2 )... ∩ P (An )

Teorema A.2 Si A y B son independientes entonces

Theorem 3 1. A y B c son independientes


2. Ac y B son independientes
3. Ac y B c son independientes

9
A.3. Variables aleatorias
Sea (Ω, F, P) un espacio de probabilidad. Una variable aleatoria es una fun-
ción X : Ω → R que es F − medible, es decir, que ∀x ∈ R, X −1 (−∞, x] =
{ω ∈ Ω : X(ω) ≤ x} ∈ F.

Asociada a toda variable aleatoria X se tiene la bien conocida función de


distribución.

Definición A.3 Sea (Ω, F, P) un espacio de probabilidad y X : Ω → R una


variable aleatoria. La función de distribución de X es una función FX : R →
[0, 1] definida por

FX (x) = P({ω ∈ Ω : X(ω) ≤ x}) := P(X ≤ x)

Sin embargo, generalmente se trabajará con variables aleatorias únicamente


discretas o continuas.

Definición A.4 Se dice que fX : R → [0, 1] es una función de densidad de


probabilidad (asociada a X) si satisface

Definition 4 Para el caso de variables aleatorias discretas:


fX : N → [0, 1], donde N es un conjunto a lo más numerable, definida por
fX (x) = P (X = x) y que cumple:

1. fX (x) ≥ 0 ∀ x ∈ R

2. x fX (x) = 1

Para el caso de variables aleatorias continuas:


fX : R → R+ satisface:

1. fX (x) ≥ 0 ∀ x ∈ R
∞
2. −∞ fX (x)dx = 1

A.4. Distribuciones Conjuntas y Condicionales

Función de Distribución Acumulativa.

Definición A.5 (Función de distribución acumulativa conjunta).

Sean X1 X,2 , ..., Xk , k variables aleatorias todas definidas sobre el mismo


espacio de probabilidad (Ω, F, P [·]) . La función de distribución acumulati-
va conjunta de X1 , ..., Xk denotada por Fx1 ....xk (·, ...., ·) , está definida como
P [X1 ≤ x1 , X2 ≤ x2 , ..., Xk ≤ xk ] para todo (x1 , x2 , ..., xk ) .

10
Por lo tanto, la función de distribución acumulativa conjunta es una función
con dominio IRk (espacio k− euclidiano) y contradominio el intervalo cerrado
[0, 1] .
Anteriormente se vio que la función de distribución acumulativa de una
variable aletoria unidimensional tiene ciertas propiedades; lo mismo sucede para
la distribución acumulativa conjunta, se verán a continuación dichas propiedades
para la función de dos variables.
Propiedades de la función de distribución acumulativa bivariada F (·, ·) .
(i) F (−∞, y) = lı́m F (x, y) = 0 ∀y, F (x, −∞) = lı́m F (x, y) = 0
x→−∞ y→−∞

∀x, y x→∞
lı́m F (x, y) = F (∞, ∞) = 1
y→∞

(ii) Si x1 < x2 y y1 < y2 , entonces

P [x1 < X ≤ x2 ; y1 < Y ≤ y2 ] = F (x2 , y2 ) − F (x2 , y1 )


− F (x1 , y2 ) + F (x1 , y1 )
(iii) F (x, y) es continua en cada punto; esto es

lı́m F (x + h, y) = lı́m+ F (x, y + h) = F (x, y) .


h→0+ h→0

Definición A.6 (Función de distribución acumulativa marginal).

(Función de distribución acumulativa bivariada). Cualquier función que satis-


face las propiedades (i) a (iii) está definida como una función de distribución
acumulativa bivariada.

Definición A.7 (Función de distribución acumulativa marginal).

Si FX,Y (·, ·) es la función de distribución acumulativa conjunta de X y Y ,


entonces las funciones de distribución acumulativa FX (·) y FY (·) son llamadas
funciones de distribución acumulativas marginales de X y Y, respectivamente.

Observación. Fx (x) = Fx,y (x, ∞) y Fy (y) = Fx,y (∞, y) ; esto es, el conocimien-
to de la función de distribución acumulativa conjunta de X y Y implica el
conocimiento de las dos funciones de distribución acumulativa
 marginal.
Observación. Fx (x) + Fy (y) − 1 ≤ FX,Y (x, y) ≤ Fx (x) Fy (y) para toda
x, y.

A.4.1. Variables aleatorias discretas


Si X1 , X2 , ..., Xk son variables aleatorias definidas sobre el mismo espacio
de probabilidad, entonces (X1 , X2 , ..., Xk ) es llamada una variable aleatoria k-
dimensional.

11
Definición A.8 (Variables aleatorias discretas conjuntas). La variable aleato-
ria k−dimensional (X1 , X2 , ..., Xk ) se define como una variable aleatoria disc-
reta k−dimensional si puede tomar valores solo sobre un número contable de
puntos (x1 , x2 , ...xk ) en el espacio real k−dimensional. También se suele de-
cir que las variables aleatorias X1 , X2 , ..., Xk son variables aleatorias discretas
conjuntas.

Definición A.9 (Función de densidad discreta conjunta). Si (X1 , X2 , ..., Xk )


es una variable aleatoria discreta k−dimensional, entonces la función de den-
sidad discreta conjunta de (X1 , X2 , ..., Xk ), denotada por fX1 ,X2 ,...,Xk (·, ·, ..., ·)
está definida como

fX1 ,X2 ,...,Xk (x1 , x2 , ...xk ) = P [X1 = x1 ; X2 = x2 ; ...; Xk = xk ]

para (x1 , x2 , ...xk ), un valor de (X1 , X2 , ..., Xk ) y es igual a cero en otro caso.


Observación: fX1 ,...,Xk (x1 , ...xk ) = 1, donde la suma es sobre todas los
valores posibles de (X1 , ..., Xk ) .

Teorema A.3 Si X y Y son variables aleatorias discretas conjuntas, entonces


el conocimiento de FX,Y (·, ·) es equivalente al conocimiento de fX,Y (·, ·) . Este
teorema se generaliza a variables aleatorias discretas k−dimensionales.

Demostración.
Sea (x1 , y1 ) , (x2 , y2 ) , .... el conjunto de puntos
de posibles valores de (X, Y ) .
Si fX,Y (·, ·) . está dada, entonces FX,Y (x, y) = fX,Y (xi , yi ) , donde la suma
es sobre todas las i’s para las cuales xi ≤ x y yi ≤ y. Recíprocamente, si
FX,Y (·, ·) está dada, entonces para (xi , yi ) , un valor posible de (X, Y ) ,

fX,Y (xi , yi ) = FX,Y (xi , yi ) − lı́m FX,Y (xi − h, yi )


0<h→0

− lı́m FX,Y (xi , yi − h) + lı́m FX,Y (xi − h, yi − h) .


0<h→0 0<h→0

Definición A.10 (Densidad discreta marginal). Si X y Y son variables aleato-


rias discretas conjuntas entonces fX (·) y fY (·) son llamadas funciones de den-
sidad discretas marginales. Más generalmente, sea X1 , X2 , ..., Xkn cualquier sub-
conjunto de las variables aleatorias discretas conjuntas X1 , X2 , ..., Xk ; entonces
fX1 ,...,Xk (x1 , x2 , ...xkn ) es también llamada una densidad marginal.

Observación. Si X1 , X2 , ..., Xk son variables aleatorias discretas conjunta-


mente distribuidas, entonces cualquier densidad discreta marginal puede ser en-
contrada de la densidad conjunta, lo recíproco no es cierto. Por ejemplo, si X y Y

12
son variables aleatorias conjuntamente distribuidas con valores (x1 , y1 ) (x2 .y2 ) , ....,
entonces
 
fX (xk ) = fX,Y (xi , yi ) y fY (yk ) = fX,Y (xi , yi )
yi Xi

A.4.2. Variables aleatorias continuas


Definición A.11 (Variables aleatorias continuas conjuntas y función de den-
sidad). La variable aleatoria k−dimensional (X1 , X2 , ..., Xk ) se define como
una variable aleatoria continua k−dimensional si y sólo si existe una función
fX1 ,...,Xk (·, ·, ..., ·) ≥ 0 tal que
 xk  x1
FX1 ,...,Xk (x1 , ...xk ) = .... fX1 ,...,Xk (u1 , u2 , ..., uk ) du1 , ...., duk
−∞ −∞

para toda (x1 , x2 , ...xk ) . fX1 ,...,Xk (·, ..., ·) se define como la función de densidad
de probabilidad conjunta.

Al igual que en el caso univariado, la función de densidad de probabilidad


conjunta tiene dos propiedades;
(i) fX1 ,...,Xk(x1 , x2 , ...xk ) ≥ 0
∞ ∞
(ii) −∞ .... −∞ fX1 ,...,Xk (x1 , ...xk ) dx1 , ..., dxk = 1
En el caso de las funciones de densidad de probabilidad univariadas se
vio que las funciones eran utilizadas para encontrar la probabilidad de que
b 
P [a < X ≤ b] = a fX (x) dx o, de forma general, P [X ∈ B] = B fX (x) dx.
En el caso bivariado, el volumen da las probabilidades. Por ejemplo, sea
fX1 ,...,Xk (x1 , ...xk ) una función de densidad de probabilidad conjunta para las
variables aleatorias continuas conjuntas (X1 , X2 ) y sea R alguna región en el
plano cartesiano, entonces
 
P [(X1 , X2 ) ∈ R] = fX1 ,...,Xk (x1 , .x2 ) dx1 dx2
R

o sea que la probabilidad se dá por el volumen en este caso. Si en particular,

R = {(x1 , .x2 ) : a1 < x1 ≤ b1 ; a2 < x2 ≤ b2 }


entonces

 
b2 b1
P [a1 < x1 ≤ b1 ; a2 < x2 ≤ b2 ] = fX1 ,...,Xk (x1 , .x2 ) dx1 dx2 .
a2 a1

Teorema A.4 Si X y Y son variables aleatorias continuas conjuntamente dis-


tribuidas entonces el conocimiento de FX,Y (·, ·) es equivalente al conocimiento
de una fX,Y (·, ·) y viceversa. Lo anterior se generaliza para variables aleatorias
continuas k−dimensionales.

13
Demostración.
Para una fX,Y (·, ·) dada, FX,Y (·, ·) puede obtenerse para cualquier (x, y)
por
 y  x
FX,Y (x, y) = fX,Y (u, v) dudv
−∞ −∞
Así mismo para una FX,Y (·, ·) dada, entonces fX,Y (·, ·) puede obtenerse por

∂ 2 FX,Y (x, y)
fX,Y (x, y) =
∂x∂y
para los valores x, y, donde FX,Y (·, ·) es diferenciable.

Definición A.12 (Función de densidad de probabilidad marginal). Si X y Y


son variables aleatorias continuas conjuntamente distribuidas, entonces fX (·) y
fY (·) se llaman funciones de densidad de probabilidad marginal. Generalizando,
sea Xi1 , Xi2 , ..., Xim cualquier subconjunto de las variables aleatorias continuas
conjuntamente distribuidos X1 , ..., Xk , entonces fXi1 ,...,Xim (xi , ..., xim ) se llama
la densidad marginal de la variable aleatoria m−dimensional (Xi1 , ..., Xim ).

Observación. Si X1 , ..., Xk son variables aletorias continuas, entonces cualquier


función de densidad de probabilidad marginal puede encontrarse.
Si X y Y son variables aleatorias continuas, entonces
 ∞  ∞
fX (x) = fX,Y (x, y) dy y fY (y) = fX,Y (x, y) dx
−∞ −∞

A.4.3. Distribución condicional e independencia estocás-


tica
Definición A.13 (Función de densidad discreta condicional). Sean X y Y
variables aleatorias discretas conjuntamente distribuidas con función de den-
sidad discreta conjunta fX,Y (·, ·) . La función de densidad discreta condicional
de Y dada X = x denotada por fY /X (·/x) se define como
fX,Y (x, y)
fY /X (y/x) =
fX (x)
si fX (x) > 0, donde fX (x) es la densidad marginal de X.

Similarmente,

fX,Y (x, y)
fX/Y (x/y) = si fY (y) > 0.
fY (x)
De la definición anterior se tiene que fX/Y (·/y) o fY /X (·/x) deben cumplir
con los propiedades de una función de densidad de probabilidad.

14
Definición A.14 (Función de densidad continua condicional). Si X y Y son
varibles aleatorias continuas conjuntamente distribuidas, entonces la distribu-
ción acumulativa condicional de Y dado X = x está definida como
 y
fY /X (y/x) = fY /X (z/x) dz
−∞

para toda x tal que fX (x) > 0.

Al principio del curso se analizaron los conceptos de probabilidad condicional


de dos eventos, como también el de independencia de eventos. Ya se revisó el
concepto de probabilidad condicional entre variables aleatorias, por lo que cor-
responde revisar ahora el concepto de independencia entre variables aleatorias.

Definición A.15 (Independencia Estocástica). Sea (X1 , X2 , ..., Xk ) una vari-


able aleatoria k−dimensional.X1 , X2 , ..., Xk son definidas como estocásticamente
independientes si y sólo si
k

FX1 ,X2 ,...,Xk (x1 , x2 , ..., xk ) = FXi (xi )


i=1

para toda x1 , x2 , ..., xk .

Definición A.16 (Independencia Estocástica). Sea (X1 , X2 , ..., Xk ) sea una vari-
able aleatoria discreta k−dimensional.con función de densidad discreta conjun-
ta fX1 ,X2 ,..,Xk (·, ·, ..., ·) , X1 , X2 , ..., Xk son estocásticamente independientes si
y sólo si
k

fX1 ,X2 ,...,Xk (x1 , x2 , ..., xk ) = fXi (xi )


i=1

para todos los valores (x1 , x2 , ..., xk ) de (X1 , X2 , ..., Xk ) .

Observación.
Muy a menudo se suele omitir el término ”estocástica”.
En el pasado se vió que la independencia de eventos estuvo cercanamente
relacionado al concepto de probabilidad condicional, de igual forma la inde-
pendencia de variables aleatorias esta cercanamente relacionada con la idea de
distribuciones condicionales de variables aleatorias.
Si X y Y son dos variables aleatorias independientes; entonces fX,Y (x, y) =
fX (x) fY (y) por definición de independencia; sin embargo fX,Y (x, y) = fY /X (y/x) fX (x)
por definición de densidad condicional, lo cual implica que fY /X (y/x) = fY (y) ;
esto es, la densidad condicional de Y dado X es la densidad incondicional de Y ,
por lo que para demostrar que dos variables aleatorias no son independientes,
es suficiente demostrar que fY /X (y/x) depende de x.

15
Teorema A.5 Si X1 , ..., Xk son variables aleatorias independientes y g1 (·) , ..., gk (·) ,
son k funciones tales que Yj = gj (Xj ) j = 1, 2, ..., k entonces Y1 , Y2 , ..., Yk son
independientes.

A.5. Características numéricas de variables aleato-


rias
A.5.1. Esperanza y varianza
La esperanza también se conoce como valor esperado o media, se denota
como E(X) = µX y se define como:

 x · P(X = x) si X es discreta;
E(X) = x∞
 x · fX (x)dx si X es continua
−∞

Una vez definida la esperanza, se puede definir el concepto de varianza de la


siguiente manera:

Si X es una variable aleatoria entonces su varianza está dada por


 
V ar(X) = E (X − E(X))2 .

A.5.2. La esperanza de una función de una variable aleato-


ria
Si X es una variable aleatoria y g(x) es una función real, entonces

 g(x) · P(X = x) si X es discreta;
E[g(X)] = x∞
 g(x) · fX (x)dx si X es continua
−∞

Con lo que se puede dar una expresión para la varianza


 
V ar (X) = E (X − E(X))2

pues

 (x − µX )2 · P(X = x) si X es discreta;
V ar(X) = x∞
 (x − µX )2 · fX (x)dx si X es continua
−∞

16
A.5.3. Momentos
El k-ésimo momento de una variable aleatoria X se define como E(X k ) y se
puede calcular de la siguiente manera

 xk · P(X = x) si X es discreta;
E(X k ) = x∞
 xk · fX (x)dx si X es continua
−∞

Se puede dar una relación de la varianza de una variable aletoria X con su


segundo momento de la siguiente manera

   
V ar(X) = E (X − µX )2 = E X 2 − 2µX X + µ2X = E(X 2 )−2µX E(X)+µ2X = E(X 2 )−E2 (X)

∴ V ar(X) = E(X 2 ) − E2 (X)

Proposición A.6 (Algunas propiedades de E(X)) Si X y Y son variables aleato-


rias, entonces

1. Si P(X ≥ 0) = 1, entonces E(X) ≥ 0


2. Si P(X ≥ Y ) = 1, entonces E(X) ≥ E(Y )
3. Si a y b son constantes reales, entonces E(aX + b) = aE(X) + b

Proposición A.7 (Algunas propiedades de V ar(X)) Si X es variable aleatoria,


entonces

1. V ar(X) ≥ 0 y V ar(X) = 0 ⇔ P (X = c) = 1 donde c es una constante


real
2. V ar(aX + b) = a2 V ar(X)

A.5.4. Función generadora de momentos


La función generadora de momentos  deuna variable aleatoria X, denotada
por mX (t), se define como mX (t) = E etX .
Asi,

 tX   etx · P(X = x) si X es discreta;
mX (t) = E e = x∞
 etx · fX (x)dx si X es continua
−∞

Esta función recibe el nombre de “generadora de momentos” debido a la


siguiente observación

17
 
 tX  (tX)2 (tX)3
E e = E 1 + tX + + + ...
2! 3!
t2 t3
= 1 + tE(X) + E(X 2 ) + E(X 3 ) + . . .
2! 3!
∂ tX t2
Entonces, ∂t E(e ) = E(X) + tE(X 2 ) + 3
2! E(X ) + . . ..

Evaluando en t = 0 se tiene que mX (0) = E(X).
∂2 tX
También nótese que ∂t2 E(e ) = E(X 2 ) + tE(X 3 ) + . . ..
′′
De nuevo, evaluando en t = 0 se tiene que mX (0) = E(X 2 ).
(k)
En general mX (0) = E(X k ), de aquí el nombre en particular.
Ejemplo A.1 (Función Generadora de momentos de la distribución Poisson)
Sea X una variable aleatoria con distribución P oisson(λ), es decir:
e−λ λx
fX (x) = I(x){0,1,2,..} con λ > 0
x!
Calcular E(X) y E(X 2 ).


 e−λ λx
mX (t) = E[etX ] = etx
x=0
x!

 (et λ)x
= e−λ
x=0
x!
t
= e−λ ee λ
t
= e−λ(e −1)
t
∴ mX (t) = e−λ(e −1)

Diferenciando se llega a que


′ t
mx (t) = eλ(e −1)
λet
′′ t t
mx (t) = eλ(e −1)
λet + λet eλ(e −1)
λet
Evaluando en t = 0:
′ t
mX (0) = eλ(e −1)
λet = λ = E(X)
′′
mX (0) = λ + λ2 = E(X 2 )
Usando los resultados anteriores se puede obtener V ar(X)
V ar(X) = E[(X − E(X))2 ] = E(X 2 ) − E2 (X) = λ + λ2 − λ2 = λ
∴ E(X) = λ = V ar(X)

18
A.5.5. Esperanza de g (X1 , ..., Xn )
Aquí, igual que antes se procederá a revisar la definición de esperanza matemáti-
ca de variables aleatorias k−dimensionales y posteriormente se verá lo relaciona-
do con respecto a la media y a la varianza para finalizar con el concepto de
esperanza matemática de una función de una variable aleatoria k−dimensional.
Definición A.17 (Esperanza matemática). Sea (X1 , X2 , ..., Xk ) una variable
aleatoria k−dimensional con densidad f(X1 ,X2 ,...,Xk ) (·, ....., ·) . El valor esperado
de una función g (:, ....·) de la variable aleatoria k−dimensional, denotada por
E [g (X1 , X2 , ..., Xk )] , está definida como

E [g (X1 , X2 , ..., Xk )] = g (x1 , x2 , ..., xk ) fX1 ,X2 ,...,xk (x1 , x2 , ..., xk )

si la variable aleatoria (X1 , X2 , ..., Xk ) , es discreta, donde la suma es sobre


todos los posibles valores de (X1 , X2 , ..., Xk ) ,
 ∞ ∞  ∞
E [g (X1 , X2 , ..., Xk )] = ... g (x1 , x2 , ..., xk ) fX1 ,X2 ,...,xk (x1 , x2 , ..., xk ) dx, ...dxk
−∞ −∞ −∞

si la variable aleatoria (X1 , X2 , ..., Xk ) es continua.

Por supuesto lo anterior es cierto si la suma converge o la integral existe.


Observación. En particular, si g (x1 , x2 , ..., xk ) = xi , entonces

E [g (X1 , X2 , ..., Xk )] = E [Xi ] .


Observación. Si g (x1 , ..., Xn ) = (xi − E (xi ))2 , entonces E [g (X1 , ..., Xn )] =
V ar (Xi ) ,
A continuación se define la covarianza entre dos variables aleatorias.
Definición A.18 Sean X y Y variables aleatorias. La covarianza entre X y Y
se define como
Cov (X, Y ) = E {[X − E (X)] [Y − E (Y )]}

Teorema A.8 Sean X y Y variables aleatorias, entonces


Cov (X, Y ) = E (XY ) − E (X) E (Y )
Demostración. Sea E (X) = µX y E (Y ) = µY ,

Cov [X, Y ] = E [(X − µX ) (Y − µY )] = E [XY − XµY − Y µX + µX µY ]


= E [XY ] − µY E [X] − µX E [Y ] + µX µY
= E [XY ] − µY µX − µX µY + µX µY
= E [XY ] − µY µX .

19
Definición A.19 (Coeficiente de correlación). El coeficiente de correlación, de-
notado por ρ [X, Y ] o ρX,Y de dos variables aleatorias X y Y está definido como

Cov [X, Y ]
ρX,Y = .
σX σ Y

A.5.6. Esperanza condicional


Definición A.20 (Esperanza matemática condicional). Sea (X, Y ) una vari-
able aleatoria bidimensional y g (·, ·) una función de dos variables. La esperanza
condicional de g (X, Y ) dado que X = x, denotada por E [g (X, Y ) /X = x] ,
está definida como
 ∞
E [g (X, Y ) /X = x] = g (x, y) fY /X (y/x) dy
−∞

si X y Y son continuas, y

E [g (X, Y ) /X = x] = g (x, yj ) fY /X (y/x)

si X y Y son discretas y la suma se realiza sobre todos los posibles valores de Y.

Observación:  ∞
E [Y /X = x] = yfY /X (y/x) dy
−∞

(caso discreto), y 
E [Y/X = x] = yj fY /X (yj /x)
(caso continuo).

Teorema A.9 Sea (X, Y ) una variable aleatoria bidimensional entonces

E [g (Y )] = E [E [g (Y ) /X]]
y en particular

E [Y ] = E [E [Y /X]]

Definición A.21 (Curva de regresión). E [Y/X = x] se llama la curva de re-


gresión de Y sobre x, también denotada por

µY /X=x = µY /x

20
Definición A.22 (Varianza Condicional). La varianza condicional de Y dado
X = x está definida por
  2
V ar [Y /X = x] = E Y 2 /X = x − (E [Y/X = x]) .

Teorema A.10 V ar [Y ] = E [V ar {Y/X}] + V ar [E {Y/X}]

Teorema A.11 Sea (X, Y )una variable aleatoria bidimensional y g1 (·) , g2 (·)
funciones de una variable . Entonces
(i) E [g1 (Y ) + g2 (Y ) /X = x] = E [g1 (Y ) /X = x] + E [g2 (Y ) /X = x]
(ii) E [g1 (Y ) + g2 (X) /X = x] = g2 (x) E [g1 (Y ) /X = x]

A.5.7. Función Generadora de Momentos Conjunta y Mo-


mentos

Definición A.23 (Momentos conjuntos). Los momentos conjuntos de X1 , ..., Xk


estan definidos por E [X1r1 X2r2 X3r3 ...Xkrk ] donde las ri′ s son cero o cualquier en-
tero positivo; los momentos conjuntos alrededor de las medias están definidos
por  r  r  r 
E X1 − µX1 1 X2 − µX2 2 ..... Xk − µXk k .

Observación. Si ri = rj = 1 y todas las demás rk = 0, entonces


 este momento
 
particular conjunto de Xi y Xj alrededor de sus medias es E Xi − µX1 Xj − µXj ,
que representa la covarianza entre Xi y Xj .

Definición A.24 (Función generadora de momentos conjuntos). La función


generadora de momentos conjunta de (X1 , X2 , ..., Xk ) está definida por
  
k 
mX1 ,X2 ,...,Xk (t1 , t2 , ..., tk ) = E exp tj Xj 
 
j=1

si la esperanza existe para todos los valores de t1 , t2 , ...., tk tales que −h < tj < h
para alguna h > 0, j = 1, 2, ...k. El r−ésimo momento de Xj podría obtenerse
de la función mX1 ,X2 ,...,Xk (t1 , t2 , ..., tk ) derivandola r veces con respecto a tj y

entonces
 r s tomando el límite cuando todas las t s se aproximan a cero. También
E Xi Xj se obtiene por derivar r veces con respecto a Xi y s veces con respecto
a Xj la función mX1 ,X2 ,...,Xk (t1 , t2 , ..., tk ).

21
Observación.

mX (t1 ) = mX,Y (t1 , 0) = lı́m mX,Y (t1 , t2 )


t2→0
y

mY (t2 ) = mX,Y (0, t2 ) = lı́m mX,Y (t1 , t2 )


t1→0

lo anterior quiere decir que las funciones generadoras de momentos marginales


pueden ser obtenidas a partir de la función generadora de momentos conjunta.

Independencia y Esperanza
Teorema A.12 Si X y Y son independientes y g1 (·) y g2 (· ) son dos funciones,
cada una de un solo argumento, entonces

E [g1 (X) g2 (Y )] = E [g1 (X)] · E [g2 (Y )] .

Corolario A.13 Si X y Y son independientes, entonces cov [X, Y ] = 0.

Definición A.25 (Variables aleatorias no correlacionadas). Dos variables aleato-


rias X y Y se definen como no correlacionadas si y solo si cov [X, Y ] = 0.

Teorema A.14 Si X y Y son independientes, entonces


1. V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X, Y )
2. V ar(X − Y ) = V ar(X) + V ar(Y ) − 2Cov(X, Y )
Nótese que Cov(X, X) = V ar(X).
Teorema A.15 Dos variables aleatorias conjuntamente distribuidas X y Y son
independientes si y sólo si mX,Y (t1 , t2 ) = mX (t1 ) mY (t2 ) para toda t1 , t2 para
las cuales −h < ti < h; i = 1, 2 y para alguna h > 0.

A.5.8. Coeficiente de correlación ρxy


Si X y Y son variables aleatorias, entonces se define el coeficiente de cor-
relación, denotado por ρxy , de la siguiente manera

Cov(X, Y )
ρxy = 
V ar(X)V ar(Y )
Se puede probar que −1 ≤ ρxy ≤ 1.

22
A.6. Resumen de familias paramétricas
A.6.1. Uniforme discreta
Definición: Se dice que X variable aleatoria discreta tiene distribución uni-
forme discreta en el conjunto {1, 2, . . . , N }, se denota X ∼ U nif (N ), si su
función de densidad está dada por
1
fX (x) = P (X = x) = I{1,2,...,N} (x)
N
PROPOSICIÓN: Si X ∼ U nif (N ), entonces:

(a) fX es efectivamente función de densidad


N+1
(b) E(X) = 2

(N+1)(2N+1)
(c) E(X 2 ) = 6

N 2 −1
(d) V ar(X) = 12

A.6.2. Bernoulli
Definición: Se dice que X variable aleatoria discreta tiene distribución
Bernoulli con parámetro p ∈ (0, 1), se denota X ∼ Bnlli(p) ó X ∼ Ber(p)
ó X ∼ Bernoulli(p), si su función de densidad de probabilidad está dada por

1 − p si x = 0

fX (x) = P (X = x) = p si x = 1 = px (1 − p)1−x I{0,1} (x)


0 e.o.c

PROPOSICIÓN: Si X ∼ Bnlli(p), entonces:

(a) fX es efectivamente función de densidad


(b) ∀n ∈ N+ E(X n ) = p. En particular E(X) = E(X 2 ) = p
(c) V ar(X) = p(1 − p)
(d) mX (t) = et p + (1 − p)

A.6.3. Binomial
Supóngase que se tienen n ensayos Bernoulli independientes cada uno con la
misma probabilidad de éxito p ∈ (0, 1). Sea X el número de éxitos en n ensayos
Bernoulli independientes. Nótese que
!
n x
P (X = x) = p (1 − p)n−x
x

23
Definición: Se dice que X variable aleatoria discreta tiene distribución bi-
nomial con parámetros n ∈ N+ y p ∈ (0, 1), se denota X ∼ Bin(n, p), si su
función de densidad de probabilidad está dada por
!
n x
fX (x) = P(X = x) = p (1 − p)n−x I{0,1,2,...,n} (x)
x
(se puede siempre fracasar ó siempre tener éxito)

PROPOSICIÓN: Si X ∼ Bin(n, p), entonces:


(a) fX es efectivamente función de densidad
n
(b) mX (t) = (et p + (1 − p))
(c) E(X) = np
(d) E(X 2 ) = n2 p2 − np2 + np
(e) V ar(X) = np(1 − p)

n x
PROPOSICIÓN: fX (x) = x p (1 − p)
n−x
es creciente si x < (n + 1)p y
es decreciente si x > (n + 1)p.

A.6.4. Poisson
Definición: Se dice que X variable aleatoria discreta tiene distribución Pois-
son con parámetro λ > 0, se denota X ∼ P oisson(λ), si su función de densidad
de probabilidad está dada por
e−λ λx
fX (x) = P(X = x) = I (x)
x! {0,1,2,...}
PROPOSICIÓN: Si X ∼ P oisson(λ), entonces:
(a) fX es efectivamente función de densidad
t
(b) mX (t) = e−λ(1−e )

(c) E(X) = λ
(d) E(X 2 ) = λ(λ + 1)
(e) V ar(X) = λ

PROPOSICIÓN (Relación entre la binomial y la Poisson): Consid-


érese una variable aleatoria X tal que X ∼ Bin(n, p). Sea λ = np. Si n → ∞,
entonces X ∼ P oisson(λ)

24
A.6.5. Geométrica
Supóngase que se tiene una sucesión infinita de ensayos Bernoulli independi-
entes, en donde la probabilidad de éxito de todos ellos es igual a p ∈ (0, 1). Sea
X el número de fracasos antes del primer éxito. Entonces P(X = x) = (1 − p)x p.

Definición: Se dice que X variable aleatoria discreta tiene distribución ge-


ométrica con parámetro p ∈ (0, 1), se denota X ∼ Geo(p), si su función de
densidad de probabilidad está dada por

fX (x) = P(X = x) = (1 − p)x pI{0,1,2,...} (x)

PROPOSICIÓN: Si X ∼ Geo(p), entonces:

(a) fX es efectivamente función de densidad


p
(b) mX (t) = 1−(1−p)et

1−p
(c) E(X) = p

1−p 2(1−p)2
(d) E(X 2 ) = p + p2

1−p
(e) V ar(X) = p2

A.6.6. Binomial Negativa


Supóngase que se tiene una sucesión infinita de ensayos Bernoulli independi-
entes, en donde la probabilidad de éxito de todos ellos es igual a p ∈ (0, 1). Sea
X el número de fracasos antes del r-ésimo éxito éxito. Entonces P(X = x) =
(1 − p)x pr .

Definición: Se dice que X variable aleatoria discreta tiene distribución bi-


nomial negativa con parámetros r ∈ N y p ∈ (0, 1), se denota X ∼ BinNeg(r, p),
si su función de densidad de probabilidad está dada por
!
r+x−1 r
fX (x) = P(X = x) = p (1 − p)x I{0,1,2,...} (x)
x

PROPOSICIÓN: Si X ∼ BinN eg(r, p), entonces:

(a) fX es efectivamente función de densidad


 r
p
(b) mX (t) = 1−(1−p)e t

r(1−p)
(c) E(X) = p

r(1−p)
(d) V ar(X) = p2

25
A.6.7. Hipergeométrica
Definición: Se dice que X variable aleatoria discreta tiene distribución
hipergeométrica con parámetros n, N, r ∈ N, se denota X ∼ HiperGeo(n, N, r),
si su función de densidad de probabilidad está dada por
 r N−r
x
fX (x) = P(X = x) = Nn−x
 I{0,1,...,min{n,r}} (x)
n

PROPOSICIÓN: Si X ∼ HiperGeo(n, N, r), entonces:

(a) fX es efectivamente función de densidad


rn
(b) E(X) = N
 
rn (n−1)(r−1)
(b) E(X 2 ) = N N−1 +1
 
rn (n−1)(r−1) rn
(c) V ar(X) = N N−1 +1− N

A.6.8. Logarítmica
Definición: Se dice que X variable aleatoria discreta tiene distribución loga-
rítmica con parámetro p ∈ (0, 1), se denota X ∼ Lg(p), si su función de densidad
de probabilidad está dada por
1 px
fX (x) = P(X = x) = − I (x)
log(1 − p) x {1,2,...}

PROPOSICIÓN: Si X ∼ Lg(p), entonces:

(a) fX es efectivamente función de densidad


log(1−pet )
(b) mX (t) = log(1−p)

ap 1
(c) E(X) = log(1−p) ,
donde a := − log(1−p)
 
(d) V ar(X) = ap(1−ap) 1
(1−p)2 = µ 1−p − µ , donde µ = E(X)

A.6.9. Uniforme continua


Definición: Se dice que X variable aleatoria continua tiene distribución
uniforme continua en el intervalo (a, b), se denota X ∼ U nif (a, b), si su función
de densidad de probabilidad está dada por
1
fX (x) = I (x)
b − a (a,b)

PROPOSICIÓN: Si X ∼ U nif (a, b), entonces:

26
(a) fX es efectivamente función de densidad
1 bt
(b) mX (t) = t(b−a) (e − eat )
a+b
(c) E(X) = 2

a2 +ab+b2
(d) E2 (X) = 3

(b−a)2
(e) V ar(X) = 12

A.6.10. Exponencial
Definición: Se dice que X variable aleatoria continua tiene distribución
exponencial con parámetro λ ∈ R+ , se denota X ∼ exp(λ), si su función de
densidad de probabilidad está dada por

fX (x) = λe−λx I(0,∞) (x)

PROPOSICIÓN: Si X ∼ exp(λ), entonces:

(a) fX es efectivamente función de densidad


λ
(b) mX (t) = λ−t , t<λ
1
(c) E(X) = λ
λ+1
(d) E(X 2 ) = λ2
1
(e) V ar(X) = λ2

A.6.11. Distribución Gamma


Se define la función gamma, Γ(·), de la siguiente manera
 ∞
Γ(t) = xt−1 e−x dx
0

La función gamma satisface algunas propiedades:

(i) Γ(n + 1) = nΓ(n + 1) con n ∈ R+ . En particular si n ∈ Z+ , entonces


Γ(n + 1) = n!
π
(ii) Γ(p)Γ(1−p) = sen(pπ) con p ∈ (0, 1). En particular con p = 12 , Γ( 12 )Γ( 12 ) =
π 1 2 1 √
sen( π ) = π, es decir (Γ( 2 )) = π ⇒ Γ( 2 ) =
2
π

π(n−1)
(iii) Para n impar, Γ( n2 ) = 2n−1 ( n−1
2 )!

∞ Γ(α)
(iv) 0
xα−1 e−λx dx = λx

27
n→∞ √
(v) Forma asintótica de Stirling Γ(n + 1) −→ 2πnnn e−n , en particular
n→∞ √
n! −→ 2πnnn e−n
∞
(vi) Γ(2) = Γ(1) = 0 e−x dx = 1
Definición: Se dice que X variable aleatoria continua tiene distribución
gamma con parámetros r > 0 y λ > 0, se denota X ∼ Gamma(r, λ), si su
función de densidad está dada por
λr r−1 −λx
fX (x) = x e I(0,∞) (x)
Γ(r)
PROPOSICIÓN: Si X ∼ Gamma(r, λ), entonces:
(a) fX es efectivamente función de densidad
 r
λ
(b) mX (t) = λ−t si t < λ
r
(c) E(X) = λ
r(r+1)
(d) E(X 2 ) = λ2
r
(e) V ar(X) = λ2

Definición: Se dice que X variable aleatoria continua tiene distribución gam-


ma generalizada con parámetros a > 0, p > 0 y σ > 0, se denota X ∼
GammaG(a, p, σ), si su función de densidad está dada por
a a
fX (x) = ap xap−1 e−(x/σ) I(0,∞) (x)
σ Γ(p)

A.6.12. Ji-cuadrada
Definición: Se dice que X variable aleatoria continua tiene distribución Ji-
cuadrada con k grados de libertad si X ∼ Gamma(k/2, 1/2), se denota X ∼
χ2(k) , i.e. si su función de densidad está dada por

( 12 )k/2 k −1 −x/2
fX (x) = x2 e I(0,∞) (x)
Γ(k/2)
PROPOSICIÓN: Si X ∼ χ2(k) , entonces:

(a) fX es efectivamente función de densidad


 k/2
1
(b) mX (t) = 1−2t

(c) E(X) = k
(d) E(X 2 ) = k(k + 2)
(e) V ar(X) = 2k

28
A.6.13. Distribución Beta
Definición: Se dice que X variable aleatoria continua tiene distribución
beta con parámetros α > 0 y β > 0, se denota X ∼ Beta(α, β), si su función de
densidad está dada por
1
fX (x) = xα−1 (1 − x)β−1 I(0,1) (x)
B(α, β)
1
donde B(u, v) = 0
tu−1 (1 − t)v−1 dt es conocida como la función Beta.

Existe una relación entre las funciones beta y gamma:


Γ(α)Γ(β)
B(α, β) =
Γ(α + β)
PROPOSICIÓN: Si X ∼ Beta(α, β), entonces:
(a) fX es efectivamente función de densidad
α
(b) E(X) = α+β

α(α+1)
(c) E(X 2 ) = (α+β+1)(α+β)

αβ
(d) V ar(X) = (α+β)2 (α+β+1)

Γ(α+r)Γ(α+β)
(e) E(X r ) = Γ(α)Γ(α+β+r)

NOTA: No existe forma analítica para la función generadora de momentos para


una variable aleatoria con distribución Beta.

A.6.14. Normal
Definición: Se dice que X variable aleatoria continua tiene distribución
normal con parámetros µ ∈ R y σ 2 > 0, se denota X ∼ N (µ, σ2 ), si su función
de densidad está dada por
" #
1 1
fX (x) = √ exp − 2 (x − µ)2 IR (x)
2πσ 2 2σ
PROPOSICIÓN: Si X ∼ N (µ, σ2 ), entonces:
(a) fX es efectivamente función de densidad
(b) E(X) = µ
(c) E(X 2 ) = σ 2 + µ2
(d) V ar(X) = σ 2
 
(e) mX (t) = exp µt + 12 t2 σ2

29
A.6.15. t de Student
Definición: Se dice que X variable aleatoria continua tiene distribución t
de Student con k grados de libertad, se denota X ∼ N (µ, σ2 ), si su función de
densidad está dada por
Γ( k+1
2 ) 1 1
fX (x) = √  k+1 IR (x)
k
Γ( 2 ) kπ 1 + x2  2
k

A.6.16. F de Fisher
Definición: Se dice que X variable aleatoria continua tiene distribución F
de Fisher con parámetros m, n > 0, se denota X ∼ F (m, n), si su función de
densidad está dada por
Γ( m+n  m m/2 m−2
2 ) x 2
fX (x) =   m+n IR (x)
Γ( m n
2 )Γ( 2 ) n 1 + (m
n )x
2

A.6.17. Log-normal
Definición: Se dice que X variable aleatoria continua tiene distribución log-
normal con parámetros µ ∈ R y σ 2 ∈ R+ , se denota X ∼ LgN (µ, σ 2 ), si su
función de densidad está dada por
$ % !2 &'
1 1 log(x) − µ
fX (x) = √ exp − I(0,∞) (x)
x 2πσ 2 2 σ

PROPOSICIÓN: Si X ∼ LgN (µ, σ 2 ), entonces:


(a) fX es efectivamente función de densidad
 2

(b) E(X) = exp µ + σ2
 
(c) E(X 2 ) = exp 2(µ + σ2 )
(d) V ar(X) = exp(2µ + σ2 )[exp(σ2 ) − 1]
r2 σ2
(e) E(X r ) = exp(rµ + 2 )

A.6.18. Logística
Definición: Se dice que X variable aleatoria continua tiene distribución
logística con parámetros µ ∈ R y σ ∈ R+ , se denota X ∼ Logistic(µ, σ), si su
función de densidad está dada por
e−(x−µ)/σ
fX (x) = IR (x)
σ(e−(x−µ)/σ )2

PROPOSICIÓN: Si X ∼ Logistic(µ, σ), entonces:

30
(a) fX es efectivamente función de densidad
(b) E(X) = µ
πσ 2
(c) E(X 2 ) = µ2 + 3

πσ 2
(d) V ar(X) = 3

A.6.19. Log-logística
Definición: Se dice que X variable aleatoria continua tiene distribución log-
logística con parámetros α, λ ∈ R+ , se denota X ∼ log − Logistic(α, λ), si su
función de densidad está dada por

λα(λt)α−1
fX (x) = I (x)
(1 + (λt)α )2 (0,∞)

PROPOSICIÓN: Si X ∼ log−Logistic(α, λ), entonces Ln(X) ∼ Logistic(µ =


−Ln(λ), σ = 1/α)

A.6.20. Distribuciones de Pareto


Definición: Se dice que X variable aleatoria continua tiene distribución
clásica de Pareto con parámetros α, σ ∈ R+ , se denota X ∼ P aI(α, σ), si su
función de densidad está dada por
ασα
fX (x) = I (x)
xα+1 [σ,∞)

PROPOSICIÓN: Si X ∼ P aI(α, σ), entonces:

(a) fX es efectivamente función de densidad


ασ
(b) E(X) = α−1 , α>1
ασ r
(c) E(X r ) = α−r , α>r
ασ 2
(d) V ar(X) = α(α−1)2 (α−2) , α>2

Definición: Se dice que X variable aleatoria continua tiene distribución Pareto


tipo II con parámetros α, σ ∈ R+ , se denota X ∼ P aII(α, σ), si su función de
densidad está dada por
α 1
fX (x) = I (x)
σ (1 + σx )α+1 (0,∞)

PROPOSICIÓN: Si X ∼ P aII(α, σ), entonces:

31
(a) fX es efectivamente función de densidad
σ
(b) E(X) = α−1 , α>1
Γ(α−r)Γ(r+1)σ r
(c) E(X r ) = Γ(α) , α>r
ασ 2
(d) V ar(X) = α(α−1)2 (α−2) , α>2

PROPOSICIÓN: Si X ∼ P aII(α, σ), entonces X − σ ∼ P aII(α, σ)


1
PROPOSICIÓN: Si X ∼ Beta(α, 1), entonces X ∼ P aI(α, 1)

Definición: Se dice que X variable aleatoria continua tiene distribución Pareto


generalizada con parámetros k, σ ∈ R+ , se denota X ∼ GP a(k, σ), si su función
de densidad está dada por
! 1
1 kx k−1
fX (x) = 1− I(0,∞) (x)
σ σ

PROPOSICIÓN: Si X ∼∼ GP a(k, σ), entonces:


(a) fX es efectivamente función de densidad
 r 
(b) E 1 − kX σ
1
= 1+rk
σ
(c) E(X) = 1+k

σ2
(d) V ar(X) = (1+k)2 (1+2k) , α>2

A.6.21. Inversa Gaussiana


Definición: Se dice que X variable aleatoria continua tiene distribución
inversa Gaussiana con parámetros µ, λ ∈ R+ , se denota X ∼ IG(µ, λ), si su
función de densidad está dada por
( " #
λ λ 2
fX (x) = exp − 2 (x − µ) I(0,∞) (x)
2πx3 2µ x

PROPOSICIÓN: Si X ∼ IG(µ, λ), entonces:


(a) fX es efectivamente función de densidad
(b) E(X) = µ
(c) E(X 2 ) = µ2 (1 + µλ )
µ3
(d) V ar(X) = λ
 ) !
λ 2µ2 t
(e) mX (t) = exp µ 1− 1− λ

32
A.6.22. Gompertz
La siguiente distribución la propuso Benjamin Gompertz para ajustar tablas
de mortalidad.

Definición: Se dice que X variable aleatoria continua tiene distribución


Gompertz con parámetros b, c ∈ R+ , se denota X ∼ Gom(b, c), si su función de
densidad está dada por
" #
cx b cx
fX (x) = be exp − (e − 1) I(0,∞) (x)
c

A.6.23. Makeham
Definición: Se dice que X variable aleatoria continua tiene distribución
Makeham con parámetros a, b, c ∈ R+ , se denota X ∼ Mak(a, b, c), si su función
de densidad está dada por
" #
cx b cx
fX (x) = (a + be )exp −ax − (e − 1) I(0,∞) (x)
c

A.6.24. Distribuciones de Benktander


Las distribuciones de Benktander (Benktander & Segerdahl (1960), Benk-
tander (1960)) surgen con la idea de encontrar una distribución cuya vida resid-
ual media se encuentre entre las vidas residuales medias de las distribuciones
exponencial y de Pareto.

Definición: Se definen las distribuciones de Benktander como,


(I) Benktander tipo I (a > 0, b ∈ (0, 1], σ > 0)
$
1 − ( σx )−(1−b) exp[− ab (xb − σ b )] si x ≥ σ;
F (x) =
0 si x < σ

(II) Benktander tipo II (a > 0, b ≥ 0, σ > 0)


$ a+2b log(x) x −a−1
1 − a+2b log(σ) ( σ ) exp[−b(log2 (x) − log2 (σ))] si x ≥ σ;
F (x) =
0 si x < σ

PROPOSICIÓN: Si X tiene una distribución Benktander tipo I, entonces


(1 + a + 2b log(σ))σ
E(X) =
a + 2b log(σ)
PROPOSICIÓN: Si X tiene una distribución Benktander tipo II, entonces
!
1
E(X) = σ 1 + b

33
A.6.25. Gumbel
Definición: Se dice que X variable aleatoria continua tiene distribución
Gumbel con parámetros µ ∈ R, σ > 0, se denota X ∼ Gum(µ, σ), si su función
de densidad está dada por
1 x−µ x−µ
fX (x) = exp(− )exp[−exp(− )]IR (x)
σ σ σ
PROPOSICIÓN: Si X ∼ Gum(µ, σ), entonces:
(a) fX es efectivamente función de densidad
(b) E(X) = µ − σψ(1)
π
(c) E(X 2 ) = µ2 + 6σ 2 − 2σψ(1) + (ψ(1))2
π
(d) V ar(X) = 6σ 2

A.6.26. Weibull
Definición: Se dice que X variable aleatoria continua tiene distribución
Weibull con parámetros µ ∈ R, σ > 0, α > 0, se denota X ∼ W ei(σ, α, µ), si su
función de densidad está dada por
 
α α−1 x−µ α
fX (x) = α (x − µ) exp −( ) I(µ,∞) (x)
σ σ
PROPOSICIÓN: Si X ∼ W ei(σ, α, µ), entonces:
(a) fX es efectivamente función de densidad
(b) E(X) = µ + σΓ(1 + α1 )
(c) E(X 2 ) = µ2 + 2σµΓ(1 + α1 ) + σ 2 Γ(1 + α2 )
(d) V ar(X) = σ 2 [Γ(1 + α2 ) − Γ2 (1 + α1 )]

A.6.27. Fréchet
Definición: Se dice que X variable aleatoria continua tiene distribución
Fréchet con parámetros µ ∈ R, σ > 0, α > 0, se denota X ∼ F rechet(σ, α, µ), si
su función de densidad está dada por
 !α 
α −α−1 σ
fX (x) = ασ (x − µ) exp − I(µ,∞) (x)
x−µ
PROPOSICIÓN: Si X ∼ F rechet(σ, α, µ), entonces:
(a) fX es efectivamente función de densidad
(b) E(X) = µ + σΓ(1 − α1 )
(c) E(X 2 ) = µ2 + 2σµΓ(1 − α1 ) + σ 2 Γ(1 − α2 )
(d) V ar(X) = σ 2 [Γ(1 − α2 ) − Γ2 (1 − α1 )]

34
A.7. Suma de variables aleatorias independientes
Considérense X1 , . . . , Xn variables aleatorias independientes con f.d.p. fXi (xi ).
n

Se desea determinar como se distribuye Y = X1 +· · ·+Xn = Xj . Se utilizará
j=1
la función generadora de momentos para esto

 
mY (t) = E etY
  
n

= E exp t Xj 
j=1
 
= E etX1 +···+tXn
 
= E etX1 · · · · · etXn
   
= E etX1 · · · · · E etXn
= mX1 (t) · · · · · mXn (t)

n
= mXj (t)
j=1

∴ mY (t) = mXj (t)


j=1

Y si además X1 , . . . , Xn son identicamente distribuidas, entonces

mnj=1 Xj (t) = (mX1 (t))n

35

Anda mungkin juga menyukai