Anda di halaman 1dari 25

Captulo 3

Distribuciones de Familias comunes


Distribuciones estadsticas son usadas para modelar poblaciones. Nosotros usualmente
trataremos con familias de distribuciones, en vez de con una simple distribucion. Esas familias son indexadas por uno o mas parametros, lo cual nos permite variar ciertas caractersticas
de la distribucion. Por ejemplo, podemos especificar que la distribucion Normal es una eleccion de un modelo razonable para una poblacion particular, pero no podemos especificar
precisamente la media; entonces trataremos con una familia parametrica, la normal con
media , donde este es un parametro no especificado < < .

En este captulo seran catalogadas algunas de las muchas distribuciones estadsticas,


algunas de las cuales ya hemos tratado previamente. Para cada una de las distribuciones
que describamos, daremos su media y su varianza, y algunas otras descripciones adicionales
o medidas que pudieran agregar comprension. Tambien se indicara alguna aplicacion tpica
de esas distribuciones, e interrelaciones adicionales.

3.1.

Distribuciones discretas

Una va. X se dice tiene una distribucion discreta, si su rango; e.d. el espacio muestral es
numerable. En la mayora de las situaciones, la va. es entero-positiva valuada.

75

Probabilidad y Estadstica

3.1.1.

Distribuci
on uniforme discreta

Una va. X tiene distribucion uniforme discreta (1, N ), si


P (X = x | N ) =

1
,
N

x = 1, 2, . . . , N

(3.1)

donde N es un entero especificado. Esta distribucion pone igual masa sobre cada uno de los
resultados 1, 2, . . . , N .

Una cuesti
on de Notaci
on Cuando estamos tratando con distribuciones parametricas, como sera en la mayora de los casos, la distribucion depende de los parametros. Con
la idea de enfatizar este hecho, y de mantener visibles los parametros, los escribiremos
en la fmp precedido por un |(dado). Esta misma convenci
on tambien sera usada con la
fdp, la fda, la esperanza, y otros casos donde pudiera ser necesario. Cuando no haya posibilidad de confusion, los parametros pueden ser omitidos para no desordenar tanto la notacion.

Calculemos ahora la media y la varianza de X. Entonces


EX =

N
X

xP (X = x | N ) =

x=1

N
X
x=1

1
1 N (N + 1)
N +1
=
=
N
N
2
2

y
2

EX =

N
X

x P (X = x | N ) =

x=1

N
X
x=1

x2

1
1 N (N + 1)(2N + 1)
(N + 1)(2N + 1)
=
=
N
N
2
2

y as,
V ar X = E X 2 (E X)2
=
=

(N + 1)(2N + 1) N + 1 2

2
2
(N + 1)(N 1)
.
2

Esta distribucion puede ser generalizada, a un espacio muestral en cualquier rango de enteros, N0 , N0 + 1, . . . , N1 , con fmp P (X = x | N0 , N1 ) = 1/(N1 N0 + 1).

3.1.2.

Distribuci
on Hipergeom
etrica

La distribucion hipergeometrica tiene muchas aplicaciones en muestreo de poblaciones


finitas. Es mejor para su comprension pensarla en el ejemplo clasico de un modelo de urna.
Probabilidad y Estadstica
Segundo Semestre 2005

76

Prof. Magister Osmar Vera

Probabilidad y Estadstica
Supongamos tenemos una urna con N bolillas iguales, salvo por el color, es decir, hay M
rojas y N M verdes. K de tales bolillas son seleccionadas aleatoriamente (se toman una
a una de la urna, sin regresarla a la misma; se trata de un caso de muestreo sin reemplazo).
Cual es la probabilidad que exactamente x de las bolillas sean rojas?.
El n
umero total de muestras de medida K que pueden ser seleccionadas de un total de
N
. Se requiere que x de tales bolillas sean rojas, lo cual puede ser realizado de
N es K
M
M N
formas,
dejando
,
x
Kx caminos para elegir las K x restantes que no son rojas. As
denotaremos por X la va. que mide el n
umero rojas en la muestra de tama
no K, entonces
X tiene distribuci
on hipergeometrica dada por
M N M
x

P (X = x | N, N, K) =

,
NKx

x = 0, 1, . . . , K.

(3.2)

Note que hay implcita en (3.2), un supuesto adicional sobre el rango de X. Los coeficientes

binomiales de la forma nr , han sido definidos solamente si n r, y as el rango de x
esta adicionalemente restringido por el siguiente par de inecuaciones
M x

N M K x,

las cuales pueden ser combinadas como


M (N K) x M.
En muchos casos K es peque
no comparado con N y M , as el rango 0 x K estara contenido en el rango u
ltimo anterior dado para x, y por lo tanto sera apropiado. La formula
para la funcion de probabilidad hipergeometrica es difcil de tratar. En efecto no es trivial
verificar que
K
X

P (X = x) =

x=0

K
X

M N M

x=0

NKx

= 1.

El caso de la distribucion hipergeometrica, ilustra la dificultad estadstica de tratar con


poblaciones finitas (finito N ).
La media de la distribucion hipergeometrica esta dada por

EX =

K
X
x=0

Probabilidad y Estadstica
Segundo Semestre 2005

M N M
x

NKx

77

K
X

M N M

x=1

.
NKx

Prof. Magister Osmar Vera

Probabilidad y Estadstica
(el sumando es 0 en x = 0). Para evaluar estas expresiones, usamos las siguientes identidades,

M
M 1
x
= M
,
x
x1

N
N N 1
=
,
K
K K 1
y obtener
EX =

K
X
M
x=1

M 1N M
x1
Kx

N N 1
K K1

K
KM X
=
N
x=1

M 1N M
x1
N 1Kx

K1

Es posible reconocer la segunda suma anterior como la suma de las probabilidades de otra
distribucion hipergeometrica basada en valores de parametros N 1, M 1, y K 1. Luego
esa suma vale 1. Finalmente se tiene que
EX =

KM
.
N

En forma similar, pero con mas labor, es posible establecer que

V ar X =

KM (N M )(N K)
.
N
N (N 1)

Ejemplo 3.1.1. La biblioteca de una escuela de estudiantes no graduados tiene 20 ejemplares de cierto tipo de texto de introducci
on a la economa, de los cuales 8 son primeras
impresiones y 12 son segundas impresiones (que contienen correcciones de algunos peque
nos
errores que aparecieron en la primera edici
on). El instructor del curso ha solicitado que 5
ejemplares sean puestos en reserva de 2 horas. Si los ejemplares se seleccionan en una
forma por completa al azar, de modo que cada subconjunto de tama
no 5 tenga la misma
probabilidad de ser seleccionado, cu
al es la probabilidad de que x (x = 0, 1, 2, 3, 4
o 5) de los
seleccionados sean segundas impresiones?
Ejemplo 3.1.2. Cinco ejemplares de una poblaci
on animal considerados en va de extinci
on
en cierta regi
on han sido atrapados, marcados y puestos en libertad para que se mezclen en la
poblaci
on. Despues de tener la oportunidad de mezclarse, se seleccion
o una muestra aleatoria
de 10 de estos animales. Sea X = n
umero de animales marcados de la segunda muestra .
Si hay en realidad 25 animales de este tipo en la regi
on. Cu
al es la probabilidad de que
(a) halla dos marcados en la muestra?
Probabilidad y Estadstica
Segundo Semestre 2005

78

Prof. Magister Osmar Vera

Probabilidad y Estadstica
(b) halla a lo sumo dos marcados en la muestra?
(c) Determine la media y la varianza de X.

3.1.3.

Distribuci
on Binomial

La distribucion binomial, una de las distribuciones discretas mas usadas, esta basada
sobre la idea de una ensayo de Bernoulli. Un ensayo de Bernoulli es un experimento con
dos, y solamente dos, resultados posibles. Una va. tiene una distribucion Bernoulli(p) si

1
con probabilidad p
X=
0 p 1.
(3.3)
0 con probabilidad 1 p
El valor X = 1 es a menudo tomado como un exito p se refiere a la probabilidad de que
2

ocurra el exito. El valor X = 0 es tomado como una falla.


Tambien es posible realizar la siguiente interpretacion de un ensayo de Bernoulli, si consideremos un evento A con probabilidad p, X = IA es una variable discreta con
P (X = 1) = p, P (X = 0) = 1 p. Calculemos con estas dos interpretaciones la media y la
varianza de esta va.
E X = E(IA ) = 1p + 0(1 p) = p,
V ar X = (1 p)2 p + (0 p)2 (1 p) = p(1 p).
Muchos experimentos pueden ser modelados por una secuencia de ensayos de Bernoulli,
tales como el lanzamiento de monedas, eleccion de candidatos polticos, incidencia de una
enfermedad, etc.
Si con n indicamos la cantidad de ensayos de Bernoulli que son realizados, definimos los
eventos
Ai = {X = 1 en el i-esimo ensayo},

i = 1, 2, . . . , n.

Si asumimos que los eventos A1 , A2 , . . . , An representan una coleccion de eventos independientes (como es el caso del lanzamiento de una moneda), es facil encontrar la distribucion
del n
umero total de exitos en n ensayos. Definamos la va. Y por
Y = n
umero total de exitos en n ensayos.
Probabilidad y Estadstica
Segundo Semestre 2005

79

Prof. Magister Osmar Vera

Probabilidad y Estadstica
El evento {Y = y} ocurrira solamente si, exactamente y de los eventos A1 , A2 , . . . , An
ocurren, y n y de ellos no ocurren. Un resultado particular de n ensayos (un particular
ordenamiento de ocurrencias y no-ocurrencias) de los n ensayos de Bernoulli podra ser
A1 A2 Ac3 . . . Acn1 An . Este tiene probabilidad de ocurrrencia
P (A1 A2 Ac3 . . . Acn1 An ) = pp(1 p) . . . . . . p(1 P )
= py (1 p)ny ,
donde nosotros hemos usado la independencia de los Ai s en este calculo. Note que el calculo
no depende sobre cuales de los Ai s ocurre, solamente que alg
un conjunto de y de ellos
ocurra. Poniendo todo esto junto, vemos que una secuencia particular de n ensayos con

exactamente y exitos tiene probabilidad py (1 p)ny de ocurrencia; ya que hay ny de tales
secuencias (el n
umero de ordenamientos de y unos y de (n y) ceros), se tiene

P (Y = y | n, p) =


n
y

e Y es llamada una variable aleatoria Bin(n,p). Y puede ser definida en forma equivalente del
siguiente modo: como una secuencia de n identicas, e independientes ensayos de Bernoulli,
cada una con exito p y fracaso 1 p, definiendo las variables X1 , X2 , . . . , Xn por

1
con probabilidad p
Xi =
0 con probabilidad 1 p

0 p 1.

Entonces la va.
Y =

n
X

Xi

i=1

tiene distribucion Bin(n, p). Analogamente, usando funciones indicadoras, Y podra escribirse como
Y =

n
X

IAi ,

i=1

y por lo tanto toda va. binomial se puede escribir como una suma de indicadoras.

Hemos ya obtenido tanto la esperanza, la varianza y la fgm para una va. binomial. Para
completar, afirmemos entonces que si X Bin(n, p) se tiene
Probabilidad y Estadstica
Segundo Semestre 2005

80

Prof. Magister Osmar Vera

Probabilidad y Estadstica

E X = np ,

V ar X = np(1 p) ,

y su fgm es
MX (t) = [pey + (1 p)]n .
Ejemplo 3.1.3. A cada una de seis personas que toman refresco cola, seleccionadas al azar,
se les da un vaso que contiene refresco de cola S y uno que contiene refresco de cola F. Los
vasos son identicos en apariencia excepto por un c
odigo que se encuentra en el fondo para
identificar la marca. Supongamos que en realidad no hay preferencia entre las personas que
beben refresco de cola para preferir entre una marca u otra.
(a) Determine la probabilidad de que exactamente tres prefieran la marca de cola S
(b) Determine la probabilidad de que por lo menos tres personas prefieran la marca de cola
S.
(c) Calcule la probabilidad de que a lo suma 1 prefiera la marca de cola S
(d) Calcule la E X, V ar X, X .
Ejemplo 3.1.4. Suponga que el 20 % de todos los ejemplares de un texto en particular fallan
en una prueba de resistencia a la encuadernaci
on. Si X es el n
umero entre 15 ejemplares
seleccionados al azar que fallan a la prueba.
(a) Que distribuci
on sigue X?
(b) Determine la probabilidad de que a lo sumo 8 fallen a la prueba
(c) Cu
al es la probabilidad de que exactamente 8 fallen a la prueba?, y la probabilidad
de que por lo menos 8 fallen a la prueba?
(d) Halle la probabilidad de que entre 4 y 7 fallen a la prueba.
(e) Determine la media y la varianza de X.
Ejemplo 3.1.5. Un fabricante de equipos electr
onicos argumenta que a los sumo el 10 % de
sus unidades de fuentes de alimentaci
on necesitan reparaci
on durante el perodo de garanta.
Probabilidad y Estadstica
Segundo Semestre 2005

81

Prof. Magister Osmar Vera

Probabilidad y Estadstica
Para investigar esto, tecnicos de un laboratorio de pruebas compran 20 unidades y las someten a pruebas aceleradas para simular su uso durante el perodo de garanta. Denotemos por
p la probabilidad de que una fuente de alimentaci
on necesita reparaci
on durante el perodo
(la proporci
on de todas las unidades que necesitan reparaci
on). Los tecnicos de laboratorio deben determinar si los datos resultantes del experimento apoyan el argumento de que
p 0,10.

3.1.4.

Distribuci
on de Poisson

La distribucion de Poisson es una distribucion discreta ampliamente aplicada, y puede


servir como un modelo de un n
umero diferente de experimentos. Por ejemplo, si estamos
modelando un fenomeno en el cual estamos esperando alguna ocurrencia (tales como esperando un omnibus, esperando que lleguen clientes a la ventanilla de un banco), el no
de ocurrencias en un intervalo de tiempo dado puede ser muchas veces modelado por la
distribucion de Poisson. Uno de los supuestos basicos sobre los cuales esta distribucion
se construye, es que, para peque
nos intervalos de tiempo, la probabilidad de un arribo es
proporcional a la medida del tiempo esperado. Esto lo hace un modelo razonable para situaciones como las que indicamos mas arriba. Por ejemplo, esto hace razonable asumir que en
un largo tiempo de espera, es mas probable que un cliente entre al banco.

Otro area de aplicacion es en distribuciones espaciales, donde, por ejemplo, la Poisson


puede ser empleada para modelar la distribucion del estallido de una bomba en un area, o
la distribucion de peces en un lago.
La distribucion de Poisson tiene solo un parametro, , algunas veces llamado parametro de
intensidad. Una va. X que toma valores enteros no negativos, tiene una distribuci
on Po()
si
P (X = x | ) =
Para ver que

x=0

e x
,
x!

x = 0, 1, . . . . . .

(3.4)

P (X = x | ) = 1, debemos ocupar la expansion en serie de Taylor de

ey ,
ey =

X
yi
.
y!
i=0

Probabilidad y Estadstica
Segundo Semestre 2005

82

Prof. Magister Osmar Vera

Probabilidad y Estadstica
As

P (X = x | ) = e

x=0

X
x
= e e = 1
x!
x=0

La media de X se puede ver facilmente, haciendo


EX =

e x
x!

e x
x!

x=0

X
x=1

= e
= e

X
x=1

X
y=0

x1
(x 1)!
y
y!

sustituyendo y = x 1

= .
Calculos similares mostraran que
V ar X = ,
As el parametro es el mismo tanto para la media como para la varianza de la distribucion
Poisson.
Tambien puede ser obtenida la fgm usando argumentos de calculos analogos, siendo

MX (t) = e(e

t 1)

Ejemplo 3.1.6. Si X es el n
umero de la fallas en la superficie de un calentador de cierto
tipo seleccionado al azar. Suponga que X tiene una distribuci
on de Poisson con = 5.
Determine:
(a) La probabilidad de que tenga exactamente dos fallas
(b) La probabilidad de que un calentador contenga un m
aximo de dos fallas
Ejemplo 3.1.7. Supongamos que llegan pulsos al contador con una tasa promedio de seis
por minuto, supongamos = 6. Para hallar la probabilidad de que en un intervalo de 0.5
min se reciba por lo menos un pulso, observe que el nro. de pulsos en tal intervalo tiene
una distribuci
on de Poisson con par
ametro = t = 6(0,5). Si X representa el n
umero de
pulsos recibidos en el intervalo de 30 segundos. Determine la probabilidad de que reciba m
as
de una llamada.
Probabilidad y Estadstica
Segundo Semestre 2005

83

Prof. Magister Osmar Vera

Probabilidad y Estadstica

3.1.5.

Distribuci
on Binomial Negativa

La distribucion Binomial cuenta el n


umero de exitos en un n
umero prefijado de ensayos
de Bernoulli. Supongamos que, en cambio, contamos el n
umero de ensayos de Bernoulli
requeridos para conseguir un n
umero prefijado de exitos. Esta u
ltima formulaci
on nos anticipa la distribucion binomial negativa.

En una secuencia de ensayos independientes de Bernoulli(p), sea la va. X, que denota el


ensayo para el cual el r-esimo exito ocurre, donde r es un entero prefijado. Entonces

x1 r
P (X = r | r, p) =
p (1 p)xr ,
r1

x = r, r + 1, . . .

(3.5)

y diremos que X tiene una distribuci


on binomial negativa (r,p).
La obtencion de (3.5) se sigue rapidamente de la distribucion binomial. El evento {X = x}
puede ocurrir solamente si hay exactamente r 1 exitos en los primeros x 1 ensayos, y
un exito en el ensayo x. La probabilidad de r 1 exitos en x 1 ensayos es la probabilidad
r1
binomial x1
(1 p)xr y con probabilidad p hay un exito en el ensayo x. Multiplir1 p
cando esas probabilidades se llega a la igualdad (3.5).

La distribucion binomial negativa es muchas veces definida en terminos de la va. Y =


n
umero de fracasos antes del r-esimo exito. Esta formulaci
on es estadsticamente equivalente a la dada antes en terminos de X = ensayos en los cuales el r-esimo exito ocurre,
en consecuencia Y = X r. Usando la relacion entre y y X, la forma alternativa para la
distribucion binomial negativa es

r+y+1 r
P (Y = y) =
p (1 p)y ,
y

y = 0, 1, . . . . . .

(3.6)

A menos que sea notado, cuando nos hagamos referencia a la distribucion binomial negativa(r, p)
usaremos la fmp (3.6).
La distribucion binomial negativa, tiene ese nombre de la relacion


r+y+1
(r)(r 1)(r 2) . . . (r y + 1)
y r
= (1)
= (1)y
,
y
y
y(y 1)(y 2) . . . 2,1
Probabilidad y Estadstica
Segundo Semestre 2005

84

Prof. Magister Osmar Vera

Probabilidad y Estadstica
la cual es, en efecto, la definicion para un coeficiente binomial con enteros negativos (ver
Feller (1968) para un tratamiento con mayor profundidad). Sustituyendo en (3.6), se obiene

y r
P (Y = y) = (1)
pr (1 p)y ,
y = 0, 1, . . . . . .
y
la cual muestra un parecido muy llamativo con la distribucion binomial.
P
El hecho que
acil de verificar, pero proviene de una extension
y=0 P (Y = y) = 1 no es f
del Teorema del Binomio, extension que incluye exponentes negativos. No expondre esto
aqu. Una excelente exposicion de este hecho lo puede encontrar en Feller (1968).
La media y la varianza de Y puede ser calculada usando tecnicas similares a las usadas para
la distribucion binomial:
EY

X
r+y+1 r
=
y
p (1 p)y
y
y=0

(r + y 1)!
pr (1 p)y
(y 1)!(r 1)!
y=1

X
r+y+1 r
=
r
p (1 p)y .
y1
=

y=1

Ahora escribimos z = y 1, y la suma se transforma en

X
r+z r
EY =
r
p (1 p)z+1
z
z=0


(1 p) X (r + 1) + z 1 r+1
p (1 p)z ,
= r
p
z
z=0

este u
ltimo sumando se corresponde con la fmp de una binomial negativa, de donde
EY =r

(1 p)
p

Un calculo similar mostrara que


V ar Y = r

(1 p)
.
p2

La familia de la distribucion binomial negativa incluye a la Poisson como un caso lmite. Si


r y p 1 tal que r(1 p) , 0 < < , entonces
EY
V ar Y

(1 p)
,
p
(1 p)
= r
,
p2

= r

lo cual se corresponde con la media y la varianza de la Poisson.


Probabilidad y Estadstica
Segundo Semestre 2005

85

Prof. Magister Osmar Vera

Probabilidad y Estadstica
Ejemplo 3.1.8. Un pediatra desea conseguir 5 parejas, cada una de las cuales espera
a su primer hijo, para que participen en un regimen de nacimiento natural. Sea p =
P (una pareja seleccionada al azar acceda a participar). Si p = 0,2, cu
al es la probabilidad de que se le pida a 15 parejas que participen antes de encontrar 5 que accedan?. Esto
es, si S={accede a participar}, cu
al es la probabilidad de que ocurran 10 fallas antes del
quinto exito?.

3.1.6.

Distribuci
on Geom
etrica

La distribucion geometrica es la mas simple de las distribuciones, y es un caso especial


de la distribucion binomial negativa. Si se hace r = 1 en (3.5) tenemos
P (X = x | p) = p(1 p)x1 ,

x = 1, 2, . . .

la cual define la fmp de una variable aleatoria X geometrica con probabilidad de exito p.
X puede ser interpretada como el ensayo para el cual el primer exito ocurre. As, diremos
P
esperando el primer exito. El hecho que
x=1 P (X = x) = 1 se sigue de la propiedad de
series geometricas. Para cualquier a tal que | a |< 1,

ax1 =

x=1

1
,
1a

la cual ya ha sido probada anteriormente.


La media y la varianza de X puede ser calculada usando las formulas de la binomial negativa
y escribiendo X = Y + 1 para obtener

E X = EY + 1 =

1
p

V ar X =

1p
.
p2

La distribucion geometrica tiene una propiedad interesante conocida como perdida de


memoria. Para enteros s > t, esto significa que
P (X > s | X > t) = P (X > s t);

(3.7)

Esto significa que la distribucion geometrica olvida lo que ha ocurrido.


Probabilidad y Estadstica
Segundo Semestre 2005

86

Prof. Magister Osmar Vera

Probabilidad y Estadstica

3.2.

Distribuciones Continuas

En esta seccion discutiremos algunas de las familias de distribuciones continuas mas comunes, aquellas que tienen nombres bien conocidos. Las distribuciones mencionadas aqu no
constituyen todas las distribuciones usadas en estadstica; pues ademas como vimos en secciones anteriores, cualquier funcion nonegativa, e integragrable puede ser transformada en
una fdp.

3.2.1.

Distribuci
on Uniforme

La distribucion uniforme continua esta definida de manera tal que se extiende masa
uniformemente sobre un intervalo [a, b]. Su fdp esta dada por

f (x | a, b) =

Es facil demostrar que

Rb
a

si x [a, b]

(3.8)

en otro caso

f (x) dx = 1. Tambien se tiene


Z

x
a+b
dx =
ba
2
a+b 2
(x 2 )
(b a)2
dx =
.
ba
12

EX =
a

V ar X =
a

3.2.2.

1
ba

Distribuci
on Gamma

La familia de distribuciones gamma es una familia flexible de distribuciones sobre [0, ].


Esta familia puede ser derivada por la siguiente construccion.

Sea una constante positiva, la integral


Z

t1 et dt

es finita. Si es un entero positivo la integral puede ser expresada en forma cerrada, en


otro caso no es posible. En cualquier caso, su valor define la funci
on gamma,
Z
() =

t1 et dt.

(3.9)

0
Probabilidad y Estadstica
Segundo Semestre 2005

87

Prof. Magister Osmar Vera

Probabilidad y Estadstica
La funcion gamma satisface muchas relaciones muy usadas, en particular
( + 1) = () ,

> 0,

(3.10)

la cual puede ser verificada utilizando integraci


on por partes. Combinando (3.9) y (3.10)
verificando el hecho que (1) = 1, se tiene para cualquier entero n > 0,
(n) = (n 1)!.
(Otro caso especial muy usado, que veremos en breve es: ( 12 ) =

(3.11)

.)

Las expresiones (3.10) y (3.11) dan relaciones recursivas para la funcion gamma, que
hacen mas facil su calculo.

Ya que la integral en (3.9) es positiva, inmediatamente se sigue que


f (t) =

t1 et
,
()

0<t<

(3.12)

es una fdp. La familia gamma completa, sin embargo, tiene dos parametros, y puede ser
derivada por cambio de variables para conseguir la fdp de la va. X = T en (3.12), donde
es una constante positiva. Al hacer esto, conseguimos la familia gamma(, ),
f (x) =

1
x1 ex/ , 0 < x < , > 0 , > 0.
()

(3.13)

El parametro es conocido como el parametro de forma, ya que es el que mas influencia


tiene en el pico de la distribucion, mientras que es llamado el parametro de escala, ya que
su influencia esta sobre la cuan abierta o cerrada es la distribucion.
Hemos ya probado que la media de la distribucion es
1
EX =
()

x, x1 ex/ dx.

(3.14)

Para evaluar (3.14), note que el integrando es el n


ucleo de una fdp gamma( + 1, ). De la
(3.13) sabemos que para , > 0,
Z

x1 ex/ dx = () ,

(3.15)

0
Probabilidad y Estadstica
Segundo Semestre 2005

88

Prof. Magister Osmar Vera

Probabilidad y Estadstica
as tenemos
EX =
=

1
()
()
()

x, x1 ex/ dx =

1
( + 1) +1
()

= .
Note que para evaluar la E X hemos usado la tecnica de reconocimiento de la integral como
el n
ucleo de una fdp. Este hecho ya fue utilizado en m
ultiples oportunidades.

La varianza de la distribucion gamma(, ) se calcula de manera analoga. En particular,


en el calculo de E X 2 nos manejamos con el n
ucleo de una distribucion gamma( + 2, ).
El resultado es
V ar X = 2

. En un ejemplo anterior hemos calculado la fgm de una distribucion gamma(, ). Esta


esta dada por

MX (t) =

1
.
1 t

Ejemplo 3.2.1. Existe una interesante relaci


on entre las distribuciones gamma y la Poisson. Si va. X es una gamma(, ), donde es un entero, entonces para cualquier x,
P (X x) = P (Y ),

(3.16)

donde Y Poisson(x/). La ecuaci


on (3.16) puede ser establecida por sucesivas integraciones por partes. Ya que es un entero, podemos escribir () = ( 1)! para conseguir
Z x
1
P (X x) =
t1 et/ dt
( + 1) 0
hh
ix Z x
i
1
(1)
/t
2
t/
=

t
+
(

1)t
e
dt
,
( + 1)
0
0
hemos usado la integraci
on por partes, sustituyendo u = t1 , dv = et/ dt. Continuando
con la evaluaci
on de la probabilidad, tenemos
P (X x) =
=

Z x
1
1
1 x/
x
e
+
t2 et/ dt
( 1)! 1
( 2)! 1 0
Z x
1
t2 et/ dt P (Y = 1),
( 2)! 1 0

donde Y Poisson(x/). Continuando de esta manera, es posible establecer (3.16).


Probabilidad y Estadstica
Segundo Semestre 2005

89

Prof. Magister Osmar Vera

Probabilidad y Estadstica
Hay dos importantes casos especiales de distribucion gamma. Si hacemos = p/2, donde
p es un entero, y = 2, entonces la fdp de la gamma resulta
f (x) =

1
x(p/2)1 ex/2 , 0 < x < ,
(p/2)2p/2

(3.17)

la cual es la fdp de la chi cuadrado con p grados de libertad. La media, la varianza, y la


fgm de la distribucion chi cuadrado pueden todas se calculadas usando las formulas gamma
derivadas previamente.
La distribucion chi cuadrado juega una papel importante en inferencia estadstica, especialmente cuando se muestrea de una distribucion normal. Esto sera estudiado con detalle mas
adelante.

Otro caso especial importante proveniente de la distribucion gamma se obtiene cuando


se reemplaza = 1. Ahora resulta,
f (x | ) =

1 x/
e
,

0 < x < ,

(3.18)

la fdp exponencial con parametro de escala . Su media y su varianza fueron calculadas en


ejemplos anteriores.
La distribucion exponencial puede ser usada para modelar tiempos de vida, analogo al uso
de la distribucion geometrica en el caso discreto.

Otra distribucion relacionada con la exponencial y con la familia gamma es la distribuci


on
Weibull. Si X Exp(), entonces Y = X 1/ tiene una distribucion Weibull(, ).
fY (y | , ) =

1 y /
y
e
,

0 < y < , > 0 , > 0.

(3.19)

La distribucion Weibull juega un rol extremadamente importante en el analisis de tiempo de


fracaso (ver Kalbfleidch and Prentice (1980)para un tratamiento de este topico). La Weibull
en particular es muy usada para modelar funciones de riesgo.

3.2.3.

Distribuci
on Normal

La distribucion Normal (muchas veces llamada Distribuci


on gaussiana juega un rol central a lo largo de toda la estadstica. Existen tres grandes razones para ello. Primero, la
Probabilidad y Estadstica
Segundo Semestre 2005

90

Prof. Magister Osmar Vera

Probabilidad y Estadstica
distribucion Normal y las distribuciones asociadas con ella, son muy tratables analticamente (aunque no lo parezca con una primera mirada). Segundo, la distribucion normal
tiene una forma de campana familiar, cuya simetra la hace elegible para modelar un sin
fin de poblaciones. Aunque hay muchas otras distribuciones que tienen forma de campana,
pero no poseen la tratabiliad analtica de la normal. Tercero, existe el Teorema Central del
Lmite (mas adelante se vera con detalle) el cual muestra que bajo algunas condiciones, la
distribucion normal puede ser usada para aproximar una gran variedad de distribuciones
en grandes muestras.
La distribucion normal tiene dos parametros, usualmente anotados por y 2 , las cuales
son su media y su varianza. La fdp de la distribuci
on Normal con media y varianza 2
(usualmente anotada N (; 2 )) esta dada por,
1
2
2
e(x) /(2 ) , < x < .
f (x | , 2 ) =
2

(3.20)

Si X N (; 2 ), entonces la va. Z = (X )/ tiene distribucion N (0, 1), tambien conocida


como Normal est
andar. Esto se establece facilmente escribiendo

P (Z z) = P X )/ z
= P (X z + )
Z z+
1
2
2
=
e(x) /(2 ) dx
2
Z z
x
1
2
et /2 dt,
(sustituyendo t =
=
)

2
mostrando que P (Z z) es la fda de la normal estandar.
Lo u
ltimo anterior muestra que todas las probabilidades normales puedes ser calculadas
en terminos de la normal estandar. Ademas, el calculo de la media puede ser simplificado,
calculandolo para la N (0, 1), y luego transformando para el caso de N (, 2 ). Por ejemplo,
si Z N (0, 1),
1
EZ =
2

zez

2 /2

1
2
dz = ez /2 |
= 0
2

y as, si X N (, 2 ), se sigue que


E X = E( + z) = + E Z = .
Probabilidad y Estadstica
Segundo Semestre 2005

91

Prof. Magister Osmar Vera

Probabilidad y Estadstica
En forma analoga, se tiene que V ar Z = 1, y se prueba que V ar X = 2 .

Ya hemos probado que (3.20) integra 1 sobre la recta real, o sea vimos, via integral doble
que
1

ez

2 /2

dz = 1.

Note que esta integral es simetrica alrededor del 0, lo cual implica que la integral sobre
(, 0) es igual a la integral sobre (0, ). As el problema se reduca a probar
Z

Dijimos que la funcion ez

2 /2

z 2 /2

r
2

dz =
=
.
2
2

(3.21)

no tiene una antiderivada que puede ser escrita explcitamente

en terminos de funciones elementales (esto es, en forma cerrada), por ello, no podemos
resolver la integral en forma directa. Se resuelve va una integral doble
La integral (3.21) esta relacionada con la funcion gamma; en efecto haciendo la sustitucion
w = 21 z 2 en (3.21) nosotros vemos que esta integral es ( 12 ). Si se es cuidadoso al conseguir
las constantes correctas ,nosotros vemos que la sustitucion propuesta implica
1 Z

=
w1/2 ew dw = .
2
0

(3.22)

La distribucion normal es un poco especial en el sentido, que sus dos parametros, (la
media) y 2 (la varianza), nos proveen una completa informacion exacta acerca de la forma
y la ubicacion de la distribucion. Esta propiedad que tiene la distribucion normal, no es solo
para esta fdp, pero esta formada por una familia de fdps llamadas familias de localizacion
y escala.
Basta con resolver un elemental problema de calculo para mostrar que la fdp normal (3.20)
tiene un maximo en x = y puntos de inflexion (donde la curva cambia de concava a
convexa) en x = . Ademas la probabilidad contenida entre 1,2 o 3 desviaciones estandar
de la media es
P (| X | ) = P (| Z | 1) = 0,6826
P (| X | 2) = P (| Z | 2) = 0,9544
P (| X | 3) = P (| Z | 3) = 0,9947
Probabilidad y Estadstica
Segundo Semestre 2005

92

Prof. Magister Osmar Vera

Probabilidad y Estadstica
Donde X N (, 2 ), Z N (0, 1) , y los valores numericos provienen de una tabla de distribucion normal. A menudo valores de dos dgitos son reportados, aunque no representan
valores redondeados, se ocupan frecuentemente.

Entre los muchos usos de la distribucion Normal, uno de gran importancia es su uso como
aproximacion de otras distribuciones (los cuales son justificados por el Teorema central del
Lmite). Por ejemplo, si X Bin(n, p), entonces E X = np y V ar X = np(1 p), y bajo
condiciones convenientes, la distribucion de X puede ser aproximada con una va. normal
con media = np y varianza 2 = np(1 p). Las condiciones convenientesson que n debe
ser grande y p no debe ser un valor extremo (ni estar cerca del 0, ni cerca del 1). Como es el
caso de todas las aproximaciones no hay reglas absolutas, y para cada aplicacion debe ser
chequeada para decidir si la aproximaci
on es buena para ese caso. Una regla conservativa
que se sigue es que la aproximaci
on sera buena si min(np, n(1 p)) 5.

Ejemplo 3.2.2. Sea X Bin(25, 0,6). Aproximar X con una va. Y normal, y calcule la
probabilidad de que X tome valores menores
o iguales que 13, y compare con el valor exacto.
La aproximacion puede ser grandemente mejorada, por una correcci
on por continuidad.
Se describira un metodo estandar para mejorar la calidad de la aproximaci
on que se obtiene
cuando se aproxima una probabilidad basada en una distribucion discreta por una basada
en una distribucion continua.
Supongase, que la va. X tiene una distribucion discreta con fmp f (x) y se desea aproximar
esta distribucion por una distribucion continua con fdp g(x). Consideremos por simplicidad
solamente una distribucion discreta para la que todos los valores posibles de X sean enteros.
Si la fdp g(x) proporciona una buena aproximaci
on a la distribucion de X, entonces para
cualquier par de enteros a, b se puede aproximar simplemente la probabilidad
P (a X b) =

b
X

f (x)

(3.23)

x=a

por la integral

g(x) dx.

(3.24)

a
Probabilidad y Estadstica
Segundo Semestre 2005

93

Prof. Magister Osmar Vera

Probabilidad y Estadstica
Esta sencilla aproximacion tiene el siguiente inconveniente: aunque P (X a) y P (X > a)
en general tendran valores distintos para la distribucion discreta, estas probabilidades seran
siempre iguales para la distribucion continua. Otra forma de expresar este inconveniente es
la siguiente: aunque P (X = x) > 0 para cualquier x entero que es un valor posible de X,
esta probabilidad es necesariamente 0 con la fdp aproximada.
La fmp de X se puede representar por un histograma,
o diagrama de barras. Para cada
entero x, la probabilidad de que x se representa por el area de un rectangulo cuya base se
extiende desde x

1
2

hasta x +

1
2

y cuya altura es f (x). Entonces, el area del rectangulo

cuya base esta centrada en el entero x es simplemente f (x).


Desde este punto de vista se puede observar que P (a X b), como se especifica en
la ecuacion (3.23), es la suma de la areas de los rectangulos formados por las barras que
representan la distribucion discreta que estan centrados en a, a + 1, . . . , b. La suma de estas
areas se aproxima con la integral
Z

b+ 21

a 12

g(x) dx.

(3.25)

el ajuste la integral (3.24) a la integral (3.25) se llama correcci


on por continuidad.
Si se utiliza la correccion por continuidad se determina que la probabilidad f (a) del entero
a se puede aproximar como sigue,

1
1
P (X = a) = P a X a +
2
2
Z a+ 1
2

g(x) dx.

(3.26)
(3.27)

a 12

Analogamente,

1
P (X > a) = P (X a + 1) = P X a +
2
Z

g(x) dx.
a+ 12

Ejemplo 3.2.3. Continuaci


on ejemplo u
ltimo anterior Determinar usando la correcci
on por continuidad P (X 13) y comparar todas las aproximaciones hechas sobre esta
probabilidad.
Probabilidad y Estadstica
Segundo Semestre 2005

94

Prof. Magister Osmar Vera

Probabilidad y Estadstica

3.2.4.

Distribuci
on Beta

La familia de distribuciones beta es una familia continua sobre (0, 1) indexada por dos
parametros. La fdp de la beta(, ) es
f (x | , ) =

1
x1 (1 x)1 , 0 < x < 1 > 0 > 0,
B(, )

(3.28)

donde B(, ) denota la funcion beta,


Z
B(, ) =

x1 (1 x)1 dx.

La funcion beta esta relacionada con la funcion gamma a traves de la siguientes identidad:
B(, ) =

()()
.
( + )

(3.29)

La (3.29) es muy usada al ocupar la funcion Beta, permitiendonos ciertas ventajas tomadas
de la funcio Gamma. En efecto, nunca trataremos directamente con la Beta, sino con (3.29)
para todas las evaluaciones que hagamos.
La distribucun Beta, es una de las pocas distribuciones, entre las mas conocidas que dan
probabilidad 1 sobre un intervalo finito, aqu el intervalo es el (0, 1). De esta manera, la
Beta es muy usada para modelas proporciones, las cuales, naturalmente caen entre 0 y 1.
Seran ilustradas algunas de estas situaciones en el captulo 4.
Calculemos los momentos para esta distribucion. Resolverlo es facil por la forma de la fdp.
Para n > se tiene
EX

=
=

Z 1
1
xn x1 (1 x)1 dx
B(, ) 0
Z 1
1
x(+n)1 (1 x)1 dx.
B(, ) 0

Reconocemos la integral como el n


ucleo de una densidad beta( + n, ), de donde
E Xn =

B( + n, )
( + n)( + )
=
.
B(, )
( + + n)()

(3.30)

Usando (3.10) y (3.30) con n = 1 y n = 2, podemos calcular la media y la varianza de la


distribucion beta(, ) como sigue
EX =
Probabilidad y Estadstica
Segundo Semestre 2005

V ar X =

95

( +

)2 (

+ + 1)

Prof. Magister Osmar Vera

Probabilidad y Estadstica
Como los valores de y varan, la distribucion beta toma diversas formas, estrictamente
decrece ( = 1, > 1), forma de U ( < 1, < 1) o es unimodal ( > 1, > 1). El
caso = la fdp es simetrica alrededor de 1/2 y varianza (4(2 + 1)1 ). La fdp se vuelve
mas concentrada cuando crece, pero sigue siendo simetrica. Finalmente, si = = 1,
la distribucion se reduce a una uniforme en (0,1), mostrando que la uniforme puede ser
considerada un miembro de la familia beta. La beta esta tambies relacionada, a traves de una
transformacion, con la distribucion F , una distribucion que juega un papel extremadamente
importante en analisis estadstico.

3.2.5.

Distribuci
on Cauchy

La distribuci
on Cauchy, es una distribucion simetrica y con forma de campana sobre
(, ) con fdp
f (x | ) =

1
1
, < x < , < < .
(x )2

(3.31)

A los ojos, en principio, no parece tener grandes diferencias con la normal. Sin embargo
existe una gran diferencia entre ambas. Ya hemos vista que la media de esta distribucion
no existe, o sea hemos probado que E | X |= . Es facil probar que la (3.31) es una fdp
para todo .
Ya que la E | X |= , se sigue que esta no existen momentos para la distribucion
Cauchy, o sea que el valor absoluto de todos los momentos es . En particular la fgm
no existe.E | X |= .
El parametro en no mide (3.31) el centro de la distribucion; sino que representa la mediana. De donde, se sique que si una va. X tiene distribucion Cauchy con parametro ,
entonces P (X ) = 21 , mostrando que es la mediana de la distribucion.

La distribucion Cauchy juega un rol especial en estadstica teorica. Ella representa, mas
bien un caso extremo contra conjeturas que pueden ser probadas; es decir en otras palabras
propiedades que todas las distribuciones cumplen en general no de dan para la Cauchy!!.
Diriamos que es un caso patologico. Por ejemplo es com
un en la practica calcular cocientes
de observaciones, esto es cocientes de va.. Una sorpresa es el hecho que el cociente de dos
Probabilidad y Estadstica
Segundo Semestre 2005

96

Prof. Magister Osmar Vera

Probabilidad y Estadstica
normales estandar tiene distribucion Cauchy; de donde el hecho de tomar cocientes nos
puede llevar a distribucines enfermas!!.

3.2.6.

Distribuci
on Lognormal

Si X es una va. cuyo logaritmo esta normalmente distribudo (esto es, logX N (, 2 ),
entonces se dice que X tiene una distribucion lognormal. La fdp de X puede ser obtenida por
una transformacion de la fdp Normal usando el teorema de las transformacines, obteniendose

1 1 (logx)2 /(22 )
f (x | , 2 ) =
e
, 0 < x < , < < , > 0
2 x

(3.32)

para la fdp de la lognormal. Los momentos de X pueden ser calculados directamete, usando
(3.32), o explotando su relacion con la normal.
E X = E elog X
Y = log X N (; 2 ))

= EY
= e+(

2 /2)

La u
ltima igualdad se obtiene reorganizando la fgm de la distribucion normal (tomar t = 1).
Es posible usar una tecnica similar para calcular E X 2 , y conseguir asi
2

V ar X = e2(+ ) e2+ .
La distribucion lognormal, es en apariencia similar a la distribucion gamma. Esta distribucion es muy com
un cuando se aplican modelos, donde interesa la asimetra a la derecha.

3.2.7.

Distribuci
on Doble Exponencial

La distribucion doble exponencial se forma reflejando la distribucion exponencial alrededor de su media. La fdp esta dada por
f (x | , ) =
Probabilidad y Estadstica
Segundo Semestre 2005

1 |x|/
e
, < x < , < < , > 0.
2

97

(3.33)

Prof. Magister Osmar Vera

Probabilidad y Estadstica
La doble exponencial provee una distribucion simetrica con colas pesadas (mucho mas pesadas que la Normal), pero tiene todos sus momentos. La esperanza y la varianza son muy
faciles de calcular, ellas son
EX =

V ar X = 2 2 .

La doble exponencial no tiene forma de campana. En efecto, tiene un pico (dicho de


manera mas formal, un punto de no diferenciabilidad) en x = . Es muy importante recordarlo al tratar con esta distribucion en forma analtica.

Existen muchas otras distribuciones continuas que tienen uso en diferentes aplicaciones
estadsticas, muchas de las cuales quizas apareceran a lo largo de estas notas. El material
bibliografico referente para las distribuciones usadas en estadstica, puede ser el trabajo de
Johnson y Kotz (1969,1970a,1970b).

3.3.

Familias Exponenciales

Una familia de fdp o de fmp se denomina familia exponencial, si puede ser expresada
como
f (x | ) = h(x)c() exp

k
X

wi ()ti (x) .

(3.34)

i=1

Aqu h(x) 0 y t1 (x), t2 (x), . . . , tk (x) son funciones real valoradas de las observaciones x
(o sea, ellas no pueden depender de ), c() > 0 y w1 (), w2 (), . . . , wk () son todas funciones
real valoradas positivas del parametro vector valuado (ellas no pueden depender de x).
Muchas de las familias introducidas en las secciones previas son familias exponenciales.
Ellas incluyen las familias continuas (normal, gamma, beta, etc.) y las familias discretas
(binomial, Poisson, binomial negativa, etc.)
La forma especfica (3.34) implica que las familias exponenciales tienen muchas propiedades
interesantes desde el punto de vista matematico. Pero a
un mas importante para un modelo
estadstico, esta forma (3.34) implica muchas propiedades estadsticas interesantes y de facil
deduccion a partir de la misma.
Para verificar que una familia de fpds o fmps es una familia exponencial, nosotros debemos
Probabilidad y Estadstica
Segundo Semestre 2005

98

Prof. Magister Osmar Vera

Probabilidad y Estadstica
identificar las funciones h(x), c(), wi (), ti (x) y mostrar que la familia tiene la forma (3.34).
Esto se ilustra en los siguientes dos ejemplos
Ejemplo 3.3.1. Mostrar que la familia bin(n,p), con n entero positivo, 0 < p < 1, es una
familia exponencial.
Ejemplo 3.3.2. Sea f (x | , 2 ) la familia de densidades N (, 2 ), donde = (, )
< x <

> 0. Mostrar que esta es una familia exponencial.

Probabilidad y Estadstica
Segundo Semestre 2005

99

Prof. Magister Osmar Vera

Anda mungkin juga menyukai