Anda di halaman 1dari 17

Características de Algunas Distribuciones Discretas de

Probabilidad
Luis Alejandro Másmela Caita.
Correo. lmasmela@udistrital.edu.co-lamasmelac@gmail.com
Universidad Distrital Francisco José de Caldas

Resumen
Se presentan a continuación algunas funciones de densidad de probabilidad de variables
aleatorias discretas, las demostraciones de que efectivamente estas funciones cumplen con las
condiciones para ser una funcion de densidad de probabilidad, se obtienen sus valores esperados,
su varianzas y sus funciones generadoras de momentos.

1. Introducción.
En cursos básicos de teoría de la probabilidad, un capítulo importante se re…ere a distribuciones
de probabilidad. Este capítulo hace mención básicamente a dos tipos de distribuciones de variables
aleatorias, estas son, variables aleatorias discretas y variables aleatorias continuas.
Una de las condiciones que requiere una función para que se denomine función de distribución
de probabilidad es, para el caso discreto, que la suma
P de esta función sobre todos los valores que
toma la variable aleatoria sea la unidad, esto es, x f (x) = 1: Para el caso de variables aleatorias
continuas se necesita que la función integre a uno.
Estas distribuciones son caracterizadas a partir de su media y varianza1 , así como también por
su función generadora de momentos2 . Dependiendo de la variable aleatoria de interés, la funcion
f (x) toma formas matemáticas distintas y la caracterización de la misma a partir de la media, la
varianza y la función generadora de momentos al depender de la función f (x) cambia.
En el presente documento se hace una recopilación de algunos ejemplos de distribuciones de
probabilidad discretas, de las deducciones de las expresiones para valor esperado y varianza, la
veri…cación de la condición que se menciona para que la función de…nida sea función de distribu-
ción de probabilidad y se obtiene, además, su función generadora de momentos. Se han tomado
como ejemplos las distribuciones discretas uniforme, binomial, hipergeométrica, binomial negativa,
geométrica y Poisson ya que son las distribuciones más comunes en un curso de probabilidad básica.

1 Si la variable aleatoria discreta X tiene por función de distribución la función f (x); su media o valor esperado
P P
se de…ne como = E(X) = x xf (x) y su varianza por 2 = V (X) = x (x )2 f (x):
2 De igual forma la función generadora de momentos se de…ne como M (t) = E(ext ); donde la notación E denota
X
valor esperado y e es el número de euler.

1
2. Distribución Uniforme.
Si la variable aleatoria X toma los valores x1 ; x2 ; :::; xk ; con idénticas probabilidades, entonces
a X se le denomina variable aleatoria uniforme discreta y su función de densidad de probabilidad
(f.d.p.) está dada por
1
u(x; k) = ; si x = x1 ; x2 ; :::; xk :
k
Se debe probar que
Xk
u(xi ; k) = 1;
i=1

así,
k
X Xk
1
u(xi ; k) =
i=1 i=1
k
1
= k
k
= 1:

2.1. Valor Esperado y Varianza.


Para la obtención de expresiones para la media y la varianza, se parte de sus de…niciones:
k
X
E(X) = xi u(xi ; k)
i=1
k
X 1
= xi
i=1
k
k
X
xi
i=1
= :
k
De igual forma, para la varianza
k
X 2
V (X) = (xi ) u(xi ; k)
i=1
k
1X 2
= (xi ) :
k i=1

2
2.2. Función Generadora de Momentos.
Partiendo de la de…nición de la función generadora de momentos y de la función de densidad de
probabilidad para una variable aleatoria con distribución uniforme se tiene,
k
X 1
MX (t) = E(ext ) = ejt
j=1
k
k
X
1 j 1
= et et
k j=1
t
e 1 ekt
= :
k 1 et

3. Distribución Binomial.
Para de…nir una variable aleatoria binomial, en primera instancia se describe lo que es un proceso
de Bernoulli.
Proceso de Bernoulli.
El proceso de Bernoulli tiene las siguientes propiedades:
1. El experimento consiste en n pruebas que se repiten.
2. Cada prueba produce un resultado que se puede clasi…car como éxito o fracaso.
3. La probabilidad de un éxito, que se denota con p, permanece constante en cada prueba.
4. Las pruebas que se repiten son independientes.
El número de éxitos en n experimentos de Bernoulli se denomina variable aleatoria binomial.
La distribución de probabilidad de esta variable aleatoria discreta se llama distribución binomial y
su f.d.p. esta dada por
n x
b(x; n; p) = p (1 p)n x
; si x = 0; 1; :::; n:
x
P
Para probar que b(x; n; p) = 1; se parte del teorema del binomio, si n es un entero positivo
entonces para todos los números a y b,
Xn
n i n i
(a + b)n = ab ;
i=0
i

de esta forma
n
X Xn
n x
b(x; n; p) = p (1 p)n x

x=0 x=0
x
n
= [p + (1 p)]
= 1:

3
3.1. Valor Esperado y Varianza.
Para obtener una expresión para la media de la variable aleatoria binomial, se parte de la
de…nición de media, esto es,
n
X
E(X) = xb(x; n; p)
x=0
Xn
n x
= x p (1 p)n x

x=1
x
Xn
n!
= x px (1 p)n x

x=1
x!(n x)!
n
X (n 1)!
= np px 1
(1 p)n x

x=1
(x 1)!(n x)!
Xn
n 1 x 1
= np p (1 p)n x

x=1
x 1

haciendo y = x 1 se tiene que


n
X1 n 1
E(X) = np py (1 p)n 1 y

y=0
y
n
X1
= np b(y; n 1; p)
y=0
= np
En cuanto a la varianza,
2
V (X) = E(X 2 ) [E(X)]
donde
E(X 2 ) = E [X(X 1)] + E(X)
así,
2
V (X) = E [X(X 1)] + E(X) [E(X)]
por tanto basta con calcular E [X(X 1)], así
n
X n!
E [X(X 1)] = x(x 1) px (1 p)n x

x=0
x!(n x)!
Xn
(n 2)!(n 1)n 2 x 2
= p p (1 p)n x

x=2
(x 2)!(n x)!
n
X (n 2)!
= (n 1)np2 px 2
(1 p)n x

x=2
(x 2)!(n x)!
Xn
n 2 x
= (n 1)np2 p 2
(1 p)n x

x=2
x 2

4
haiendo y = x 2 se tiene
n
X2 n 2
E [X(X 1)] = (n 1)np2 py (1 p)n 2 y

y=0
y
n
X2
= (n 1)np2 b(y; n 2; p)
y=0

= (n 1)np2 :

Con base en este resultado la expresión para la varianza es


2
V (X) = E [X(X 1)] + E(X) [E(X)]
= (n 1)np2 + np (np)2
= np(1 p):

3.2. Función Generadora de Momentos.


Para la distribución binomial, la función generadora de momentos se obtiene,
n
X n x
MX (t) = E(ext ) = ext p (1 p)n x

x=0
x
Xn
n x
= et p (1 p)n x

x=0
x
n
= et p + 1 p :

4. Distribución de Hipergeométrica.
La variable aleatoria discreta hipergeométrica X, mide el número de exitos en una muestra
aleatoria de tamaño n tomada de una población de N elementos de los que k se denominan éxito
y N K fracaso. Su f.d.p. esta dada por

k N k
x n x
h(x; N; n; k) = si x = 0; 1:::; m n fk; ng :
N
n

Para probar que


n
X
h(x; N; n; k) = 1
x=0

5
partiendo de la serie binomial3
X1
k k i
(1 + x) = x
i=0
i
se tiene
X1 X1 X1
a i b i a+b i
(1 + x)a = x; (1 + x)b = x; (1 + x)a+b = x
i=0
i i=0
i i=0
i
con base en estas expresiones
X1
a+b i
x = (1 + x)a+b
i=0
i
= (1 + x)a (1 + x)b
"1 #" 1 #
X a X b
= xi xi
i=0
i i=0
i
a a a 2 b b b 2
= + x+ x + + x+ x +
0 1 2 0 1 2
a b a b a b a b a b a b
= + + x+ + + x2 +
0 0 0 1 1 0 0 2 1 1 2 0
2 3
1
X Xi
4 a b 5 xi
=
i=0 j=0
j i j

luego
Xi
a+b a b
= :
i j=0
j i j
Con base en la anterior deducción se tiene que
k N k
n
X n
X x n x
h(x; N; n; k) =
N
x=0 x=0
n
Xn
1 k N k
=
N x n x
x=0
n
1 k+N k
=
N n
n
1 N
= =1
N n
n
3 En la sección correspondiente a la Distribución Binomial Negativa se presenta la obtención de esta expresión a

partir de series de Taylor.

6
4.1. Valor Esperado y Varianza.
Para el valor esperado de X se tiene

k N k
n
X x n x
E(X) = x
N
x=0
n
N k
n
X k! n x
= x
x! (k x)! N
x=1
n
N k
n
k X (k 1)! n x
= N
n x=1
(x 1)! (k x)! N 1
n 1
k 1 N k
n
nk X x 1 n x
=
N x=1 N 1
n 1

haciendo y = x 1 se tiene

k 1 N k
n
X1
nk y n 1 y
E(X) =
N N 1
y=0
n 1
n 1
nk X
= h(y; N 1; n 1; k 1)
N y=0
nk
=
N

Para la varianza
2
V (X) = E(X 2 ) [E(X)]
además
E(X 2 ) = E [X(X 1)] + E(X)

7
así,

k N k
n
X x n x
E [X(X 1)] = x(x 1)
N
x=0
n
k N k
n
X x n x
= x(x 1)
N
x=2
n
N k
n
k(k 1) X (k 2)! n x
= N (N 1) (x 2)! (k x)! N 2
n(n 1) x=2
n 2
k 2 N k
n
k(k 1)n(n 1) X x 2 n x
=
N (N 1) N 2
x=2
n 2

haciendo y = x 2 se tiene

k 2 N k
n
X2
k(k 1)n(n 1) y n 2 y
E [X(X 1)] =
N (N 1) N 2
y=0
n 2
n 2
k(k 1)n(n 1) X
= h(y; N 2; n 2; k 2)
N (N 1) y=0
k(k 1)n(n 1)
= :
N (N 1)

Con base en los resultados anteriores


2
V (X) = E(X 2 ) [E(X)]
2
= E [X(X 1)] + E(X) [E(X)]
2
k(k 1)n(n 1) nk nk
= +
N (N 1) N N

haciendo algunas simpli…caciones sobre la última expresión se tiene

N n k k
V (X) = n 1 :
N 1 N N

8
4.2. Función Generadora de Momentos.
Partiendo de la de…nición de la f.g.m. y de la densidad de una variable aleatoria hipergeométrica
se de…ne
k N k
Xn
x n x xt
Mx;n (t) = E(ext ) = e :
N
x=0
n
Utilizando nuevamente la expansión binomial, pero esta vez para exponentes enteros positivos se
tiene
Xk
k it i
(1 + yet )k = e y; (1)
i=0
i
y
N
Xk
N k N k
(1 + y) = yj : (2)
j=0
j

Multiplicando las series (1) y (2) se obtiene

k N k k N k k N k t
(1 + yet )k (1 + y)N k
= e0t y 0 + e0t + e y+
0 0 0 1 1 0
"n
# "N #
X k N k xt n X k N k xt N
+ + e y + + e y ;
x=0
x n x x=0
x N x

o equivalentemente
N
X N
(1 + yet )k (1 + y)N k
= Mx;n (t)y n : (3)
n=0
n
Derivando la ecuación en (3) n veces con respecto a y y haciendo y = 0 se obtiene una secuencia
de funciones generadoras de momentos para sucesivos valores de n;
@n N
(1 + yet )k (1 + y)N k
= n! Mx;n (t);
@y n y=0 n

reescribiendo la ecuación anterior se obtiene una expresión para la función generadora de momentos
de la distribución hipergeométrica,
(N n)! @ n
Mx;n (t) = (1 + yet )k (1 + y)N k
:
N! @y n y=0

5. Distribución Binomial Negativa.


La variable aleatoria binomial negativa X mide, bajo un proceso de Bernulli, el número de
ensayos que deben realizarse para obtener k exitos, en donde la probabilidad de exito es p. Su f.d.p.

9
esta dada por
x 1
k 1 pk (1 p)x k
si x = k; k + 1; :::
b (x; k; p) =
0 e.o.c.
P1
Se debe probar que x=k b (x; k; p) = 1: Para ello, expandiendo (1 + x)k en serie de Taylor
alrededor de x0 = 0; llamando f (x) = (1 + x)k se tiene que

f (i) (0) = k(k 1) (k i + 1)

así, la serie de Taylor correspondiente es


1
X f (i) (0)
f (x) = xi (4)
i=0
i!
X1
k(k 1) (k i + 1)
= xi
i=0
i!
X1
k i
= x
i=0
i

denominada Serie Binómica o Binomial. Sustituyendo k por k tenemos


1
X
k k( k 1) ( k i + 1)
(1 + x) = xi (5)
i=0
i!
X1
k i
= x
i=0
i

ya que

k k( k 1) ( k i + 1)
=
i i!
k(k + 1) (k + i 1)
= ( 1)i
i!
k+i 1
= ( 1)i :
i

Por ejemplo, si k = 5 e i = 3 se tiene

5 ( 5)( 6)( 7)
=
3 3!
(5)(6)(7)
= ( 1)3
3!
7!
= ( 1)3
3!4!
7
= ( 1)3 :
3

10
Luego se puede establecer la siguiente propiedad como

k k+i 1
= ( 1)i : (6)
i i

Además, es sencillo probar que

k+i 1 k+i 1
= : (7)
i k 1

Con base en la serie de (5) haciendo en ella x = q y utilizando las propiedades en (6) y (2)
1
X
k k
(1 q) = ( q)i
i=0
i
1
X k+i 1
= ( 1)i ( 1)i q i
i=0
i
X1
k+i 1 i
= q;
i=0
k 1

haciendo i = x k
1
X
k x 1 x k
(1 q) = q :
k 1
x=k

En la binomial negativa se tiene que q = 1 p entonces


1
X
k x 1
(1 1 + p) = (1 p)x k
k 1
x=k

de donde
1
X x 1
(1 p)x k
=p k
: (8)
k 1
x=k

Ya que se desea probar


1
X 1
X x 1 k
b (x; k; p) = p (1 p)x k
=1
k 1
x=k x=k

entonces utilizando (8)


1
X 1
X
x 1 k x 1
p (1 p)x k
= pk (1 p)x k
k 1 k 1
x=k x=k
k k
= p p
= 1:

11
5.1. Valor Esperado y Varianza.
Para el cálculo del valor esperado y la varianza se calcula E(X t ):
1
X x 1 k
E(X t ) = xt p (1 p)x k
k 1
x=k
X1
(x 1)!
= xt pk (1 p)x k
(k 1)!(x k)!
x=k
X1
k x!
= xt 1
pk+1 (1 p)x k
p k!(x k)!
x=k
X1
k x k+1
= xt 1
p (1 p)x k
:
p k
x=k

A partir de la sustitución x = y 1, se obtiene


1
k X y 1
E(X t ) = (y 1)t 1
pk+1 (1 p)y 1 k
p k
y=k+1
X1
k
= (y 1)t 1
b (y; k + 1; p)
p
y=k+1
k
= E[(y 1)t ]
p
en donde y tiene una distribución binomial negativa con parámetros k + 1 y p: De esta forma, ya
que
k
E(X t ) = E[(y 1)t 1 ]
p
haciendo en la anterior expresión t = 1;
k
E(X) = E[1]
p
k
= ;
p

para obtener la varianza, haciendo t = 2 para obtener E(X 2 )

k
E(X 2 ) = E(y 1)
p
k
= [E(y) 1]
p
k k+1
= [ 1]
p p
k 2 + k kp
=
p2

12
así,
2
V (X) = E(X 2 ) [E(X)]
2
k 2 + k kp k
=
p2 p
k(1 p)
= :
p2

5.2. Función Generadora de Momentos.


Para obtener la función generadora de momentos de una variable aleatoria distribuida binomial
negativa, partimos de la de…nición
1
X x 1 k
MX (t) = E(ext ) = ext p (1 p)x k
k 1
x=k
1
X x k x 1
= pk ekt et (1 p)x k
k 1
x=k
X1
t k x 1 x k
= pe et (1 p)
k 1
x=k
t k k
= pe 1 et (1 p)

de donde,
k
pet
MX (t) = t
1 e (1 p)

6. Distribución Geométrica.
Un caso particular de la distribución binomial negativa es la denominada distribución geométri-
ca, su variable mide el número de ensayos requeridos para obtener el primer éxito, su f.d.p. se
establece de la siguiente forma.
Si pruebas independientes repetidas pueden tener como resultado un éxito con probabilidad p
y un fracaso con probabilidad q = 1 p; entonces la distribución de probabilidad de la variable
aleatoria X, el número de la prueba en la que ocurre el primer éxito, es

g(x; p) = pq x 1
si x = 1; 2; :::
P
Para probar que g(x; p) = 1 se requiere de la denominada serie geométrica que se describe
como
1
X a
ari = si jrj < 1;
i=0
1 r

13
de esta forma partiendo de
1
X 1
X
g(x; p) = pq x 1

x=1 x=1
1
X
= pq y
y=0
p
=
1 q
= 1:

6.1. Valor Esperado y Varianza.


Para el calculo del valor esperado y la varianza se utilizan propiedades de series, más exactamente
el intercambio de derivadas y sumatorias justi…cada bajo la convergencia de la serie para jqj < 1:
1
X
E(X) = xpq x 1

x=1
X1
= p xq x 1

x=0
X1
d x
= p q
x=0
dq
1
d X x
= p q
dq x=0
d 1
= p
dq 1 q
luego
p p 1
E(X) = = = :
(1 q)2 p 2 p
Para la varianza se parte de
1
X
E [X(X 1)] = x(x 1)pq x 1

x=1
1
d2 X x
= pq q
dq 2 x=0
d2 1
= pq
dq 2 1 q
2pq
=
(1 q)3
2q
=
p2

14
entonces
2
V (X) = E [X(X 1)] + E(X) [E(X)]
2q 1 1
= 2
+
p p p2
2 2p + p 1
=
p2
1 p
= :
p2
Cabe notar que estos resultados se puede obtener partiendo de los resultados de la binomial
negativa haciendo k = 1.

6.2. Función Generadora de Momentos.


Para la distribución geométrica, por de…nición se tiene,
1
X
MX (t) = E(ext ) = ext pq x 1

x=1
1
X et p
= et p(et q)x 1
= :
x=1
1 et q

7. Distribución de Poisson.
A continuación se de…ne el proceso de Poisson el cual permite de…nir lo que es una variable
aleatoria de Poisson que al mismo tiempo permite encontrar su función de densidad de probabilidad.
Proceso de Poisson.

1. El número de resultados que ocurren en un intervalo o región especí…ca es independiente del


número que ocurre en cualquier otro intervalo o región del espacio disyunto. De esta forma se
puede observar que el proceso de Poisson no tiene memoria.
2. La probabilidad de que ocurra un posible resultado durante un intervalo muy corto o una
región pequeña es proporcional a la longitud del intervalo o al tamaño de la región y no
depende del número de resultados que ocurren fuera de este intervalo o región.
3. La probabilidad de que ocurra más de un resultado en tal intervalo corto o que caiga en tal
región pequeña es insigni…cante.

El número X de resultados que ocurren durante un experimento de Poisson se llama variable


aleatoria de Poisson. El número medio de resultados se calcula por t donde t es el tiempo o región

15
especí…ca de interés y la tasa de ocurrencia de los resultados. La obtención de la f.d.p. de la
variable X se basa en las propiedades del proceso de Poisson, y esta dada por
t
( t)x
e
p(x; t) = si x = 0; 1; :::
x!
P
Para probar que p(x; t) = 1; basado en (4) se puede mostrar que
1
X
k ki
e =
i=0
i!

que es la serie de Maclaurin para la función f (x) = ex , con base en esta expresión se tiene que
1
X 1
X t
e ( t)x
p(x; t) =
x=0 x=0
x!
X1
t ( t)x
= e
x=0
x!
t t
= e e
= 1:

7.1. Valor Esperado y Varianza.


Se puede veri…car que la media de la variable aleatoria de poisson esta dada por = t:
1
X
E(X) = xp(x; t)
x=0
X1 t
e ( t)x
= x
x=1
x!
X1 t
e ( t)x 1
= t
x=1
(x 1)!
haciendo y = x 1 se obtiene
1
X t
e ( t)y
E(X) = t
y=0
y!
X1
= t p(y; t)
y=0
= t:
Para el calculo de la varianza
1
X t
e ( t)x
E [X(X 1)] = x(x 1)
x=0
x!
1
X t
e ( t)x 2
= ( t)2
x=2
(x 2)!

16
haciendo y = x 2
1
X t
e ( t)y
E [X(X 1)] = ( t)2
y=0
y!
X1
= ( t)2 p(y; t)
x=2
= ( t)2 ;

así,
2
V (X) = E [X(X 1)] + E(X) [E(X)]
= ( t)2 + t ( t)2
= t:

7.2. Función Generadora de Momentos.


Para la distribución de Poisson se tiene, llamando = t;
1
X x
e
Mx;n (t) = E(ext ) = ext
x=0
x!
1
X e ( et )x
=
x=0
x!
et (et 1)
= e e =e :

Referencias
[1] BLANCO L., MUÑOZ M. Introducción a la teoría avanzada de la probabilidad. Universidad
Nacional de Colombia. Bogotá. Colombia. 2002.
[2] LESSING R. An Alternative Expression for the Hypergeometric Moment Generating Function.
The American Statician, Vol. 27, No. 3, p. 115. 1973.
[3] FELLER W. An Introduction to Probability Theory and Its Applications. Volume 1. Hardcover.
1971
[4] MARTÍN F., RUIZ-MAYA L. Fundamentos de Probabilidad. Editorial Thomson. 2002.
[5] MOOD A., GRAYBILL F., BOES D. Introduction to the theory of statistics. McGraw-Hill
International Editions. Third Edition. Singapore. 1963.
[6] ROSS S. A First Course in Probability. Prentice Hall. United States of America. 2002.
[7] WALPOLE R., MYERS, R., MYERS, S. YE, K. Probabilidad y Estadística para Ingeniería y
Ciencias. Pearson Education. Octava Edición. 2007.

17

Anda mungkin juga menyukai