Anda di halaman 1dari 28

TEORÍA de la PROBABILIDAD Y MODELOS DE

ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

CÁLCULO DE PROBABILIDADES – (Teoría de la Probabilidad)

En nuestra vida nos enfrentamos a situaciones de toma de decisiones cuando interviene la


incertidumbre (incapacidad de predecir con certeza lo que va a ocurrir). Cualquier enfoque
analítico de este tipo de problemas, supone la evaluación de la medida en que es posible que
ciertos sucesos hayan ocurrido o vayan a ocurrir. El cálculo de probabilidades dará como resultado
esta medida.

CONCEPTOS PREVIOS IMPORTANTES

• EXPERIMENTO ALEATORIO: Es cualquier desarrollo físico observable que pueda dar


lugar a dos o más resultados, sin que sea posible enunciar con certeza cuál de estos
resultados va a ser observado. Por ejemplo, en el experimento aleatorio de arrojar un dado
se pueden obtener seis resultados diferentes: as, dos, tres, cuatro, cinco y seis, pero, de
antemano, no se puede decir que número va a salir. Los experimentos son situaciones que
pueden ser repetidas bajo condiciones esencialmente estables. Las repeticiones pueden
ser factibles y de realización efectiva (como el caso del dado), o abstractas y teóricamente
concebibles (como por ejemplo analizar si la inversión en la bolsa da tal o cual utilidad).

• SUCESO, EVENTO O ACONTECIMIENTO ALEATORIO: Es cada uno de los diferentes


resultados a los que puede dar lugar un experimento aleatorio. Cada uno de los resultados
posibles, constituye un suceso aleatorio. A los sucesos se los pueden definir como los
subconjuntos de un "espacio muestral". El suceso o evento es simple si está formado
exactamente por un resultado, o es compuesto si consta de más de un resultado.

• ESPACIO MUESTRAL: Es el conjunto de todos los resultados diferentes (o aquellos que


deseamos considerar diferentes) a que da lugar un experimento aleatorio.

DEFINICIONES DE PROBABILIDAD

Se puede especificar que una probabilidad es un número comprendido entre 0 y 1, que


indica cuán posible es la ocurrencia de un suceso. Se mueve dentro de tres campos: ocurrencia
imposible (si un suceso tiene probabilidad 0); ocurrencia segura o certera (si tiene probabilidad 1);
y ocurrencia incierta, posible o probable (si tiene otro resultado). Hay un punto llamado de
indiferencia o ignorancia (si la probabilidad toma el valor 0,5).

Desde un enfoque matemático científico se intentó definir a la probabilidad como la rama de


las matemáticas que interpreta y predice las frecuencias con que ocurrirán los hechos o sucesos
en el futuro. Pero esta definición parece descartar que el concepto de probabilidad es intuitivo, por
lo tanto se hace difícil elaborar una definición que englobe en conjunto todos los aspectos posibles
de ella. Hay tres criterios parciales que permitirían dar una definición acabada:

• DEFINICIÓN CLÁSICA O CANÓNICA (DE LAPLACE): El matemático francés Pedro


Simón "marqués de Laplace" (1749-1827), como consecuencia del estudio de los
juegos de azar, la ha definido como el número de casos favorables a un suceso ( c )
divido el número de casos posibles o número total de casos ( n ). Esta definición
tiene restricciones y condiciones para que se cumpla: por una parte los casos

UADE – Facultad de Ingeniería Página 1 de 28


favorables deben ser todos los casos que quiero que ocurran; y por otra parte los
casos posibles deben ser equiprobables (que tengan igual probabilidad de
ocurrencia). Si por ejemplo queremos calcular la probabilidad de que ocurra un
suceso A, tenemos:
c
P( A) =
n

Pese a ser una definición circular (se basa en el concepto que se quiere definir, al
mencionar la equiprobabilidad de los casos posibles), esta definición permitió el
desarrollo inicial de la teoría de las probabilidades.

• DEFINICIÓN BASADA EN LA FRECUENCIA: Trata sobre sucesos indefinidamente


repetibles bajo las mismas condiciones. Si en n pruebas el suceso A se presentó
una cierta cantidad de veces fa ( A ) (frecuencia absoluta de aparición del suceso A),
definimos a la frecuencia relativa de aparición del suceso como:
f ( A)
f ( A) = a
n
La escuela alemana, basada en la frecuencia (R. Von Misses), define a la
probabilidad del suceso A, como la frecuencia relativa de ocurrencia del suceso
cuando el número de pruebas tiende a infinito:
P( A ) = lím f ( A )
n→ ∞

No se trata de un límite rigurosamente matemático sino conceptual, ya que indica


que cuanto mayor sea el tamaño de la muestra, más cerca estará la frecuencia
relativa del valor de la probabilidad. El mayor mérito de esta definición es que nos
permite relacionar probabilidades teóricas (casi siempre desconocidas) con
frecuencias relativas (sacadas de la experimentación); y esto es el principio de la
inferencia estadística que desarrollaremos con mayor detalle en el momento
oportuno.

• DEFINICIÓN AXIOMÁTICA (Nicolaevich KOLMOGOROFF): En vista de la


parcialidad de las definiciones vistas, se concluyó por definir a la probabilidad en
forma axiomática. Ésta se basa en la teoría de conjuntos, para ello debemos
desarrollar algunos conceptos. Los diferentes sucesos y el espacio muestral se
visualizan mediante los idiogramas o diagramas de Venn. Los sucesos se pueden
clasificar en:

o INCOMPATIBLES (EXCLUYENTES o MUTUAMENTE EXCLUYENTES):


En un mismo espacio muestral, la ocurrencia de uno de los sucesos excluye
de que ocurra otro (si uno se está dando el otro no puede ocurrir);
( A ∩ B) = φ
o COMPATIBLES: ( A ∩ B) ≠ φ . Estos a su vez, se los puede dividir en:
COMPATIBLES CONDICIONADOS: La ocurrencia de uno de los sucesos
condiciona la ocurrencia del otro suceso. Si uno de los dos se está dando,
esto modifica y condiciona a que el otro suceso también se dé.
COMPATIBLES INDEPENDIENTES: Cada suceso posee su propio espacio
muestral. La ocurrencia de uno no modifica la ocurrencia del otro. Que uno
de los sucesos se esté dando, no modifica ni influye en la ocurrencia o no
del otro suceso.

Página 2 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

Dado un experimento, "E" (el espacio muestral de referencia o estudio) y "A y B" (eventos
o posibles sucesos dentro del espacio muestral); el objetivo de la probabilidad es asignar a cada
evento un número, que es una función "P" (función de probabilidad de los sucesos). Se define a
P(A) como la probabilidad de que ocurra el suceso o evento A en la realización de un experimento,
cuyo resultado será una medida precisa de la probabilidad de que A ocurra (también se la
denomina probabilidad marginal). Esta probabilidad se visualiza en el espacio muestral de
referencia como el porcentaje de ocupación que tiene el conjunto del evento posible dentro de ese
espacio.

AXIOMAS DE LA PROBABILIDAD

Para asegurarse de que las asignaciones de probabilidad sean consistentes con nuestras
nociones intuitivas de probabilidad, todas las asignaciones deberán satisfacer los siguientes
axiomas (propiedades básicas):

AXIOMA 1: La probabilidad de que ocurra un suceso A es un número real no


negativo que es posible asignar a un universo o espacio muestral E y a cada uno de los
subconjuntos de ese universo. P( A ) ≥ 0

AXIOMA 2: La probabilidad de un suceso cierto es igual a la unidad (tomando como


suceso cierto a todo lo que es posible asignar dentro de un espacio muestral). P(E) = 1

AXIOMA 3: La probabilidad del suceso suma de dos sucesos excluyentes, es igual a


la suma de las probabilidades de cada uno de ellos. Si A ∩ B = φ P( A ∪ B) = P( A ) + P(B)

REGLAS DE LA PROBABILIDAD: De estos axiomas se desprenden las siguientes reglas:

REGLA de la SUMA: ( = o )
• Sucesos Incompatibles: P( A ∪ B) = P( A ) + P(B)
• Sucesos Compatibles: P( A ∪ B) = P( A ) + P(B) − P( A ∩ B)

REGLA de la MULTIPLICACIÓN: ( = y )
• Sucesos Compatibles Independientes: P( A ∩ B) = P( A) ⋅ P(B)
• Sucesos Compatibles Condicionados: P( A ∩ B) = P( A ) ⋅ P(B A ) = P(B) ⋅ P( A B)

OTRAS REGLAS:
• Probabilidad Condicional: P A B =( ) P( A ∩ B)
P(B)
• P( A ) = 1 − P( A )
• Lema de Morgan: P( A ∪ B) = 1 − P( A ∩ B) (se generaliza para la unión de más de 2)
• ( B) = 1 − P A B
PA

• P( A ) = P( A ∩ B) + P( A ∩ B)
• P(B) = P( A ∩ B) + P( A ∩ B)

UADE – Facultad de Ingeniería Página 3 de 28


Veamos algunas generalidades que se derivan de las reglas básicas:

• Sucesos Incompatibles: P( A ∪ B ∪ C ∪ ...) = P( A ) + P(B) + P(C) + ...

• Sucesos Independientes: P( A ∩ B ∩ C ∩ ...) = P( A ) ⋅ P(B) ⋅ P(C) ⋅ ...

• Sucesos Condicionados:
P( A ∩ B ∩ C ∩ ...) = P( A) ⋅ P(B A ) ⋅ P(C / A ∩ B) ⋅ P(... / A ∩ B ∩ C ∩ ...)

• Sucesos Compatibles:
P( A ∪ B ∪ C) = P( A ) + P(B) + P(C) − P( A ∩ B) − P( A ∩ C) − P(B ∩ C) + P( A ∩ B ∩ C)
Para la unión de más de 3 sucesos compatibles hay que seguir la lógica planteada, lo
cual si la cantidad de sucesos es considerable, la regla resulta engorrosa; por ello, en
estas circunstancias se recomienda utilizar el “Lema de Morgan”. Veamos un ejemplo
para la unión de 5 sucesos compatibles:
P( A ∪ B ∪ C ∪ D ∪ E) = P( A ) + P(B) + P(C) + P(D) + P(E) − P( A ∩ B) − P( A ∩ C) −
− P( A ∩ D) − P( A ∩ E) − P(B ∩ C) − P(B ∩ D) − P(B ∩ E) − P(C ∩ D) − P(C ∩ E) − P(D ∩ E) +
+ P( A ∩ B ∩ C) + P( A ∩ B ∩ D) + P( A ∩ B ∩ E) + P( A ∩ C ∩ D) + P( A ∩ C ∩ E) +
+ P( A ∩ D ∩ E) + P(B ∩ C ∩ D) + P(B ∩ C ∩ E) + P(B ∩ D ∩ E) + P(C ∩ D ∩ E) −
− P( A ∩ B ∩ C ∩ D) − P( A ∩ B ∩ C ∩ E) − P( A ∩ B ∩ D ∩ E) − P( A ∩ C ∩ D ∩ E) −
− P(B ∩ C ∩ D ∩ E) + P( A ∩ B ∩ C ∩ D ∩ E)

TEOREMA DE BAYES: (Es un caso particular de la Probabilidad Condicional):

P(A I ) ⋅ P S
AI AI
• P =
S
P(A I ) ⋅ P S
AI

• Siendo: Ai ,Sucesos (incompatibles entre si) Causa o Causales del Suceso S, el cual es
conocido u bien es un suceso ocurrido.

• P(A I ) : Probabilidad de la Causa, A priori a la ocurrencia del Suceso S.

• P S : Probabilidad Condicional del Suceso S como condición de la Causa


AI
(probabilidad de que el suceso S se de, si la causa Ai es la responsable).

AI
• P : Probabilidad de la Causa A posteriori a la ocurrencia del Suceso S
S
(probabilidad de que la causa sea responsable habiendo ocurrido el suceso S.

Página 4 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

CONSIDERACIONES FINALES

Es necesario realizar algunas observaciones adicionales sobre la asignación de


probabilidades:

a) Asignar probabilidades, es hacer corresponder a cada punto o subconjunto (A) del


espacio muestral un valor P(A) que cumple con las condiciones axiomáticas
enunciadas.
b) En la práctica se asignan probabilidades a algunos sucesos cuidadosamente
seleccionados y luego se lo compara con un modelo teórico previamente elegido. La
estadística provee herramientas para comparar los datos obtenidos con el modelo y si
la coincidencia es satisfactoria, definiremos que el modelo ajusta bien con los datos. A
este procedimiento se lo denomina Modelización de una variable a partir de datos
obtenidos.
c) La ley de asignación de probabilidades (la ley que siguen las P(A)) en función de los
valores de A (el MODELO), es un tema que trataremos en las siguientes páginas. Sin
embargo, es necesario destacar que, cuando se menciona un valor de probabilidad, ese
valor puede ser el resultado de una asignación puramente arbitraria y/o subjetiva, de un
cálculo sencillo o provenir de una función matemática (la cual definimos como “Modelo
Estadístico de Probabilidad” o simplemente “Función de Probabilidad”); en cualquier
caso de asignación de la ley de probabilidad, las fórmulas básicas que se han visto en
las páginas anteriores se cumplen en toda su extensión.

UADE – Facultad de Ingeniería Página 5 de 28


VARIABLES ALEATORIAS y DISTRIBUCIONES DE PROBABILIDAD

El concepto de una variable aleatoria nos permite pasar de los resultados experimentales a
una función numérica de los resultados. Una Variable Aleatoria (VA.) "X" es una regla bien
definida para asignar valores numéricos a todos los resultados posibles de un experimento (regla
mediante la cual a cada uno de los resultados de un experimento se le asocia un número).
También se la puede definir como una descripción numérica del resultado de un experimento (la
VA. asocia un valor numérico con cada resultado posible, por lo tanto es una regla de asociación).
El valor numérico de la VA. depende del resultado del experimento.

"X" es variable porque son posibles diferentes valores numéricos. Es aleatoria porque el
valor observado depende de cuál de los posibles resultados experimentales aparezca, y, además,
porque involucra la probabilidad de los resultados del espacio muestral. "X" es una función de valor
real definida sobre el espacio muestral, de manera que transforma todos los posibles resultados
del espacio muestral en cantidades numéricas.

Se pueden definir VA. cuyos números de posibles valores es finito, o VA. cuyos valores son
infinitos (sean contables o no), ya que una VA. es una caracterización cuantitativa de los
resultados de un espacio muestral. Dependiendo de los valores numéricos que asume, las VA. se
pueden clasificar en VA. Discretas y VA. Continuas.

VARIABLES ALEATORIAS DISCRETAS

"X", es una VA. discreta si el número de valores que puede tomar es contable (ya sea finito
o infinito), y si éstos pueden arreglarse en una secuencia que corresponde con los enteros
positivos. En general, todo lo que se quiere expresar de manera contable (cantidad de unidades
defectuosas, cantidad de vehículos que arriban o parten, etc.), es una VA. discreta.

En resumen, una VA. es discreta si su conjunto de valores posibles es un conjunto discreto.


Un conjunto es discreto si está formado por un número finito de elementos, o si sus elementos se
pueden enumerar en secuencia de modo que haya un primer elemento, un segundo elemento, un
tercer elemento, y así sucesivamente, en la lista.

DOMINIO de la VARIABLE: V.A. = r ; mín ≤ r ≤ Máx

Máx
• P( VA = r ) P(r ) ; [P(r )] = 1
i
i = mín
r Máx
• P( VA ≤ r ) F(r ) = P(r ) ; P( VA ≥ r ) G(r ) = P(r )
mín r

• F(r ) + G(r ) = 1 + P(r ) ; P(r ) = F(r ) − F(r − 1) = G(r ) − G(r + 1)

• F(r ) = 1 − G(r + 1) ; G(r ) = 1 − F(r − 1)

Página 6 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

B
• P( A ≤ r ≤ B) = P(r ) = F(B) − F( A − 1) = G( A ) − G(B + 1)
r=A

• Moda o Modo: Mo = ro P(ro ) = Máximo

• Mediana: Me = re F(re −1 ) ≤ 0,5 y F(re ) ≥ 0,5

Máx
• Esperanza Matemática Total: E(r ) = µ = [r ⋅ P(r )]
r = mín

r
• Expectativa Parcial Izquierda: H(r ) = [r ⋅ P(r )]
mín

Máx
• Expectativa Parcial Derecha: J(r ) = [r ⋅ P(r )]
r

• µ = H(r ) + J(r + 1) = J(r ) + H(r − 1) , se demuestra que una expectativa se puede obtener
a partir de la otra.

H(r ) J(r )
• Promedios Truncados: µ T ( VA ≤ r ) = ; µ T ( VA ≥ r ) =
F(r ) G(r )

H(B) − H( A − 1) J( A ) − J(B + 1)
µT ( A ≤r ≤B) = =
F(B) − F( A − 1) G( A ) − G(B + 1)

[r ]
∗ P(r ) − (µ 2 ) ;
Máx
• V (r ) = σ 2 = 2
D(r ) = σ = σ 2
r = mín

[P(r ) ⋅ (r − µ) ] [P(r ) ⋅ (r − µ) ]
Máx Máx
3 4

• As = α 3 = r = mín
; Ku = α 4 = r = mín

σ3 σ4

• Propiedades Matemáticas de la Esperanza Matemática y de la Varianza. Sean “x” e


“y” dos Variables Aleatorias, y “a” y “b” dos constantes, se demuestran las siguientes
propiedades en la combinación algebraica de dichos elementos:

2 2 2
R = ax ± y ± b µR = a ⋅ µ x ± µ y ± b ; σR = a2 ⋅ σ x + σ y
2 2 2 2 2 2 2
R = x⋅y µR = µ x ⋅ µ y ; σR = σ x ⋅ σ y + µ x ⋅ σ y + µ y ⋅ σ x

UADE – Facultad de Ingeniería Página 7 de 28


PROCESO DE BERNOULLI (Jacques Bernoulli, 1654 – 1705):

Parámetro: Probabilidad de Éxito (p)

Es un proceso físico de repeticiones de un determinado experimento en el cual observamos la


ocurrencia o no de un determinado evento. Estos experimentos dan lugar a ensayos
independientes repetidos, cada uno de los cuales tiene sólo dos resultados posibles: éxito (ocurre
el evento deseado) o fracaso (no ocurre el evento deseado). Las condiciones en las que se
realizan todas las pruebas deben ser iguales.

Ejemplos de procesos de Bernoulli: tirar un dado equilibrado, sacar elementos con reposición
de una caja, sacar muestras de elementos finitos de un proceso productivo o un proceso de la
naturaleza (muestreo para el control de procesos), sacar una muestra de un lote de tamaño
infinito, todo proceso de experimentación dónde la probabilidad del éxito buscado sea constante,
etc.

A. MODELO BINOMIAL: Variable Aleatoria: r = Cantidad de éxitos en “n”


Dominio: 0 ≤ r ≤ n ; Parámetros: “n” y “p”

n
⋅ p r ⋅ (1 − p )
( n− r )
• P( VA = r ) Pb (r / n ; p) =
r

r
n
• P( VA ≤ r ) Fb (r / n ; p) = ⋅ p x ⋅ (1 − p) (n− x )
x=0 x

n
n
• P( VA ≥ r ) G b (r / n ; p) = ⋅ p x ⋅ (1 − p) (n− x )
x =r x

• Esperanza Matemática: µ = n ⋅ p ; Varianza: σ 2 = n ⋅ p ⋅ (1 − p)

• Hb (r ) = n ⋅ p ⋅ Fb (r − 1 / n − 1 ; p)

• Moda: (n ⋅ p − (1 − p)) < Mo < (n ⋅ p + p )

(1 − p) − p 1 − 6 ⋅ p ⋅ (1 − p)
• Asimetría: α 3 = ; Curtosis: α 4 =
n ⋅ p ⋅ (1 − p) n ⋅ p ⋅ (1 − p)

• ¡Ver Aproximaciones al final del apunte!

Página 8 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

B. MODELO PASCAL(Blaise Pascal, 1623 – 1662):

Variable Aleatoria: n = Cantidad de pruebas para obtener “r”


Dominio: r ≤ n ≤ ∞ ; Parámetros: “r” y “p”

n−1 r
⋅ p r ⋅ (1 − p )
( n− r )
• P( VA = n) Ppa (n / r ; p) = = ⋅ Pb (r / n ; p)
r −1 n

n
x−1
• P( VA ≤ n) Fpa (n / r ; p) = ⋅ p r ⋅ (1 − p) ( x −r ) = G b (r / n ; p)
x =r r −1


x −1
• P( VA ≥ n) G pa (n / r ; p) = ⋅ p r ⋅ (1 − p) ( x −r ) = Fb (r − 1 / n − 1 ; p)
x =n r −1

r r ⋅ (1 − p)
• Esperanza Matemática: µ = ; Varianza: σ 2 =
p p2

r
• Hpa (n) = ⋅ Fpa (n + 1 / r + 1 ; p)
p

2⋅p p2 + 6 ⋅ p + 6
• Asimetría: α 3 = ; Curtosis: α 4 =
r ⋅ (1 − p) r ⋅p

C. MODELO GEOMÉTRICO: Ídem al Modelo de Pascal, pero se realizan pruebas hasta el


primer éxito encontrado.

Variable Aleatoria: n = Cantidad de pruebas para obtener “el


primer éxito”
Dominio: 1 ≤ n ≤ ∞ ; Parámetro: “p”

Pgeo (n / 1 ; p) = p ⋅ (1 − p )
(n − 1)
• P( VA = n)

[p ⋅ (1 − p) ] = G
n
• P( VA ≤ n) Fgeo (n / 1 ; p) = ( x − 1)
b (1 / n ; p)
x =1

[p ⋅ (1 − p) ] = (1 − p)

• P( VA ≥ n) G geo (n / 1 ; p) = ( x − 1) n−1

x =n

1 (1 − p)
• Esperanza Matemática: µ = ; Varianza: σ 2 =
p p2

UADE – Facultad de Ingeniería Página 9 de 28


1
• H geo (n) = ⋅ Fgeo (n + 1 / 2 ; p)
p

2⋅p p2 + 6 ⋅ p + 6
• Asimetría: α 3 = ; Curtosis: α 4 =
(1 − p) (1 − p)

D. MODELO MULTINOMIAL: Ídem al Modelo Binomial, pero se realizan pruebas con más de
dos resultados posibles.

k
Variables Aleatorias: “ r1 ; r2 ; … ; rk “ ; ri = n
r =1
k
Parámetros: “n” y “ p1 ; p2 ; … ; pk “ ; pi = 1
p =1

• P( VA 1 = r1 ; VA 2 = r2 ;...; VA k = rk ) Pmu (r1 ;r2 ;...; rk / n ; p 1 , p 2 ,..., p k ) =


ri
k
p
= n! ⋅ ∏ i

i =1 ri !

• Esperanza Matemática: E(ri ) = µ r = n ⋅ p i ;


i
Varianza: V (ri ) = σ r2 = n ⋅ p i ⋅ (1 − p i )
i

PROCESO HIPERGEOMÉTRICO

Parámetros: Total de elementos, posibles, que intervienen en el


experimento a realizar, o tamaño del lote a examinar
(N).
Cantidad total de éxitos en el total de elementos
posibles o en el lote a examinar (R).

Es un proceso físico de repeticiones de un determinado experimento en el cual observamos la


ocurrencia o no de un determinado evento. Estos experimentos dan lugar a ensayos repetidos, los
cuales no son independientes entre sí, y, también tienen cada uno sólo dos resultados posibles:
éxito (ocurre el evento deseado) o fracaso (no ocurre el evento deseado). Las condiciones en las
que se realizan todas las pruebas no son iguales, porque a medida que ocurre un resultado de una
prueba, éste condiciona el resultado de la siguiente prueba.

Ejemplos de procesos Hipergeométricos: números salidos en una lotería, sacar elementos sin
reposición de una caja, sacar una muestra de un lote de tamaño finito (muestreo para aceptación
de un lote), todo proceso de experimentación dónde la probabilidad del éxito buscado en cada
experimento condicione a la probabilidad del éxito del siguiente experimento (o sea que la
probabilidad del éxito no es constante), etc.

Página 10 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

A. MODELO HIPERGEOMÉTRICO

Variable Aleatoria: r = Cantidad de éxitos en “n” extracciones


Dominio: Máx [0 ; n − (N − R )] ≤ r ≤ Mín [n ; R ] ; Parámetros:
“n” ; “N” y “R”

R N−R

r n−r
• P( VA = r ) Ph (r / n ; N ; R ) =
N
n

R N−R

r
x n− x
• P( VA ≤ r ) Fh (r / n ; N ; R ) =
x = mín N
n

R N−R

Máx
x n−x
• P( VA ≥ r ) G h (r / n ; N ; R ) =
x =r N
n

R
• Esperanza Matemática: µ = n ⋅
N

R
• Hh (r ) = n ⋅ ⋅ Fh (r − 1 / n − 1 ; N − 1 ; R − 1)
N

R R N−n
• Varianza: σ 2 = n ⋅ ⋅ 1− ⋅
N N N−1


(nR − N + R + n − 1) (nR + R + n + 1)
Moda: < Mo <
(N + 2) (N + 2 )

Aproximación por Distribución Binomial: Condición N → ∞ ; o bien ; n despreciable de N


n
o bien : < 0,01
N

• (
Ph (r / n ; N ; R ) ≈ Pb r / n ; p = R
N
)
• (
Fh (r / n ; N ; R ) ≈ Fb r / n ; p = R
N
)
UADE – Facultad de Ingeniería Página 11 de 28
• (
G h (r / n ; N ; R ) ≈ G b r / n ; p = R
N
)

B. MODELO PASCAL HIPERGEOMÉTRICO (siendo r ≤ R )

Variable Aleatoria: n = Cantidad de extracciones para obtener


“r” éxitos
Dominio: r ≤ n ≤ (N − R + r ) ; Parámetros: “n” ; “N” y “R”.

R N−R

r r n−r
• P( VA = n) Ppah (n / r ; N ; R ) = ⋅
n N
n

R N−R

R
r r x −r
• P( VA ≤ n) Fpah (n / r ; N ; R ) = ⋅ = G h (r / n ; N ; R )
n= r x N
x

R N−R

Máx
r r x −r
• P( VA ≥ n) G pah (n / r ; N ; R ) = ⋅ = Fh (r − 1 / n − 1 ; N ; R )
x =n x N
x

r ⋅ (N + 1)
• Esperanza Matemática: µ =
(R + 1)

r ⋅ (N + 1)
• Hpah (r ) = ⋅ Fpah (n + 1 / r + 1 ; N + 1 ; R + 1)
(R + 1)

(r + 1) ⋅ (N + 2)
• Varianza: σ 2 = µ ⋅ −1 − µ2
(R + 2)

Página 12 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

VARIABLES ALEATORIAS CONTINUAS

"X", es una VA. continua si sus valores consisten en uno o más intervalos de la recta de los
reales. Es continua, si puede tomar cualquier valor numérico en un intervalo o conjuntos de
intervalos. En general, todos los resultados experimentales que se basan en escalas de medición
(tiempo, peso, distancia, temperatura, etc.), son variables aleatorias continuas.

Una VA. es continua si su conjunto de posibles valores es todo un intervalo de números,


esto es, si para algún intervalo "A; B" (siendo A < B), cualquier número "x" entre A y B es posible.
La escala de medición de "X" se puede subdividir en cualquier grado deseado.

DOMINIO de la VARIABLE: V.A. = x ; − ∞ ≤ x ≤ ∞


• f (x ) dx = 1
−∞
x ∞
• P( VA ≤ x ) F(x ) = f (x ) dx ; P( VA ≥ x ) G(x ) = f (x ) dx
−∞ x

• F(x ) + G(x ) = 1

• F(x ) = 1 − G(x ) ; G(x ) = 1 − F(x )

B
• P( A ≤ r ≤ B) = f (x ) dx = F(B) − F( A) = G( A) − G(B)
A

• Moda o Modo: Mo = x o f (x o ) = Máximo

• Mediana: Me = x e F(x e ) = 0,5 = G(x e )


• Esperanza Matemática Total: E(x ) = µ = x ⋅ f (x ) dx
−∞

x
• Expectativa Parcial Izquierda: H( x ) = x ⋅ f ( x ) dx
−∞


• Expectativa Parcial Derecha: J(x ) = x ⋅ f (x ) dx
x

• µ = H(x ) + J(x ) , se demuestra que una expectativa se puede obtener a partir de la otra.

H(x ) J(x )
• Promedios Truncados: µ T ( VA ≤ x ) = ; µ T ( VA ≥ x ) =
F(x ) G(x )

H(B) − H( A ) J( A) − J(B)
µT( A ≤ x ≤B) = =
F(B) − F( A ) G( A) − G(B)

UADE – Facultad de Ingeniería Página 13 de 28


• V (r ) = σ 2 = { ∞

−∞
}
x 2 ⋅ f (x ) dx − (µ 2 ) ; D(r ) = σ = σ 2

(x − µ )3 ⋅ f (x ) dx (x − µ )4 ⋅ f (x ) dx
∞ ∞

• As = α 3 = −∞
; Ku = α 4 = −∞

σ3 σ4

• Propiedades Matemáticas de la Esperanza Matemática y de la Varianza. Sean “x” e


“y” dos Variables Aleatorias, y “a” y “b” dos constantes, se demuestran las siguientes
propiedades en la combinación algebraica de dichos elementos:

2 2 2
R = ax ± y ± b µR = a ⋅ µ x ± µ y ± b ; σR = a2 ⋅ σ x + σ y
2 2 2 2 2 2 2
R = x⋅y µR = µ x ⋅ µ y ; σR = σ x ⋅ σ y + µ x ⋅ σ y + µ y ⋅ σ x

MODELOS RELACIONADOS con los FENÓMENOS de VIDA

La Variable Aleatoria “x” mide la duración hasta la falla del elemento; o bien, según el
Modelo en cuestión, la Variable Aleatoria mide la resistencia hasta la rotura del elemento.

A. MODELO EXPONENCIAL: Dominio: X ≥ 0 ; λ”


Parámetro: “λ

Este modelo rige fundamentalmente para la duración de elementos que fallan a la Poisson.
La variable es la extensión de continuo entre fallas consecutivas de un proceso de Poisson (el
mismo se puede estudiar como un caso particular de los modelos: GAMMA y WEIBULL).

Esta VA. estudia el tiempo de vida de un elemento, es decir, que la misma proporciona un
modelo útil para observar el tiempo de falla del elemento. Este modelo es utilizado en la llamada
función de confiabilidad, donde la tasa de falla del elemento en cuestión es constante. Si la tasa de
falla no es constante, deberíamos utilizar al modelo de Weibull general. Debemos aclarar que en el
modelo Exponencial, las fallas de los elementos se producen exclusivamente por el azar, no así,
en el modelo de Weibull, donde en las causas de las fallas de los elementos interviene el desgaste
y la fatiga. Se demuestra que el modelo EXPONENCIAL, no tiene memoria. Esta propiedad,
"carencia de memoria", se explica porque la probabilidad de ocurrencia de eventos presentes o
futuros no depende de los eventos que hayan ocurrido en el pasado. De esta forma, la
probabilidad de que una unidad falle en un lapso específico depende, nada más, de la duración de
este lapso, y no del tiempo en que la unidad ha estado funcionando o en operación.

• Función de densidad de Probabilidad: fEXP ( x ) = λ ⋅ e − λX

• P( VA ≥ x ) GEXP ( x ) = e − λX

1
• Esperanza Matemática (En fenómenos de vida: MTBF = MTTF): µ =
λ

Página 14 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

1 ln 2
• Varianza: σ 2 = ; Mo = 0 ; Me =
λ 2
λ

1
• HEXP (x ) = ⋅ Fg (x / 2 ; λ )
λ

• Asimetría: α 3 = 2 ; Curtosis: α 4 = 9

• Gráfica de la función de densidad de probabilidad:

f(x)

B. MODELO de WEIBULL (Wallodi Weibull, 1887 – 1979): Dominio: X ≥ 0 ;


β ” y “ω
Parámetros: “β ω”

Es un modelo que ajusta mejor a los problemas de tiempo de vida, sobre todo, si la tasa de
falla de los elementos, no permanece constante a causa del desgaste o fatiga de ellos; podemos
resumir que este modelo es una generalización del modelo exponencial para causas variadas.
Debemos aclarar, que este modelo, no descarta la posibilidad de que la muerte del elemento en
cuestión (que se desgasta con el tiempo) se produzca por el mero azar. El origen de este modelo,
se debe al estudio y demostración de que el esfuerzo al que se someten los materiales puede
modelarse de manera adecuada mediante el empleo de esta distribución.

El parámetro β se puede considerar para algunas aplicaciones como la inversa de λ


(denominado en la teoría de la confiabilidad como MTBF). Dependiendo del valor que toma el
parámetro de forma , la f.d.p. tiene diferntes propiedades. Si el parámetro = 1, este es un caso
particular donde la distribución de Weibull se resume al modelo Exponencial (donde la única causa
de la falla del elemento es el azar). Si < 3,6, tiene una forma con sesgo positivo o a la derecha
(en este caso predominan las causas del azar frente al desgaste en la falla del elemento). Si >
3,6, la forma es con sesgo negativo o a la izquierda (la causa predominante es el desgaste frente

UADE – Facultad de Ingeniería Página 15 de 28


al azar en la falla del elemento). Y, si = 3,6, la distribución tiene una forma simétrica
(predominan con igual intensidad tanto el azar como el desgaste, en la falla del elemento).

Ejemplos de uso: básicamente se usa en problemas de confiabilidad, esfuerzo al


que se someten los materiales, etc..
ϖ
ϖ
− X
• Función de densidad de Probabilidad: f W (x ) = ϖ ⋅ 1 ⋅ X ϖ −1 ⋅ e β
β

ϖ
− X
β
• P( VA ≥ x ) G W (x) = e

• Esperanza Matemática (En fenómenos de vida: MTTF): µ = β ⋅ Γ 1


1+
ϖ

2
• Varianza: σ 2 = β 2 ⋅ Γ 2
− Γ 1
1+ 1+
ϖ ϖ

ω
x 1
• H w (x ) = β ⋅ Γ (1+1 ω ) ⋅ Fg / r = 1+ ;λ =1
β ω

• La función “Gamma de r” se define: Γ(r ) = (r − 1)! = X r −1 ⋅ e − X ⋅ dx


0

ϖ
1
Me = β ⋅ (ln 2 )
1
• Mo = 0 ( si ϖ ≤ 1 ) ; Mo = β ⋅ 1 − ; ( si ϖ ≥ 1 ) ; ϖ
ϖ

3
Γ 3
− 3⋅Γ 2
⋅Γ 1
+ 2⋅Γ 1
1+ 1+ 1+ 1+
ϖ ϖ ϖ ϖ
• Asimetría: α 3 = 3
2
2
Γ 2
−Γ 1
1+ 1+
ϖ ϖ

2 4
Γ 4
− 4⋅Γ 3
⋅Γ 1
+ 6⋅Γ 2
⋅Γ 1
− 3⋅Γ 1
1+ 1+ 1+ 1+ 1+ 1+
ϖ ϖ ϖ ϖ ϖ ϖ
• Curtosis: α 4 = 2
2
Γ 2
−Γ 1
1+ 1+
ϖ ϖ

• Gráfica de la función de densidad de probabilidad:

Página 16 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

f(x)

w =1
w < 3,6
w = 3,6
w > 3,6

C. MODELO GUMBEL del MÍNIMO (Emil Julius Gumbel, 1891 – 1966):


Dominio: − ∞ ≤ X ≤ ∞
θ” y “β
Parámetros: “θ β”

Estos modelos aparecieron como resultado del estudio de la variable vida de seres
vivientes de una misma especie, y para el estudio del alargamiento hasta la rotura de ciertos
elementos. Para cada caso en particular, se originaron las distribuciones Gumbel del mínimo y
Gumbel del máximo respectivamente.

Se originó en el estudio de la vida de seres vivientes de una misma especie. Se observan


conjuntos de valores y de cada uno de ellos se extraen los valores mínimos, formando un nuevo
conjunto de valores, que forma una distribución de VA. modelada mediante la función Gumbel del
mínimo. Se puede resumir que, su aplicación está orientada a fenómenos de vida cuya única
causa de falla es el desgaste.

Ejemplos de uso: primas de los seguros de vida, vida de animales de una misma especie,
etc..

x−θ x−θ
1 β β
• Función de densidad de Probabilidad: fGm (x ) = ⋅ e ⋅e −e

x −θ
β
• P( VA ≥ x ) GGm (x ) = e − e

• Esperanza Matemática: µ = θ − β ⋅ C ; (“C = 0,5772156649” es la constante de EULER)

• [ ]
HGm (x ) = θ ⋅ 1 − e ( − t ) + β ⋅ Z(t ) ; tener en cuenta que:

UADE – Facultad de Ingeniería Página 17 de 28


2
1 8
(x − θ )
[ ]
− 21 ⋅ 3 t
1 t 5
1
3
3 −
− C ⋅ 1 − e (− t )
3
Z(t ) ≈ ⋅ − ⋅ e y t=e β

2π 2 3

π2
• Varianza: σ 2 = β 2 ⋅ ; Mo = θ ; Me = θ + β ⋅ [ln(ln 2 )]
6

• Asimetría: α 3 = −1,14 ; Curtosis: α 4 = 5,4

• Gráfica de la función de densidad de probabilidad:

f(x)

OTROS MODELOS

A. MODELO GUMBEL del MÁXIMO (Emil Julius Gumbel, 1891 – 1966):


Dominio: − ∞ ≤ X ≤ ∞
θ” y “β
Parámetros: “θ β”

Se observan conjuntos de valores y de cada uno de ellos se extraen los valores máximos,
formando un nuevo conjunto de valores, que forma una distribución de VA. modelada mediante la
función Gumbel del máximo. Se puede resumir que, su aplicación está orientada a fenómenos
donde interesa estudiar los límites de los valores máximos.

Ejemplos de uso: elongación máxima hasta la rotura de los materiales, caudal máximo de
los ríos, precipitaciones máximas en un período, etc..

Página 18 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

x−θ x−θ
1 − β

β
• Función de densidad de Probabilidad: fGM (x ) = ⋅ e ⋅e −e

x−θ

β
• P( VA ≤ x ) FGM (x ) = e − e

• Esperanza Matemática: µ = θ + β ⋅ C ; (“C = 0,5772156649” es la constante de EULER)

• HGM (x ) = θ ⋅ e ( − t ) + C ⋅ β + β ⋅ Z(t ) ; tener en cuenta que:

2
1 8
(x − θ )
[ ]
− 21 ⋅ 3 t
1 t 5
1
3
3 − −
− C ⋅ 1 − e (− t )
3 β
Z(t ) ≈ ⋅ − ⋅ e y t=e
2π 2 3

π2
• Varianza: σ 2 = β 2 ⋅ ; Mo = θ ; Me = θ − β ⋅ [ln(ln 2 )]
6

• Asimetría: α 3 = 1,14 ; Curtosis: α 4 = 5,4

• Gráfica de la función de densidad de probabilidad:

f(x)

B. MODELO de PARETO (Vilfredo Pareto, 1848 – 1923):


Dominio: X ≥ θ ; Parámetros: “b” y “θ
θ”

Este modelo tuvo su origen en la descripción de unidades económicas según su extensión.


Debemos destacar que en los casos de observación fija en el tiempo o de sección trasversal, se
ajusta mejor el modelo log-normal (que estudiaremos más adelante).

UADE – Facultad de Ingeniería Página 19 de 28


Esta distribución permite modelar variables en donde se tiene un valor mínimo de
frecuencia máxima (que es el modo o moda de la distribución). Se observará, luego, que la
distribución log-normal, admite valores por debajo de su modo o moda. Esta VA. no admite valores
por debajo del valor modal " ".

Ejemplos de uso: estudio de la distribución salarial de una empresa, distribución de ventas,


rentas, clasificación de empresas según sus ventas o su número de empleados, etc..

b
b θ
• Función de densidad de Probabilidad: fP (x ) = ⋅
X X

b
θ
• P( VA ≥ x ) GP (x ) =
X

b⋅θ b ⋅ θ2
• Esperanza Matemática: µ = ; Varianza: σ 2 =
b−1 (b − 1)2 ⋅ (b − 2 )
(b −1)
b⋅θ θ
• Hp (x ) = ⋅ 1−
(b − 1) x

2 ⋅ (b + 1) 2
Me = θ ⋅ (2 )
1
• Mo = θ ; b ; Asimetría: α 3 = ⋅ 1−
b−3 b

3 ⋅ (3b 2 + b + 2 ) ⋅ (b − 2 )
• Curtosis: α 4 =
b ⋅ (b − 3 ) ⋅ (b − 4 )

• Gráfica de la función de densidad de probabilidad:


f(x)

Página 20 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

C. MODELO UNIFORME (o RECTANGULAR):


Dominio: a ≤ X ≤ b ; Parámetros: “a” y “b”

En el intervalo comprendido entre “a” y “b”, todos los valores posibles son igualmente
probables

Ejemplos de uso: En el estudio de simulación para la aplicación de la transformada inversa


de la función de densidad de probabilidad correspondiente al modelo en cuestión.

1
• Función de densidad de Probabilidad: fU (x ) =
(b − a)

x−a
• P( VA ≤ x ) FU (x ) =
b−a

a+b (b − a) 2
• Esperanza Matemática: µ = = Me ; Varianza: σ 2 =
2 12

(x − a) ⋅ (x + a)
• HU ( x ) =
2 ⋅ (b − a )

• Mo = a mod al ; Asimetría: α 3 = 0

• Curtosis: α 4 = 3,6

• Gráfica de la función de densidad de probabilidad:

D. MODELO NORMAL (Abraham De Moivre, 1667 – 1754 ; Karl Friedrich Gauss, 1777 –
1855):

Variable Aleatoria “x” ; Dominio: − ∞ ≤ x ≤ ∞


Parámetros: “µ” y “σ”

UADE – Facultad de Ingeniería Página 21 de 28


Muchas VA. responden a este modelo, tales como variables tecnológicas, antropométricas,
y muchas que provienen de procesos controlados. Podemos resumir, en general, cualquier VA.
que presente una distribución simétrica en forma de campana, se ajusta a este modelo. Cabe
aclarar que, por este motivo, muchas VA., que no siguen un comportamiento normal, han sido
tratadas, erróneamente, como VA. normales.

Esta distribución es indudablemente la más importante y la de mayor uso. Es la piedra


angular en la aplicación de la inferencia estadística en el análisis de datos, puesto que las
distribuciones de muchas estadísticas muestrales tienden hacia la distribución normal conforme
crece el tamaño de la muestra. La apariencia gráfica de la distribución es una curva simétrica con
forma de campana, que se extiende sin límite tanto en la dirección positiva como en la negativa.

Esta distribución es de vital importancia por tres razones principales:

Numerosos fenómenos continuos parecen seguirla o se pueden aproximar mediante


ella.
Se puede utilizar como aproximación de otras distribuciones, tanto discretas como
continuas.
Proporciona la base para la inferencia estadística clásica por su relación con el
Teorema Central del Límite (que estudiaremos más adelante).

Ejemplos de uso: datos meteorológicos tales como la temperatura y la precipitación pluvial,


mediciones efectuadas en organismos vivos, calificaciones en pruebas de actitud, mediciones
físicas de partes manufacturadas, errores de instrumentación y de otras desviaciones de la norma
establecidas, etc.
2
1 x−µ
1 −
• Función de densidad de Probabilidad: fN (x ) = ⋅e 2 σ

σ ⋅ 2π

x
• P( VA ≤ x ) FN (x ) = fN (x ) dx
−∞


• P( VA ≥ x ) G N (x ) = fN (x ) dx
x

• µ = Mo = Me

2
x −µ
x−µ σ − 12
σ
• HN (x ) = µ ⋅ φ − ⋅ e
σ 2π

• Asimetría: α 3 = 0 ; Curtosis: α 4 = 3

• Gráfica de la función de densidad de probabilidad:

Página 22 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

f(x)

E. MODELO NORMAL STD (Pierre Simon Laplace, 1749 – 1827):

Variable Aleatoria “Z” ; Dominio: − ∞ ≤ Z ≤ ∞


Parámetros: “µ = 0” y “σ = 1”

Esta distribución sirve para facilitar el cálculo de probabilidades de la distribución normal


general. La VA. de esta distribución "Z", es una transformación de la variable "x" normal general.

De modo que tenemos:

x−µ
• Z=
σ

x−µ
• P( VA ≤ Z) FNS (Z ) = Φ(Z ) = Φ ≡ FN (x ) ; Está tabulada.
σ

x−µ
• P( VA ≥ Z) GNS (Z ) = 1 − Φ(Z ) = 1 − Φ ≡ GN (x)
σ

• µ = Mo = Me = 0 ; σ2 = 1

• HN ( x ) = −
1

{
⋅ e [−
1
2 ( Z )2 ]
}
• Gráfica de la función de densidad de probabilidad:

UADE – Facultad de Ingeniería Página 23 de 28


f(x)

F. MODELO LOG–NORMAL: Dominio: X ≥ 0 ; Parámetros: “ m” y “ D”

Una VA. sigue la distribución log - normal, si su logaritmo sigue la distribución normal. Esta
distribución rige cuando las variaciones de la variable se observan entre distintos individuos o
unidades experimentales en un momento fijo del tiempo, y no sobre un individuo a través del
tiempo. Por eso, se la define como variable trasversal o de sección trasversal.

El ln x = y, y la VA. y tiene un comportamiento normal.

Ejemplos de uso: los ingresos de grandes grupos de individuos, en general cualquier


variable económica o financiera de corte trasversal, consumos, salarios (donde se admite valores
por debajo del modo), saldos de cuenta corriente, disolución de gases en gases, etc..
2
1 ln X − m
1 − ⋅
• Función de densidad de Probabilidad: fLN ( x ) = ⋅e 2 D

X ⋅ D ⋅ 2π

ln X − m
• P( VA ≤ x ) FLN (x ) = Φ
D

D2

[ ]
m+
Varianza: σ 2 = e (2m+D ) ⋅ e (D ) − 1
2 2 2
• Esperanza Matemática: µ = e ;

ln x − m
• HLN (x ) = µ ⋅ φ −D
D

Página 24 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

µ 2
Mo = e (m−D ) ; Me = e m ; m = ln ; D 2 = ln 1 + σ
2

2 µ
1+ σ
µ

• [ 2
]
Asimetría: α 3 = 2 + e (D ) ⋅ e (D ) − 1
2

Curtosis: α 4 = e (4⋅D ) + 2 ⋅ e (3⋅D ) + 3 ⋅ e (2⋅D ) − 3


2 2 2

• Gráfica de la función de densidad de probabilidad:

f(x)

PROCESO DE POISSON (Simeón Denis Poisson, 1781 – 1840):

Parámetro: Número de fallas promedio por unidad de continuo (λ)

Es un proceso donde los sucesos, acontecimientos puntuales o fallas, se generan al azar en


un medio continuo de observación (t). La probabilidad de que ocurra el suceso o acontecimiento en
un intervalo prefijado del medio continuo, sólo depende de la porción del intervalo y no de su
ubicación dentro del medio observado. Será tan probable que el acontecimiento se produzca en la
primera porción del medio observado como en la última porción, como en cualquier porción
elegida.

Ejemplos de procesos de Poisson: fallas o roturas accidentales en el tiempo, fallas puntuales


en medios continuos, llegadas a un puesto o unidad de servicio, llamadas recibidas, clientes
atendidos, arribos a un aeropuerto o estación Terminal, pedidos, etc.

UADE – Facultad de Ingeniería Página 25 de 28


A. MODELO de POISSON: Variable Aleatoria: r = Cantidad de fallas en “t”
Dominio: 0 ≤ r ≤ ∞ ; Parámetros: “t” y “λ”
Se trabaja con Parámetro “m = λ . t”

e − m ⋅ mr
• P( VA = r ) Ppo (r / m) =
r!

r
e −m ⋅ m x
• P( VA ≤ r ) Fpo (r / m) =
x =0 x!


e −m ⋅ mx
• P( VA ≥ r ) Gpo (r / m) =
x =r x!

• Esperanza Matemática: µ = m = λ ⋅ t ; Varianza: σ 2 = m = λ ⋅ t

• Hpo (r ) = m ⋅ Fpo (r − 1 / m)

• Moda: (m − 1) < Mo < (m)

1 1
• Asimetría: α 3 = ; Curtosis: α 4 =
m m

Aproximación por Distribución Normal: Condición m > 15

r + 0,5 − m r − 0,5 − m
• Ppo (r / m) ≈ φ −φ
m m

r + 0,5 − m
• Fpo (r / m) ≈ φ
m

r − 0,5 − m
• G po (r / m) ≈ 1 − φ
m

B. MODELO GAMMA o de ERLANG (E. Molina, 1915 ; A. Erlang, 1920):


Dominio: X ≥ 0 ; Parámetros: “ r” y “ λ”

Este modelo tiene un análisis similar que el modelo de Pascal en el proceso de Bernoulli.
Así como en el modelo de Poisson, la VA. es el número de acontecimientos puntuales "r" y sus
parámetros son " " y la unidad de continuo "t", en este modelo el objetivo de estudio es el continuo
necesario para que se den ciertos acontecimientos puntuales.

Página 26 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería


TEORÍA de la PROBABILIDAD Y MODELOS DE
ESTADÍSTICA GENERAL Ing. Sergio Aníbal Dopazo

Ejemplos de uso de este modelo: tráfico en líneas telefónicas, los metros de tela que
contengan cierto número de fallas, tiempo necesario para la falla de cierto número de elementos,
tiempo necesario para que se produzcan cierto número de arribos, precipitaciones en un
determinado lapso de tiempo, etc..

λ
⋅ (λ ⋅ X ) ⋅ e − ( λ ⋅ X )
r −1
• Función de densidad de Probabilidad: fg (x ) =
Γ(r )

1
λ⋅X 3
1
• P( VA ≤ x ) Fg (x / r ; λ ) = G po (r / m = λ ⋅ X ) ≈ Φ 3 ⋅ r ⋅ + −1
r 9⋅r

r r
• Esperanza Matemática: µ = ; Varianza: σ 2 =
λ λ2

r
• Hg ( x ) = ⋅ Fg ( x / r + 1 ; λ )
λ

3
r −1 r 1
• Mo = ; Me = ⋅ 1 −
λ λ 9⋅r

2 6
• Asimetría: α 3 = ; Curtosis: α 4 = 3 +
r r

• Gráfica de la función de densidad de probabilidad:

f(x)

UADE – Facultad de Ingeniería Página 27 de 28


C. MODELO EXPONENCIAL: Modelo ya desarrollado en páginas 14 y 15

• P( VA ≥ x ) GEXP (x ) = e − λX = Ppo (r = 0 / m = λ ⋅ x )

APROXIMACIONES DEL MODELO BINOMIAL

Aproximación por Distribución Normal: Condición (n ⋅ p ) > 10 y [n ⋅ (1 − p)] > 10

r + 0,5 − np r − 0,5 − np
• Pb (r / n ; p) ≈ φ −φ
np(1 − p) np(1 − p)

r + 0,5 − np
• Fb (r / n ; p) ≈ φ
np(1 − p)

r − 0,5 − np
• G b (r / n ; p) ≈ 1 − φ
np(1 − p)

Aproximación por Distribución de Poisson: Condición p ≤ 0,1

• Pb (r / n ; p) ≈ Ppo (r / m = np)

• Fb (r / n ; p) ≈ Fpo (r / m = np)

• G b (r / n ; p) ≈ G po (r / m = np)

Aproximación por Criterio de Mermoz: (Se aplica cuando se cumplen las 2 condiciones anteriores o
cuando no se cumplen ninguna de las 2 condiciones
anteriores)

0,23 ⋅ (1 − θ)2
Condición no = ; siendo θ = Mín [p ; 1 − p] ; ∴ θ ≤ 0,5
θ3

• Si se cumple que: n < no uso Poisson como aproximaci ón


• Si se cumple que: n > no uso Normal como aproximaci ón

Página 28 de 28 Ing. Sergio A. Dopazo – UADE – Facultad de Ingeniería

Anda mungkin juga menyukai