DEFINICIONES DE PROBABILIDAD
Pese a ser una definición circular (se basa en el concepto que se quiere definir, al
mencionar la equiprobabilidad de los casos posibles), esta definición permitió el
desarrollo inicial de la teoría de las probabilidades.
Dado un experimento, "E" (el espacio muestral de referencia o estudio) y "A y B" (eventos
o posibles sucesos dentro del espacio muestral); el objetivo de la probabilidad es asignar a cada
evento un número, que es una función "P" (función de probabilidad de los sucesos). Se define a
P(A) como la probabilidad de que ocurra el suceso o evento A en la realización de un experimento,
cuyo resultado será una medida precisa de la probabilidad de que A ocurra (también se la
denomina probabilidad marginal). Esta probabilidad se visualiza en el espacio muestral de
referencia como el porcentaje de ocupación que tiene el conjunto del evento posible dentro de ese
espacio.
AXIOMAS DE LA PROBABILIDAD
Para asegurarse de que las asignaciones de probabilidad sean consistentes con nuestras
nociones intuitivas de probabilidad, todas las asignaciones deberán satisfacer los siguientes
axiomas (propiedades básicas):
REGLA de la SUMA: ( = o )
• Sucesos Incompatibles: P( A ∪ B) = P( A ) + P(B)
• Sucesos Compatibles: P( A ∪ B) = P( A ) + P(B) − P( A ∩ B)
REGLA de la MULTIPLICACIÓN: ( = y )
• Sucesos Compatibles Independientes: P( A ∩ B) = P( A) ⋅ P(B)
• Sucesos Compatibles Condicionados: P( A ∩ B) = P( A ) ⋅ P(B A ) = P(B) ⋅ P( A B)
OTRAS REGLAS:
• Probabilidad Condicional: P A B =( ) P( A ∩ B)
P(B)
• P( A ) = 1 − P( A )
• Lema de Morgan: P( A ∪ B) = 1 − P( A ∩ B) (se generaliza para la unión de más de 2)
• ( B) = 1 − P A B
PA
• P( A ) = P( A ∩ B) + P( A ∩ B)
• P(B) = P( A ∩ B) + P( A ∩ B)
• Sucesos Condicionados:
P( A ∩ B ∩ C ∩ ...) = P( A) ⋅ P(B A ) ⋅ P(C / A ∩ B) ⋅ P(... / A ∩ B ∩ C ∩ ...)
• Sucesos Compatibles:
P( A ∪ B ∪ C) = P( A ) + P(B) + P(C) − P( A ∩ B) − P( A ∩ C) − P(B ∩ C) + P( A ∩ B ∩ C)
Para la unión de más de 3 sucesos compatibles hay que seguir la lógica planteada, lo
cual si la cantidad de sucesos es considerable, la regla resulta engorrosa; por ello, en
estas circunstancias se recomienda utilizar el “Lema de Morgan”. Veamos un ejemplo
para la unión de 5 sucesos compatibles:
P( A ∪ B ∪ C ∪ D ∪ E) = P( A ) + P(B) + P(C) + P(D) + P(E) − P( A ∩ B) − P( A ∩ C) −
− P( A ∩ D) − P( A ∩ E) − P(B ∩ C) − P(B ∩ D) − P(B ∩ E) − P(C ∩ D) − P(C ∩ E) − P(D ∩ E) +
+ P( A ∩ B ∩ C) + P( A ∩ B ∩ D) + P( A ∩ B ∩ E) + P( A ∩ C ∩ D) + P( A ∩ C ∩ E) +
+ P( A ∩ D ∩ E) + P(B ∩ C ∩ D) + P(B ∩ C ∩ E) + P(B ∩ D ∩ E) + P(C ∩ D ∩ E) −
− P( A ∩ B ∩ C ∩ D) − P( A ∩ B ∩ C ∩ E) − P( A ∩ B ∩ D ∩ E) − P( A ∩ C ∩ D ∩ E) −
− P(B ∩ C ∩ D ∩ E) + P( A ∩ B ∩ C ∩ D ∩ E)
P(A I ) ⋅ P S
AI AI
• P =
S
P(A I ) ⋅ P S
AI
• Siendo: Ai ,Sucesos (incompatibles entre si) Causa o Causales del Suceso S, el cual es
conocido u bien es un suceso ocurrido.
AI
• P : Probabilidad de la Causa A posteriori a la ocurrencia del Suceso S
S
(probabilidad de que la causa sea responsable habiendo ocurrido el suceso S.
CONSIDERACIONES FINALES
El concepto de una variable aleatoria nos permite pasar de los resultados experimentales a
una función numérica de los resultados. Una Variable Aleatoria (VA.) "X" es una regla bien
definida para asignar valores numéricos a todos los resultados posibles de un experimento (regla
mediante la cual a cada uno de los resultados de un experimento se le asocia un número).
También se la puede definir como una descripción numérica del resultado de un experimento (la
VA. asocia un valor numérico con cada resultado posible, por lo tanto es una regla de asociación).
El valor numérico de la VA. depende del resultado del experimento.
"X" es variable porque son posibles diferentes valores numéricos. Es aleatoria porque el
valor observado depende de cuál de los posibles resultados experimentales aparezca, y, además,
porque involucra la probabilidad de los resultados del espacio muestral. "X" es una función de valor
real definida sobre el espacio muestral, de manera que transforma todos los posibles resultados
del espacio muestral en cantidades numéricas.
Se pueden definir VA. cuyos números de posibles valores es finito, o VA. cuyos valores son
infinitos (sean contables o no), ya que una VA. es una caracterización cuantitativa de los
resultados de un espacio muestral. Dependiendo de los valores numéricos que asume, las VA. se
pueden clasificar en VA. Discretas y VA. Continuas.
"X", es una VA. discreta si el número de valores que puede tomar es contable (ya sea finito
o infinito), y si éstos pueden arreglarse en una secuencia que corresponde con los enteros
positivos. En general, todo lo que se quiere expresar de manera contable (cantidad de unidades
defectuosas, cantidad de vehículos que arriban o parten, etc.), es una VA. discreta.
Máx
• P( VA = r ) P(r ) ; [P(r )] = 1
i
i = mín
r Máx
• P( VA ≤ r ) F(r ) = P(r ) ; P( VA ≥ r ) G(r ) = P(r )
mín r
B
• P( A ≤ r ≤ B) = P(r ) = F(B) − F( A − 1) = G( A ) − G(B + 1)
r=A
Máx
• Esperanza Matemática Total: E(r ) = µ = [r ⋅ P(r )]
r = mín
r
• Expectativa Parcial Izquierda: H(r ) = [r ⋅ P(r )]
mín
Máx
• Expectativa Parcial Derecha: J(r ) = [r ⋅ P(r )]
r
• µ = H(r ) + J(r + 1) = J(r ) + H(r − 1) , se demuestra que una expectativa se puede obtener
a partir de la otra.
H(r ) J(r )
• Promedios Truncados: µ T ( VA ≤ r ) = ; µ T ( VA ≥ r ) =
F(r ) G(r )
H(B) − H( A − 1) J( A ) − J(B + 1)
µT ( A ≤r ≤B) = =
F(B) − F( A − 1) G( A ) − G(B + 1)
[r ]
∗ P(r ) − (µ 2 ) ;
Máx
• V (r ) = σ 2 = 2
D(r ) = σ = σ 2
r = mín
[P(r ) ⋅ (r − µ) ] [P(r ) ⋅ (r − µ) ]
Máx Máx
3 4
• As = α 3 = r = mín
; Ku = α 4 = r = mín
σ3 σ4
2 2 2
R = ax ± y ± b µR = a ⋅ µ x ± µ y ± b ; σR = a2 ⋅ σ x + σ y
2 2 2 2 2 2 2
R = x⋅y µR = µ x ⋅ µ y ; σR = σ x ⋅ σ y + µ x ⋅ σ y + µ y ⋅ σ x
Ejemplos de procesos de Bernoulli: tirar un dado equilibrado, sacar elementos con reposición
de una caja, sacar muestras de elementos finitos de un proceso productivo o un proceso de la
naturaleza (muestreo para el control de procesos), sacar una muestra de un lote de tamaño
infinito, todo proceso de experimentación dónde la probabilidad del éxito buscado sea constante,
etc.
n
⋅ p r ⋅ (1 − p )
( n− r )
• P( VA = r ) Pb (r / n ; p) =
r
r
n
• P( VA ≤ r ) Fb (r / n ; p) = ⋅ p x ⋅ (1 − p) (n− x )
x=0 x
n
n
• P( VA ≥ r ) G b (r / n ; p) = ⋅ p x ⋅ (1 − p) (n− x )
x =r x
• Hb (r ) = n ⋅ p ⋅ Fb (r − 1 / n − 1 ; p)
(1 − p) − p 1 − 6 ⋅ p ⋅ (1 − p)
• Asimetría: α 3 = ; Curtosis: α 4 =
n ⋅ p ⋅ (1 − p) n ⋅ p ⋅ (1 − p)
n−1 r
⋅ p r ⋅ (1 − p )
( n− r )
• P( VA = n) Ppa (n / r ; p) = = ⋅ Pb (r / n ; p)
r −1 n
n
x−1
• P( VA ≤ n) Fpa (n / r ; p) = ⋅ p r ⋅ (1 − p) ( x −r ) = G b (r / n ; p)
x =r r −1
∞
x −1
• P( VA ≥ n) G pa (n / r ; p) = ⋅ p r ⋅ (1 − p) ( x −r ) = Fb (r − 1 / n − 1 ; p)
x =n r −1
r r ⋅ (1 − p)
• Esperanza Matemática: µ = ; Varianza: σ 2 =
p p2
r
• Hpa (n) = ⋅ Fpa (n + 1 / r + 1 ; p)
p
2⋅p p2 + 6 ⋅ p + 6
• Asimetría: α 3 = ; Curtosis: α 4 =
r ⋅ (1 − p) r ⋅p
Pgeo (n / 1 ; p) = p ⋅ (1 − p )
(n − 1)
• P( VA = n)
[p ⋅ (1 − p) ] = G
n
• P( VA ≤ n) Fgeo (n / 1 ; p) = ( x − 1)
b (1 / n ; p)
x =1
[p ⋅ (1 − p) ] = (1 − p)
∞
• P( VA ≥ n) G geo (n / 1 ; p) = ( x − 1) n−1
x =n
1 (1 − p)
• Esperanza Matemática: µ = ; Varianza: σ 2 =
p p2
2⋅p p2 + 6 ⋅ p + 6
• Asimetría: α 3 = ; Curtosis: α 4 =
(1 − p) (1 − p)
D. MODELO MULTINOMIAL: Ídem al Modelo Binomial, pero se realizan pruebas con más de
dos resultados posibles.
k
Variables Aleatorias: “ r1 ; r2 ; … ; rk “ ; ri = n
r =1
k
Parámetros: “n” y “ p1 ; p2 ; … ; pk “ ; pi = 1
p =1
i =1 ri !
PROCESO HIPERGEOMÉTRICO
Ejemplos de procesos Hipergeométricos: números salidos en una lotería, sacar elementos sin
reposición de una caja, sacar una muestra de un lote de tamaño finito (muestreo para aceptación
de un lote), todo proceso de experimentación dónde la probabilidad del éxito buscado en cada
experimento condicione a la probabilidad del éxito del siguiente experimento (o sea que la
probabilidad del éxito no es constante), etc.
A. MODELO HIPERGEOMÉTRICO
R N−R
⋅
r n−r
• P( VA = r ) Ph (r / n ; N ; R ) =
N
n
R N−R
⋅
r
x n− x
• P( VA ≤ r ) Fh (r / n ; N ; R ) =
x = mín N
n
R N−R
⋅
Máx
x n−x
• P( VA ≥ r ) G h (r / n ; N ; R ) =
x =r N
n
R
• Esperanza Matemática: µ = n ⋅
N
R
• Hh (r ) = n ⋅ ⋅ Fh (r − 1 / n − 1 ; N − 1 ; R − 1)
N
R R N−n
• Varianza: σ 2 = n ⋅ ⋅ 1− ⋅
N N N−1
•
(nR − N + R + n − 1) (nR + R + n + 1)
Moda: < Mo <
(N + 2) (N + 2 )
• (
Ph (r / n ; N ; R ) ≈ Pb r / n ; p = R
N
)
• (
Fh (r / n ; N ; R ) ≈ Fb r / n ; p = R
N
)
UADE – Facultad de Ingeniería Página 11 de 28
• (
G h (r / n ; N ; R ) ≈ G b r / n ; p = R
N
)
R N−R
⋅
r r n−r
• P( VA = n) Ppah (n / r ; N ; R ) = ⋅
n N
n
R N−R
⋅
R
r r x −r
• P( VA ≤ n) Fpah (n / r ; N ; R ) = ⋅ = G h (r / n ; N ; R )
n= r x N
x
R N−R
⋅
Máx
r r x −r
• P( VA ≥ n) G pah (n / r ; N ; R ) = ⋅ = Fh (r − 1 / n − 1 ; N ; R )
x =n x N
x
r ⋅ (N + 1)
• Esperanza Matemática: µ =
(R + 1)
r ⋅ (N + 1)
• Hpah (r ) = ⋅ Fpah (n + 1 / r + 1 ; N + 1 ; R + 1)
(R + 1)
(r + 1) ⋅ (N + 2)
• Varianza: σ 2 = µ ⋅ −1 − µ2
(R + 2)
"X", es una VA. continua si sus valores consisten en uno o más intervalos de la recta de los
reales. Es continua, si puede tomar cualquier valor numérico en un intervalo o conjuntos de
intervalos. En general, todos los resultados experimentales que se basan en escalas de medición
(tiempo, peso, distancia, temperatura, etc.), son variables aleatorias continuas.
∞
• f (x ) dx = 1
−∞
x ∞
• P( VA ≤ x ) F(x ) = f (x ) dx ; P( VA ≥ x ) G(x ) = f (x ) dx
−∞ x
• F(x ) + G(x ) = 1
B
• P( A ≤ r ≤ B) = f (x ) dx = F(B) − F( A) = G( A) − G(B)
A
∞
• Esperanza Matemática Total: E(x ) = µ = x ⋅ f (x ) dx
−∞
x
• Expectativa Parcial Izquierda: H( x ) = x ⋅ f ( x ) dx
−∞
∞
• Expectativa Parcial Derecha: J(x ) = x ⋅ f (x ) dx
x
• µ = H(x ) + J(x ) , se demuestra que una expectativa se puede obtener a partir de la otra.
H(x ) J(x )
• Promedios Truncados: µ T ( VA ≤ x ) = ; µ T ( VA ≥ x ) =
F(x ) G(x )
H(B) − H( A ) J( A) − J(B)
µT( A ≤ x ≤B) = =
F(B) − F( A ) G( A) − G(B)
−∞
}
x 2 ⋅ f (x ) dx − (µ 2 ) ; D(r ) = σ = σ 2
(x − µ )3 ⋅ f (x ) dx (x − µ )4 ⋅ f (x ) dx
∞ ∞
• As = α 3 = −∞
; Ku = α 4 = −∞
σ3 σ4
2 2 2
R = ax ± y ± b µR = a ⋅ µ x ± µ y ± b ; σR = a2 ⋅ σ x + σ y
2 2 2 2 2 2 2
R = x⋅y µR = µ x ⋅ µ y ; σR = σ x ⋅ σ y + µ x ⋅ σ y + µ y ⋅ σ x
La Variable Aleatoria “x” mide la duración hasta la falla del elemento; o bien, según el
Modelo en cuestión, la Variable Aleatoria mide la resistencia hasta la rotura del elemento.
Este modelo rige fundamentalmente para la duración de elementos que fallan a la Poisson.
La variable es la extensión de continuo entre fallas consecutivas de un proceso de Poisson (el
mismo se puede estudiar como un caso particular de los modelos: GAMMA y WEIBULL).
Esta VA. estudia el tiempo de vida de un elemento, es decir, que la misma proporciona un
modelo útil para observar el tiempo de falla del elemento. Este modelo es utilizado en la llamada
función de confiabilidad, donde la tasa de falla del elemento en cuestión es constante. Si la tasa de
falla no es constante, deberíamos utilizar al modelo de Weibull general. Debemos aclarar que en el
modelo Exponencial, las fallas de los elementos se producen exclusivamente por el azar, no así,
en el modelo de Weibull, donde en las causas de las fallas de los elementos interviene el desgaste
y la fatiga. Se demuestra que el modelo EXPONENCIAL, no tiene memoria. Esta propiedad,
"carencia de memoria", se explica porque la probabilidad de ocurrencia de eventos presentes o
futuros no depende de los eventos que hayan ocurrido en el pasado. De esta forma, la
probabilidad de que una unidad falle en un lapso específico depende, nada más, de la duración de
este lapso, y no del tiempo en que la unidad ha estado funcionando o en operación.
• P( VA ≥ x ) GEXP ( x ) = e − λX
1
• Esperanza Matemática (En fenómenos de vida: MTBF = MTTF): µ =
λ
1 ln 2
• Varianza: σ 2 = ; Mo = 0 ; Me =
λ 2
λ
1
• HEXP (x ) = ⋅ Fg (x / 2 ; λ )
λ
• Asimetría: α 3 = 2 ; Curtosis: α 4 = 9
f(x)
Es un modelo que ajusta mejor a los problemas de tiempo de vida, sobre todo, si la tasa de
falla de los elementos, no permanece constante a causa del desgaste o fatiga de ellos; podemos
resumir que este modelo es una generalización del modelo exponencial para causas variadas.
Debemos aclarar, que este modelo, no descarta la posibilidad de que la muerte del elemento en
cuestión (que se desgasta con el tiempo) se produzca por el mero azar. El origen de este modelo,
se debe al estudio y demostración de que el esfuerzo al que se someten los materiales puede
modelarse de manera adecuada mediante el empleo de esta distribución.
ϖ
− X
β
• P( VA ≥ x ) G W (x) = e
2
• Varianza: σ 2 = β 2 ⋅ Γ 2
− Γ 1
1+ 1+
ϖ ϖ
ω
x 1
• H w (x ) = β ⋅ Γ (1+1 ω ) ⋅ Fg / r = 1+ ;λ =1
β ω
ϖ
1
Me = β ⋅ (ln 2 )
1
• Mo = 0 ( si ϖ ≤ 1 ) ; Mo = β ⋅ 1 − ; ( si ϖ ≥ 1 ) ; ϖ
ϖ
3
Γ 3
− 3⋅Γ 2
⋅Γ 1
+ 2⋅Γ 1
1+ 1+ 1+ 1+
ϖ ϖ ϖ ϖ
• Asimetría: α 3 = 3
2
2
Γ 2
−Γ 1
1+ 1+
ϖ ϖ
2 4
Γ 4
− 4⋅Γ 3
⋅Γ 1
+ 6⋅Γ 2
⋅Γ 1
− 3⋅Γ 1
1+ 1+ 1+ 1+ 1+ 1+
ϖ ϖ ϖ ϖ ϖ ϖ
• Curtosis: α 4 = 2
2
Γ 2
−Γ 1
1+ 1+
ϖ ϖ
f(x)
w =1
w < 3,6
w = 3,6
w > 3,6
Estos modelos aparecieron como resultado del estudio de la variable vida de seres
vivientes de una misma especie, y para el estudio del alargamiento hasta la rotura de ciertos
elementos. Para cada caso en particular, se originaron las distribuciones Gumbel del mínimo y
Gumbel del máximo respectivamente.
Ejemplos de uso: primas de los seguros de vida, vida de animales de una misma especie,
etc..
x−θ x−θ
1 β β
• Función de densidad de Probabilidad: fGm (x ) = ⋅ e ⋅e −e
x −θ
β
• P( VA ≥ x ) GGm (x ) = e − e
• [ ]
HGm (x ) = θ ⋅ 1 − e ( − t ) + β ⋅ Z(t ) ; tener en cuenta que:
2π 2 3
π2
• Varianza: σ 2 = β 2 ⋅ ; Mo = θ ; Me = θ + β ⋅ [ln(ln 2 )]
6
f(x)
OTROS MODELOS
Se observan conjuntos de valores y de cada uno de ellos se extraen los valores máximos,
formando un nuevo conjunto de valores, que forma una distribución de VA. modelada mediante la
función Gumbel del máximo. Se puede resumir que, su aplicación está orientada a fenómenos
donde interesa estudiar los límites de los valores máximos.
Ejemplos de uso: elongación máxima hasta la rotura de los materiales, caudal máximo de
los ríos, precipitaciones máximas en un período, etc..
x−θ x−θ
1 − β
−
β
• Función de densidad de Probabilidad: fGM (x ) = ⋅ e ⋅e −e
x−θ
−
β
• P( VA ≤ x ) FGM (x ) = e − e
2
1 8
(x − θ )
[ ]
− 21 ⋅ 3 t
1 t 5
1
3
3 − −
− C ⋅ 1 − e (− t )
3 β
Z(t ) ≈ ⋅ − ⋅ e y t=e
2π 2 3
π2
• Varianza: σ 2 = β 2 ⋅ ; Mo = θ ; Me = θ − β ⋅ [ln(ln 2 )]
6
f(x)
b
b θ
• Función de densidad de Probabilidad: fP (x ) = ⋅
X X
b
θ
• P( VA ≥ x ) GP (x ) =
X
b⋅θ b ⋅ θ2
• Esperanza Matemática: µ = ; Varianza: σ 2 =
b−1 (b − 1)2 ⋅ (b − 2 )
(b −1)
b⋅θ θ
• Hp (x ) = ⋅ 1−
(b − 1) x
2 ⋅ (b + 1) 2
Me = θ ⋅ (2 )
1
• Mo = θ ; b ; Asimetría: α 3 = ⋅ 1−
b−3 b
3 ⋅ (3b 2 + b + 2 ) ⋅ (b − 2 )
• Curtosis: α 4 =
b ⋅ (b − 3 ) ⋅ (b − 4 )
En el intervalo comprendido entre “a” y “b”, todos los valores posibles son igualmente
probables
1
• Función de densidad de Probabilidad: fU (x ) =
(b − a)
x−a
• P( VA ≤ x ) FU (x ) =
b−a
a+b (b − a) 2
• Esperanza Matemática: µ = = Me ; Varianza: σ 2 =
2 12
(x − a) ⋅ (x + a)
• HU ( x ) =
2 ⋅ (b − a )
• Mo = a mod al ; Asimetría: α 3 = 0
• Curtosis: α 4 = 3,6
D. MODELO NORMAL (Abraham De Moivre, 1667 – 1754 ; Karl Friedrich Gauss, 1777 –
1855):
σ ⋅ 2π
x
• P( VA ≤ x ) FN (x ) = fN (x ) dx
−∞
∞
• P( VA ≥ x ) G N (x ) = fN (x ) dx
x
• µ = Mo = Me
2
x −µ
x−µ σ − 12
σ
• HN (x ) = µ ⋅ φ − ⋅ e
σ 2π
• Asimetría: α 3 = 0 ; Curtosis: α 4 = 3
f(x)
x−µ
• Z=
σ
x−µ
• P( VA ≤ Z) FNS (Z ) = Φ(Z ) = Φ ≡ FN (x ) ; Está tabulada.
σ
x−µ
• P( VA ≥ Z) GNS (Z ) = 1 − Φ(Z ) = 1 − Φ ≡ GN (x)
σ
• µ = Mo = Me = 0 ; σ2 = 1
• HN ( x ) = −
1
2π
{
⋅ e [−
1
2 ( Z )2 ]
}
• Gráfica de la función de densidad de probabilidad:
Una VA. sigue la distribución log - normal, si su logaritmo sigue la distribución normal. Esta
distribución rige cuando las variaciones de la variable se observan entre distintos individuos o
unidades experimentales en un momento fijo del tiempo, y no sobre un individuo a través del
tiempo. Por eso, se la define como variable trasversal o de sección trasversal.
X ⋅ D ⋅ 2π
ln X − m
• P( VA ≤ x ) FLN (x ) = Φ
D
D2
[ ]
m+
Varianza: σ 2 = e (2m+D ) ⋅ e (D ) − 1
2 2 2
• Esperanza Matemática: µ = e ;
ln x − m
• HLN (x ) = µ ⋅ φ −D
D
µ 2
Mo = e (m−D ) ; Me = e m ; m = ln ; D 2 = ln 1 + σ
2
•
2 µ
1+ σ
µ
• [ 2
]
Asimetría: α 3 = 2 + e (D ) ⋅ e (D ) − 1
2
f(x)
e − m ⋅ mr
• P( VA = r ) Ppo (r / m) =
r!
r
e −m ⋅ m x
• P( VA ≤ r ) Fpo (r / m) =
x =0 x!
∞
e −m ⋅ mx
• P( VA ≥ r ) Gpo (r / m) =
x =r x!
• Hpo (r ) = m ⋅ Fpo (r − 1 / m)
1 1
• Asimetría: α 3 = ; Curtosis: α 4 =
m m
r + 0,5 − m r − 0,5 − m
• Ppo (r / m) ≈ φ −φ
m m
r + 0,5 − m
• Fpo (r / m) ≈ φ
m
r − 0,5 − m
• G po (r / m) ≈ 1 − φ
m
Este modelo tiene un análisis similar que el modelo de Pascal en el proceso de Bernoulli.
Así como en el modelo de Poisson, la VA. es el número de acontecimientos puntuales "r" y sus
parámetros son " " y la unidad de continuo "t", en este modelo el objetivo de estudio es el continuo
necesario para que se den ciertos acontecimientos puntuales.
Ejemplos de uso de este modelo: tráfico en líneas telefónicas, los metros de tela que
contengan cierto número de fallas, tiempo necesario para la falla de cierto número de elementos,
tiempo necesario para que se produzcan cierto número de arribos, precipitaciones en un
determinado lapso de tiempo, etc..
λ
⋅ (λ ⋅ X ) ⋅ e − ( λ ⋅ X )
r −1
• Función de densidad de Probabilidad: fg (x ) =
Γ(r )
1
λ⋅X 3
1
• P( VA ≤ x ) Fg (x / r ; λ ) = G po (r / m = λ ⋅ X ) ≈ Φ 3 ⋅ r ⋅ + −1
r 9⋅r
r r
• Esperanza Matemática: µ = ; Varianza: σ 2 =
λ λ2
r
• Hg ( x ) = ⋅ Fg ( x / r + 1 ; λ )
λ
3
r −1 r 1
• Mo = ; Me = ⋅ 1 −
λ λ 9⋅r
2 6
• Asimetría: α 3 = ; Curtosis: α 4 = 3 +
r r
f(x)
• P( VA ≥ x ) GEXP (x ) = e − λX = Ppo (r = 0 / m = λ ⋅ x )
r + 0,5 − np r − 0,5 − np
• Pb (r / n ; p) ≈ φ −φ
np(1 − p) np(1 − p)
r + 0,5 − np
• Fb (r / n ; p) ≈ φ
np(1 − p)
r − 0,5 − np
• G b (r / n ; p) ≈ 1 − φ
np(1 − p)
• Pb (r / n ; p) ≈ Ppo (r / m = np)
• Fb (r / n ; p) ≈ Fpo (r / m = np)
• G b (r / n ; p) ≈ G po (r / m = np)
Aproximación por Criterio de Mermoz: (Se aplica cuando se cumplen las 2 condiciones anteriores o
cuando no se cumplen ninguna de las 2 condiciones
anteriores)
0,23 ⋅ (1 − θ)2
Condición no = ; siendo θ = Mín [p ; 1 − p] ; ∴ θ ≤ 0,5
θ3