Anda di halaman 1dari 362

Procesos

Estocásticos
para
Ingeniería

MATLAB

Luis Felipe Figueroa


2018

Licenciado en Ciencias c.m. Matemática,


Facultad de Ciencias, Universidad de Chile
Magister en Estadística Matemática,
CIENES-Universidad de Chile
Doctor en Ciencias de la Ingeniería Industrial,
Área Investigación Operativa-Modelamiento Estadístico, Coordinación de Programas de
Posgrado en Ingeniería -COPPE, Universidad Federal do Rio de Janeiro, UFRJ- Brasil.

Académico del Departamento de:


- Matemática, Facultad de Ciencia:
Instituto de Matemática-IMA Pontificia Universidad Católica de Valparaíso (1978-1979),
Universidad de Chile –Sede Valparaíso (1978-1979),
Pontificia Universidad Católica del Norte – Sede Arica (1980)
Universidad de Tarapacá (1981-1982),
Universidad Técnica Federico Santa María (1983-1984),
Universidad de Santiago de Chile (1983-1987).
- Ingeniería Nuclear, COPPE-UFRJ (1991)
- Matemática y Ciencia de la Computación, Universidad de Santiago de Chile (1992 a la fecha)
PREFACIO
El presente texto, desarrolla los contenidos, de la asignatura que impartiera durante el

año 2017 para los programas de pos-grado en Ingeniería Eléctrica y Telecomunicaciones,

que ofrece el Departamento de Ingeniería Eléctrica de la Facultad de Ingeniería de

nuestra Universidad.

El lector, encontrará en los primeros capítulos, gran parte de los elementos que

constituyen los cursos de Estadística para las diversas carreras de las distintas facultades

de nuestra Universidad, con aplicaciones a través de MATLAB y su paquete de

herramientas Simulink; software de uso habitual en la mayoría de las otras asignaturas de

estos programas de estudio, lo cual muestra lo innecesario para estos propósitos, de

recurrir a otras herramientas computacionales. Otorgando, mayor énfasis en la

presentación de los elementos teóricos, operacionales y prácticos, que sirven de base

para el Análisis de Filas, dejando los capítulo finales del texto para su discusión.

De esta manera, se ha separado el Libro en tres secciones claramente establecidas:

- La Primera Parte, consta de tres capítulos, orientados a describir: la concepción que

en nuestro ámbito que formalmente se efectúa, respecto de los fenómenos de la

naturaleza, características de interés, el cómo identificar, evaluar, procesar y apreciar

la información disponible (Estadística Descriptiva), además de establecer la forma

(Espacio de Probabilidad) y modelamiento (Transformaciones Aleatorias), para

cuantificar la ocurrencia de resultados de un experimento.

- La Segunda Parte, también consta de tres capítulos, pero orientados a proporcionar

los elementos que sirven de base para la toma decisiones, al disponer de información
parcial: como efectuar y apreciar la identificación de parámetros ( Estimación

Puntual), el situar con gran certeza los parámetros (Regiones Confidenciales) y el

como analizar conjeturas respecto de un cierto universo en estudio.

- La Parte Final, se concentra en dos capítulos, dedicados a especificar los elementos

centrales para el estudio de fenómenos de espera (Estructura y Caracterización de

Líneas de Espera), así como los elementos a considerar para la simulación de

procesos de esta naturaleza, cuando los procedimientos formales no son aplicables.

No habiéndome propuesto, el ser extenso en aplicaciones, de cuya obligación es quién

imparte el curso a una particular especialidad, se mantuvo la orientación hacia el Área de

Comunicaciones. Sin embargo, un alumno debidamente orientado, al leer las secciones que

le sean de interés, podrá encontrar los conceptos, sus alcances y problemas que ilustran

los contenidos, para abordar los problemas propuestos en la literatura de su especialidad.

Deseo expresar mis agradecimientos, a los ingenieros que en las diversas versiones de este

curso, han sido mis alumnos de esta asignatura, por su aporte de ejemplos de aplicaciones

en el ejercicio profesional, que se incluyen en la presente edición.

Agradezco también, las sugerencias de profesores y alumnos para la elaboración de la

presente edición; así como los esfuerzos realizados por las secretarias Olga Urzúa, y

Alejandra Sandoval, por colaborar en la presentación del texto.

Luis Felipe Figueroa F. (Dr. Cs. Ing.)

PROFESOR

Santiago, Diciembre 2017.


CONTENIDO
PAGINA
PARTE I
ESTADÍSTICA DESCRIPTIVA Y PROBABILIDAD 13

CAPÍTULO I: ESTADÍSTICA DESCRIPTIVA 15


1.1.- Criterios de clasificación de variables 15
1.1.1.- Tamaño del recorrido 15
1.1.2- Escalas de medición 15
1.2.- Tablas de Frecuencias 17
1.2.1.- Caso unidimensional 17
1.2.2.- Caso bidimensional 18
1.3.- Gráficos estadísticos 20
1.4.- Estadísticas 23
1.4.1.- Estadística de Posición 23
1.4.2.- Estadística de Dispersión 26
1.4.3.- Estadística de Forma 27
1.4.4.- Estadísticas de Asociación 28
1.4.4.1.- Para variables cuantitativas 28
1.4.4.2.- Para variables cualitativas 29

CAPÍTULO II: ESPACIO DE PROBABILIDAD 33


2.1.- Espacio muestral 33
2.2.- Sucesos y operaciones 34
2.3.- Medida de probabilidad 36
2.4.- Probabilidad Condicional 39

CAPÍTULO III: TRANSFORMACIONES ALEATORIAS 47


3.1- Variable Aleatoria 47
3.1.1.-Construcción de medida de probabilidad para una variable aleatoria 49
3.1.2.- Modelos 54
3.1.2.1.- Discretos – Continuos 53
3.1.2.2.- Deducción de la función de probabilidad Poisson 57
3.1.3.- Cambio de variable 63
3.1.4.- Operador esperanza 67
3.1.4.1.- Valor esperado 67
3.1.4.2.- Función Generadora de Momentos 69
3.1.4.2a.- Obtención de momentos centrales 69
3.1.4.2b.- Cálculo de momentos factoriales 69
3.1.4.2c.- Generación de probabilidades para variables aleatorias discretas 70
3.1.4.3.- Función Característica 70
Tabla: Características principales de variables aleatorias trascendentales 72
3.2.- Vector Aleatorio 74
3.2.1.- Construcción de medida de probabilidad para un vector aleatorio 74
3.2.2.- Modelos: Discretos, Continuos 76
3.2.3.- Distribuciones Marginales y Condicionales 79
3.2.4.- Cambio de Variable 84
3.2.4.1.-Distribución de la suma de dos v.a.indep.-Teorema de convolución 81
3.2.4.2.-Distribución para el Máximo y Mínimo en muestras aleatorias 82
3.2.4.3.- Teorema del cambio de variable 84
3.2.5.- Operador esperanza 85
3.2.5.1.- Distribución para la suma de v.a. procedentes de muestras aleatorias 85
3.2.5.2.- Matriz de varianzas covarianzas 87
3.2.5.3.- Esperanza Condicional 87
3.2.5.4.-Suma de un número aleatorio de variables aleatorias 90
3.2.5.4.1.-Valor de Expectativa 90
3.2.5.4.2.- Distribución 91
3.2.6.- Sucesiones de variables aleatorias 91
3.2.7.- Convergencia en muestras grandes 93
3.2.7.1.- Ley Débil de los Grandes Números-LDGN 93
3.2.7.2.- Ley Fuerte de los Grandes Números-LFGN 94
3.2.7.3.- Teorema del Tiempo Medio al Largo Plazo 94
3.2.7.4.- Teorema Central del Límite 96

PARTE II
INFERENCIA ESTADÍSTICA 99

CAPITULO IV: ESTIMACIÓN PUNTUAL 100


4.1.- Obtención de Estimadores 101
4.1.1.- Método de Máxima Verosimilitud 101
4.1.2.- Métodos de los Momentos 102
4.2.- Propiedades de los estimadores 103
4.3.- Obtención de un estimador insesgado a partir de otro 106

CAPÍTULO V: REGIONES CONFIDENCIALES 111


5.1.- Obtención de regiones confidenciales 111
5.2.- Intervalos confidenciales (proporciones, media y varianza de población normal 112
diferencia de proporciones, medias, y razón de varianzas)
5.2.1.- Una muestra aleatoria 112
5.2.2.- Dos muestras aleatorias independientes 115
5.2.3.- Muestra repetida 120

CAPÍTULO VI: DOCIMASIA DE HIPÓTESIS 123


6.1.- Problemas clásicos, dócimas para: (proporciones, medias, varianzas, 126
independencia y comparaciones)
6.1.1.- Una muestra aleatoria 125
6.1.1a.- Bernoulli 126
 6.1.1b.- Normal 128
 6.1.1c.- Bondad de ajuste 130
 6.1.1c.1.- Chi-cuadrado 131
6.1.1c.2.- Kolsmogorov-Smirnov 132
 6.1.1c.3.- Independencia en tablas de contingencia 134
6.1.2.-Dos muestras independientes 135
6.1.2a.- Bernoulli 135
6.1.2b.- Normal 136
6.1.3.- Una muestra repetida 138
6.2.- Análisis de Varianza de efectos fijos 139
6.2.1.- Análisis a un criterio 139
6.2.1.1.-Dócima de efectos de tratamientos 140
6.2.1.2.-Estimación de parámetros 144
6.2.1.2.1.- Puntual 144
6.2.1.2.2.- Intervalos para tratamientos 144
6.2.1.2.3.- Intervalos para diferencia entre tratamientos 145
6.2.2.- Análisis a dos criterios ( o factores) 146

PARTE III
LINEAS DE ESPERA 151
CAPÍTULO VII: ESTRUCTURA Y CARACTERIZACIÓN DE LINEAS 153
DE ESPERA
7.1.- Estructura básica de una línea de espera 153
7.2.- Notación en la teoría de líneas de espera 154
7.2.1.- Nomenclatura para componentes de un sistema 154

7.2.2.-Nomenclatura de las diferentes líneas de espera 155


7.3.- Caracterización 155
7.3.1.- Una fila- un servidor- población infinita 156
7.3.1.1.- Probabilidad de m clientes en el sistema- Pm(t) 156
7.3.1.2.- Número esperado de clientes en el sistema -W 158
7.3.1.3.- Número esperado de clientes en la fila - L 158
7.3.1.4.- Tiempo Medio de Espera - Ts 159
7.3.1.5.- Tiempo Medio de Demora - Tw 159
7.3.1.6.- Propiedades 159
7.3.1.6a.-Distribución de cantidad de clientes en el sistema y Función Erlang C 159
7.3.1.6b.- Fórmulas de Little 160
7.3.1.6c.- Tasas de Flujos Esperados del Sistema 160
7.3.1.6d.- Distribución del tiempo de espera en la fila 161
7.3.1.6e.- Distribución del tiempo de demora en el sistema 162
7.3.1.6.f.- Tamaño de la fila cuando hay demanda de servicio 163
7.3.1.6.g.-Sistema de Capacidad Finita 163
7.3.1.7.- Modelo M/G/1 166
7.3.1.7.1- Tiempos Medios de Espera y Demora 166
7.3.1.7.2.- Tiempos Medios de Espera y Demora con priorización de servicio 168
7.3.1.7.3.- Distribución del número de clientes en el sistema y transformación 170
de Pollaczek-Khinchin
7.3.1.7.4.- Distribución del Tiempo de espera y demora en el sistema 173
7.3.1.8.- Modelo G/M/1 174
7.3.1.8.1.- Parámetros del sistema 174
7.3.1.8.2.- Períodos ocupados y de ocio del servidor 177
7.3.2.- Una fila - un servidor- población finita 178
7.3.2.1.- Propiedades 180
7.3.2.1a.- Diagrama de relaciones de equilibrio abreviado 180
7.3.2.1b.- Punto de saturación del sistema 180
7.3.3.- Una fila - servidores múltiples en paralelo - población infinita 183
7.3.3.1.- Tamaño esperado de la fila 184
7.3.3.2.- Cantidad esperada de clientes en el sistema, tiempos medios de espera 185
y demora
7.3.3.3.- Propiedades 185
7.3.3.3a.- Factor de utilización del sistema 185
7.3.3.3b.- Función de pérdida Erlang C y largo esperado de la fila 185
7.3.3.3c.- Función de pérdida Erlang B 186
7.3.3.3d.- Distribución del tiempo de servicio del sistema 186
7.3.3.3e.- Distribución del tiempo de espera 186

7.3.3.3f.- Distribución del tiempo de demora 186


7.3.3.3g.- Sistemas de Capacidad igual al número de servidores 187
7.3.3.3h.- Sistemas con infinitos servidores en paralelo 188
7.3.3.4.- Modelo G/M/s 189
7.3.3.5.- Modelo M/G/s 191
7.3.3.5.1.-Capacidad Finita 193
7.3.3.5.2.-Capacidad Infinita 194
7.3.4.- Una fila – servidores múltiple en paralelo - población finita 194
7.3.5.- Filas con servidores múltiples en serie- población infinita 195
7.3.5.1.- Propiedades 198
7.3.5.1a.- Sistemas abiertos 200
7.3.5.1b.- Sistemas cerrados 200
7.3.6.- Filas con servidores múltiples en serie- población finita 202
7.3.7.- Línea simple, con llegadas no constantes, distribuidos respectivamente 204
con distribución Poisson y exponencial 208
7.4.- Comportamiento prioritario de una línea de espera
7.5.- El Proceso de decisión en las líneas de espera 210
Problemas 211
Referencias 218
222
CAPITULO VIII: SIMULACIÓN
8.1.- Métodos Montecarlo 223
8.1.1.- Números pseudo-aleatorios 223
8.1.2.-Métodos Montecarlo y Cálculo Aproximado de Series e Integrales 226
8.2.- Generación de Variables Aleatorias Discretas 230
8.2.1.- Algoritmo del Método de Transformada Inversa 230
8.2.2.- Aplicaciones de simulación de v.a. discreta. 232
8.2.3.-Métodos Recursivos 233
8.2.3.1.- Método de Aceptación – Rechazo 233
8.2.3.2.- Método de Composición 235
8.3.- Simulación de Proceso Poisson 237
8.3.1.-Proceso Poisson 237
8.3.2.- Proceso Poisson no-homogéneo 239
8.4.- Simulación de Variables Continuas 242
8.4.1.-Método de la Transformada Inversa 242
8.4.2.- Método Aceptación – Rechazo 242
8.4.3.- Caso especial: Simulación de la Distribución Normal Standard 248
8.4.4.- Simulación de Distribución Normal Multivariada 250
8.4.4.1.- Caso General 250
8.4.4.2.- Caso Normal Bidimensional – Método Polar 250
8.4.5.- Método de Composición (variables continuas) 256
8.5.- Simulación de Procesos Mediante Simulación de Eventos Discretos 258
8.5.1.- Una fila un servidor 259
8.5.2.- Una fila y dos servidores en serie 262
8.5.3.- Una fila y dos servidores en paralelo 263
8.5.4.- Implementación en SIMULINK de Matlab 272

Referencias 284

Anexo:
Introducción a procedimientos Estadísticos en Matlab 285
Indice 323
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

PARTE I

ESTADÍSTICA DESCRIPTIVA Y PROBABILIDAD

Lograr conclusiones válidas de nuestro ámbito en estudio a partir de información parcial no debe ser una
tarea que se diga fácil, aunque puede ser simple en algunos casos muy particulares.

El método estadístico, procedimiento mediante el cual se pretende dicho propósito, debe entonces
contemplar, etapas que cautelen por el adecuado tratamiento de la información a disponer, desde los
propósitos mismos del estudio hasta las conclusiones que de él emanen. Por lo tanto, tales etapas deben ser
enmarcadas por el pilar universal de la búsqueda de la verdad, conocido por todos como Método
Científico.

Gráficamente podemos representar al Método Científico de la siguiente manera:

DETECCIÓN Y ENUNCIADO
DE UN PROBLEMA

FORMULACIÓN DE UNA HIPÓTESIS


(O LEY DE LA NATURALEZA)

DEDUCCIÓN DE CONSECUENCIA
VERIFICABLE

VERIFICACIÓN DE LA CONSECUENCIA
 no verificación  rechazar hipótesis

CONCLUSIÓN

Podemos decir entonces, que el Método Estadístico, comprende las siguientes etapas:
- Definición de universo en estudio
- Caracterización de las variables en estudio
- Especificación de la unidad de muestreo
- Diseño del esquema de muestreo y encuesta
- Análisis de la información: presentación y verificación del modelo propuesto
- Conclusiones, que contemplen la representatividad de la información que se dispone, para así
cuantificar el grado de seguridad en las decisiones que aquí se adopten.

Como definición de Estadística, podemos decir:

13
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

- es la ciencia de la toma de decisiones en condiciones de incertidumbre y que


- posibilita la aplicación efectiva del método científico en el estudio de la naturaleza

Entenderemos por población, al universo en estudio, y cualquier subconjunto de él, se denomina muestra. Los
elementos de una muestra se denominan observaciones. La rama de la estadística que aborda el como lograr
una muestra, su composición y representatividad, se denomina muestreo.

Se dice variable a la característica o atributo de interés en el estudio de la población. Dicha variable


naturalmente puede tener varias componentes, en tal caso se denomina vector.

De manera muy resumida podemos decir que nuestra concepción del estudio de los fenómenos
es la siguiente:

MUNDO REAL MUNDO IDEAL

TOMA DE DECISIONES

FENOMENOS
INCERTIDUMBRE MODELOS (NO DETERMINISTICOS)
POBLACIÓN

HOMBRE MODELO POBLACIONAL

INFERENCIA ESTADÍSTICA

INFORMACIÓN
(MUESTRA) MODELO MUESTRAL

Por tal motivo, en ésta primera parte abordaremos los elementos básicos que disponemos, para apreciar los
datos muestrales de que se disponga; y luego estudiaremos, algunos modelos de comportamiento, útiles para la
segunda parte, que es conducente a la toma de decisiones, cuando se dispone de información muestral.

14
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CAPITULO I

ESTADÍSTICA DESCRIPTIVA

La Estadística Descriptiva es la metodología de procesamiento y presentación de la información


(muestral) disponible, teniendo en cuenta las características de ella y el propósito de su recolección. Para
sus propósitos como herramientas de trabajo dispone de:
 tablas de frecuencias
 gráficos
 estadísticas (funciones muestrales)

Para identificar, qué elementos de estadística descriptiva son los más adecuados, para describir y
representar un conjunto de observaciones, de una variable o atributo de interés, es indispensable clasificar
correctamente esa variable.

1.1.- Criterios de Clasificación de variables

1.1.1.- Tamaño del recorrido

Llamaremos recorrido de una variable al conjunto de valores que ella puede asumir. Tal conjunto puede ser o
no numerable, así lo identificaremos respectivamente, como :
 discreto , o bien
 continuo

1.1.2.- Escalas de medición

Cada variable, es registrada en la correspondiente unidad de observación que se inspeccione, de acuerdo a


una escala (de medición). Tales escalas pueden ser básicamente de dos tipos:
 cualitativo: las observaciones se identifican mediante una descripción, que a su vez puede ser de carácter;
 nominal (clasificar) u
 ordinal (clasificar y ordenar)
 cuantitativo: las observaciones se distinguen por el valor que posean al aplicarles algún tipo de medición,
hecho que puede ser de carácter;
 intervalar (clasificar, ordenar y existe unidad de medida; es decir, tiene sentido la diferencia x-x' de
 mediciones entre observaciones y por lo tanto también se puede hablar de distancia entre
 observaciones)
 razón (es intervalar y posee cero absoluto; es decir la razón x/x´, entre los valores de dos mediciones de
observaciones es constante para las diferentes escalas de medición que se puedan utilizar).

Es importante hacer notar, que la clasificación de una variable se realiza considerando sólo su naturaleza
intrínseca, la que puede diferir, de aquella que se obtiene al considerar la forma "correcta" en que esa
variable se registró en un estudio particular. Así, una variable codificada numéricamente, no
necesariamente es una variable cuantitativa.

15
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo1.1
Experimento:
El reconocimiento facial es un tema que sigue siendo de investigación debido a la posibilidad de implementar
diferentes técnicas de análisis y /o de reconocimiento de configuraciones, hacia el rostro humano. Dentro de
los diferentes algoritmos que cumplen esta función, nos encontramos con aplicaciones del algoritmo de redes
neuronales artificiales (RNA) y algoritmo de análisis de componentes independientes (PCA).

El algoritmo RNA, simula neuronas artificiales para aprender y/o asociar diferentes características del rostro y
autentificarlos. Por otro lado, el algoritmo PCA, utiliza un análisis estadístico del rostro, extrayendo los
valores y vectores propios del rostro y a través de correlación, busca las características similares entre una
imagen con otra, a través de la medida de la distancia euclidiana.

Disponemos de una base de datos en el reconocimiento facial, el cual contiene información sobre la jornada,
el tiempo, las técnicas utilizadas como algoritmos de reconocimiento, entre otras variables.
Se realizó una muestra (véase Anexo al presente capítulo), de 60 observaciones de reconocimiento facial de
un grupo de personas, registrando 8 características (variables), de las cuales 4 son cualitativas y 4 son
cuantitativas.

Variables Intervalar Razón


Cuantitativas Diferencia entre Performance Performance RNA.
RNA y Performance PCA Performance PCA.
Variables Nominal Ordinal
Cuantitativas Jornada. Nivel de reconocimiento
Clima. Estado.

Donde, las variables:


- cuantitativas Performance RNA y Performance PCA, indican el rendimiento del sistema en el
reconocimiento facial de las personas. Estos valores son de relevancia, debido a que nos proporcionan los
datos de la efectividad de las técnicas de control utilizadas.
- diferencia entre Performance RNA y Performance PCA, nos muestra en que momento los algoritmos
estuvieron trabajando de forma muy similar (para el caso de los valores igual o cercanos a cero),
que puede servir como guía para mejorar el reconocimiento.
- cualitativas Nivel de reconocimiento y estado, nos indican la acción del sistema en el reconocimiento facial.
El umbral de reconocimiento utilizado para decidir si la imagen de entrada corresponde a la persona es para
todas las imágenes con un performance igual o superior al 80%. En el caso de que un algoritmo no alcance
este umbral, pero a su vez el otro algoritmo si, se dará por aceptado el reconocimiento.
- jornada y clima, nos indican las condiciones en la cual se realizó la adquisición de imágenes y nos ayudan a
visualizar o destacar (para posteriormente detectar si esto afectó o no) como situación de funcionamiento de
los algoritmos.

La información desplegada en Anexo, como base de datos, procede de dos archivos texto con una columna
(ítem) de identificación en común .
- Uno con columnas: ítem, Jornada, Clima, Niveldereconocimiento y Estado
- El otro, con columnas: ítem, Performance, RNA, difrnaypca
Los datos originales, se encontraban en dos archivos texto, los importamos directamente y agrupamos en un
solo objeto. Para transformarlo en operativo se debe proceder de la siguiente manera:
Script:
T1=readtable('archivo1de2cap1.txt'); T1; size(T1)
T2=readtable('archivo2de2cap1.txt'); T2; size(T2); T2(:,[1])=[ ]; T2
T=[T1 T2];T; T=[T1 T2];T; size(T);
% las variables se encuentran en T, como un solo objeto, pero pueden ser identificadas operacionalmente como a continuación
item=T.item; x1=T.Jornada; x2=T.clima; x3=T.nivrec;x4=T.Estado;x5=T.PerfRNA;x6=T.PerfPCA;x7=T.DifRNAyPCA;

Experimento que utilizaremos, para ejemplificar cada uno de los temas de este capítulo.

16
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1.2.- Tablas de frecuencias

Son presentaciones de recuento de datos, mediante tablas de: valores o clasificaciones de la(s) observaciones
de la(s) variables en estudio, con sus repeticiones en tales clasificaciones. Con el objeto de considerar en forma
resumida la información disponible, para realizar una primera apreciación de ella, a través de gráficos y
estadísticas, que más adelante detallamos.

1.2.1.- Caso unidimensional

La forma básica de "estadística" es el recuento. De un conjunto de n observaciones de una variable X,


podemos encontrar k grupos diferentes, que denominamos clases, motivo por el cual es necesario denotar:

ni al número de repeticiones de un particular valor de X = x i y se llamará frecuencia absoluta


fi a la proporción de observaciones en la muestra en que X = x i y se llamará frecuencia relativa
Ni frecuencia absoluta acumulada (ascendente)
Fi frecuencia relativa acumulada (ascendente)

Luego podemos decir que:


N i  n1    ni  N1  n1 , N K  n

ni
fi  , Fi  f1    fi  F1  f1 , FK  1
n
Cuando debemos enfrentar el estudio de un gran número de datos cuantitativos, lo más conveniente es
construir una partición  Ai  ik1 del intervalo I   min x i , max x i . A los elementos de esta
partición, se acostumbra llamarlos categorías o clases, cada una de ellas se identifica tomando como
representante su punto medio o marca de clase que también denotaremos por xi . Denotándose además las
repeticiones en cada clase, de la misma manera que las ya definidas. Así entonces, una vez construidas las
clases, solo podremos identificar los valores observados de X con estas agrupaciones (y no con sus valores
observados).

El valor de k en cada caso, lo da el buen criterio, aunque, en la literatura se pueden encontrar sugerencias
como la de Sttürgues k= 1+3.3 lg n, que permite determinar un número de clases que crece muy lentamente
respecto de n.

Disponiendo del número k de categorías requeridas, una alternativa para construirlas consiste en considerar:
: x0  min x i , xk  max x i , xi  xi1  a, i=1,...,k
longitud de I
a= amplitud de Ai 
k
A i  x i-1´, x i ´, i = 1,..., k - 1, A k  x k 1 , x k 

Lo que debiera originar, clases de igual amplitud, pero el lector podrá verificar que por motivos operacionales
esto no es siempre cierto y se debe disponer de al menos una clase de tamaño inferior o superior a las
restantes.

17
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo1.2: Tabla de Frecuencias para la variable Jornada


Tabla de Frecuencias
Variable: Jornada
absolutas relativas abs.ac. rel.ac.
frecabsolutas frecrelativas frecabsac frecrelac
mañana 31 0.51667 31 0.51667
tarde 15 0.25 46 0.76667
noche 14 0.23333 60 1

Script:
tablajornada=tabulate(T.Jornada);col1=tablajornada(:,1);col2=cell2mat(tablajornada(:,2));col3=cell2mat(tablajornada(:,3))/100
col4=cumsum(col2);col5=cumsum(col3)
latabla = table(col2,col3, col4, col5, 'VariableNames',{'frecabsolutas' 'frecrelativas' 'frecabsac' 'frecrelac'}, 'RowNames',{'mañana'
'tarde' 'noche'});disp(' Tabla de Frecuencias');disp(' Variable: Jornada ')
disp(' absolutas relativas abs.ac. rel.ac.');disp(latabla)

Ejemplo1.3:
Tabla de Frecuencias para la variable Performance de RNA
LimInferior LimSuperior frec.abs frec.rel frec.absac frec.relac
51.4000 57.9714 5.0000 0.0833 5.0000 0.0833
57.9714 64.5429 4.0000 0.0667 9.0000 0.1500
64.5429 71.1143 10.0000 0.1667 19.0000 0.3167
71.1143 77.6857 7.0000 0.1167 26.0000 0.4333
77.6857 84.2571 7.0000 0.1167 33.0000 0.5500
84.2571 90.8286 17.0000 0.2833 50.0000 0.8333
90.8286 97.4000 10.0000 0.1667 60.0000 1.0000
Script
n=length(x5);mi=min(x5); ma=max(x5);k=1+3.3*log10(n); k=ceil(k);a=(ma-mi)/k;clases= linspace(mi,ma,k+1)
Linfclases=clases(1,1:k); Lsupclases=clases(1,2:k+1);h=histogram(x5,clases);ni=h.Values
fi=ni/n; Ni(1)=ni(1); for h=2:k; Ni(h)=Ni(h-1)+ ni(h);h=h+1; end;
Fi(1)=fi(1); for h=2:k; Fi(h)=Fi(h-1)+ fi(h);h=h+1; end;
salidadetabla=[Linfclases' Lsupclases' ni' fi' Ni' Fi'];
disp('LimInferior LimSuperior frec.abs frec.rel frec.absac frec.relac')
disp(salidadetabla);

1.2.2.- Caso bidimensional

Este es el caso las n observaciones se han clasificado de acuerdo a dos características o variables X e Y de
 Ai 1i 1 para  
c
interés, en particiones X, Bj para Y. Se considera entonces:
j 1

nij número de observaciones (frecuencia absoluta conjunta) en casilla Ai  B j


ni. número de observaciones (frecuencia absoluta marginal de X) en categoría Ai
n. j número de observaciones (frecuencia absoluta marginal de Y) en categoría Bj
nij
fij  proporción de observaciones (frecuencia relativa conjunta) en la casilla Ai  Bj
n
ni.
fi.  proporción de observaciones (frecuencia relativa marginal de X) en Ai
n
n. j
f. j  proporción de observaciones (frecuencia relativa marginal de Y) en Bj
n
nij
fi j  proporción de observaciones (frecuencia relativa condicional de X) en Ai dado (que Y está en) Bj .
n. j
18
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

fij
Es evidente que también fi j  . Por tal motivo si en todas las celdas Ai  Bj , ésta frecuencia
f. j
condicional no depende de la condición o restricción, es decir fi j  ctei , i, j  fi j  fi , i, j . En
tal caso, se habla de independencia entre X e Y.
De esto se desprende, que en el caso de independencia entre X e Y, también se cumple que
fij  fi. f. j , i, j, que habitualmente se toma como caracterización de independencia.

Ejemplo1.4:
Tabla1: Cantidad de Ensayos según condiciones ambientales
Jornada versus Clima
nublado despejado
mañana 31 0
tarde 0 15
noche 14 0

Tabla2: Proporción de Ensayos según condiciones ambientales


Jornada versus Clima
nublado despejado marginal lineas
mañana 0.51667 0 0.51667
tarde 0 0.25 0.25
noche 0.23333 0 0.23333
marginal columnas 0.75 0.25 1

Tabla3: Proporción de Ensayos bajo independencia de condiciones ambientales


Frecuencias Relativas fij obtenidas mediante fij=fi. f.j
Jornada versus Clima
nublado despejado
mañana 0.3875 0.12917
tarde 0.1875 0.0625
noche 0.175 0.058333
Al comparar los respectivos valores entre las tablas2 y 3; no se aprecian concordantes y podríamos decir que
están lejos de un acercamiento hacia independencia entre condiciones ambientales. Decisión que también
veremos más adelante (Capítulo 6 , Test de independencia en tablas de contingencia).

Script:
% Tabla1
[tablax1x2, chi2x1x2,px1x2]=crosstab(x1,x2); tablax1x2 ;col1=tablax1x2(:,1);col2=tablax1x2(:,2)
latabla=table(col1, col2, 'VariableNames',{' nublado' 'despejado'}, 'RowNames',{'mañana' 'tarde' 'noche'})
disp('Cantidad de Ensayos según condiciones ambientales');disp( ' Jornada versus Clima');disp(latabla)
%Tabla2
col1=tablax1x2(:,1); marginalj1=(sum(col1))/n; columna1=[col1/n;marginalj1];col2=tablax1x2(:,2); marginalj2=(sum(col2))/n;
columna2=[col2/n;marginalj2];
marginali1=(tablax1x2(1,1)+ tablax1x2(1,2))/n; marginali2=(tablax1x2(2,1)+ tablax1x2(2,2))/n;
marginali3=(tablax1x2(3,1)+ tablax1x2(3,2))/n;Total=marginali1+marginali2+marginali3;
columna3=[marginali1;marginali2;marginali3; Total];
latablax1x2=table(columna1 ,columna2, columna3, 'VariableNames',{' nublado' 'despejado' 'marginallineas'}, 'RowNames',{'mañana'
'tarde' 'noche' 'marginalcolumnas'});disp('Proporciones de Ensayos según condiciones ambientales');disp('Jornada versus Clima');
disp(latablax1x2);
%Tabla3
f1punto=marginali1; f2punto=marginali2;f3punto=marginali3;fpunto1=marginalj1; fpunto2=marginalj2;
g11=f1punto*fpunto1; g12= f1punto*fpunto2; g21=f2punto*fpunto1; g22= f2punto*fpunto2;
g31=f3punto*fpunto1; g32= f3punto*fpunto2; g1=[g11; g21;g31]; g2=[g12 ; g22;g32];
tablag = table(g1,g2,'VariableNames',{' nublado' 'despejado'}, 'RowNames',{'mañana' 'tarde' 'noche'});
disp('Proporciones de Ensayos bajo independencia de condiciones ambientales');
disp(' Frecuencias Relativas fij obtenidas mediante fij=fi. f.j');
disp( ' Jornada versus Clima');disp(tablag);
19
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1.3.- Gráficos Estadísticos

Existen diversas formas de representar gráficamente la información estadística, teniendo como objetivo el
exhibir:
- distribución de frecuencias uni o multidimensionales o
- relaciones entre variables
Para la elección del gráfico más adecuado, debemos considerar su propósito y nivel de medición de cada
variable:

Clasificación de la(s) Variables Objetivo del gráfico es mostrar


tamaño del escala de medición distribución asociación
recorrido de frecuencias entre variables
Discretas todas barras simples (1) barras agrupadas (3)
sectoriales (2) barras subdivididas (4)
Continuas Intervalar histograma, (5) Correlación (7)
Razón ojiva Línea (8)
polígono de frecuencias (6)

Los gráficos mencionados, se realizan según a continuación se indica:

barras simples: barras espaciadas construidas sobre las clases de altura igual a su frecuencia relativa.

sectoriales : círculo dividido en sectores circulares de área similar a la proporción que les corresponde
según su propia frecuencia relativa

barras agrupadas: barras separadas simultáneo para las variables, para cada una de las clases comunes.

barras subdivididas: barras separadas para cada clase , de altura dada por la suma de las frecuencias
relativas de cada variable en dicha clase, donde debe quedar distinguido los aporte de tales
variables en cada barra.

histograma: sobre ejes cartesianos se colocan en las abscisas las clases y se diseñan rectángulos de alturas
iguales a las frecuencias relativas corregidas.
Se entiende por frecuencia relativa corregida, a la frecuencia relativa dividida por un factor
como la amplitud de su respectiva clase, con el objeto de que tal frecuencia no impresione por
lo amplio de la categoría que representa, si no por lo que ella deba contener, en relación a la
magnitud de las restantes clases consideradas.

polígono de frecuencias: poligonal formada sobre el histograma, que une las alturas de los puntos medios de
las clases.

ojiva: poligonal, formada sobre el gráfico de ejes cartesianos, en cuyas abscisas se ubican las clases y
ordenadas las frecuencias relativas acumuladas; uniendo las alturas de los puntos medios de
las clases.

correlación: ejes cartesianos donde se marcan las observaciones (al menos bi-dimensionales).

línea: ejes cartesianos donde se marcan las observaciones y se unen según su orden de aparición.

20
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

TIPOS DE GRAFICOS Y CLASIFICACIÓN DE LAS VARIABLES


CLASIFICACIÓN DE LAS OBJETIVO DEL GRÁFICO
VARIABLES
Tamaño del Escala de medición Mostrar distribución de Mostrar asociación entre variables
recorrido frecuencias (una variable) (dos o más)

D T frec.
BARRAS BARRAS
SIMPLES AGRUPADAS
I O frec.

S D (1)
(3)
C A

R S

E X1 X2 X3 X4

T
SECTORIAL
BARRAS
A x2 SUBDIVIDIDAS
frec.
(2) 100%
x1 (4)
x3 80%
60%
x4
40%
20%
0%

HISTOGRAMA
C I frec.
Y
ajustada
N (7)
O T (5)
xx
xx xx
E xx xx
xx xx xx xx
N R xx xx xx xx
xx
xx xx xx
V xx
T A xx
x X
L
I O
S POLIGONO LINEA
N frec.
DE FREC. (8)
O
x

U (6)
R
A A
Z
O t
N x

21
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo1.5

Script: Los gráficos incluyen complementos logrados en el C.Window


% =====gráfico de torta====
graficocircular=pie(cell2mat(tablajornada(:,3))/100); colormap autumn
% ahora agreguemos rotulos;textObjs = findobj(graficocircular,'Type','text');oldStr = get(textObjs,{'String'});
val = get(textObjs,{'Extent'});oldExt = cat(1,val{:});Names = {'mañana: ';' tarde:';' noche: '};
newStr = strcat(Names,oldStr);set(textObjs,{'String'},newStr)
% ==== gráfico de barras separadas ====
coders = {'mañana','tarde ','noche'};bar(cell2mat(tablajornada(:,3))/100,'green');
title('Frecuencias relativas tipo de Jornada');
% barras agrupadas ; bar([col1/n , col2/n]); histfit(x5,7)
%ojiva y ojiva con ajuste normal; cdfplot(x5);[FFi,xx5]=ecdf(x5); plot(xx5,FFi, xx5, normcdf(xx5,mean(x5), std(x5)))
22
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Observación:
En datos con una distribución más homogénea, como lo es para este caso, y=[g1 g2], bajo supuesto de
independencia; se aprecia mejor la resultante en estos gráficos para comparación ( barras agrupadas y/o
subdivididas):

Script:
y = [0.3875 0.1292; 0.1875 0.0625; 0.1750 0.0583 ];bar(y); bar(y,'stacked')

1.4.- Estadísticas

Podemos clasificar las estadísticas en grupos de acuerdo a nuestro interés por qué tipo cualidad nos
interese medir a partir de las observaciones. Por ello es que en la literatura el lector podrá encontrarlas
también con el nombre de medidas. Esta clasificación comprende los siguientes tipos:
 estadísticas de posición o de tendencia central: proporcionan un valor, asociado o de entre el
rango de valores de la variable en estudio en torno al cual de algún modo se aglutinan las
observaciones.
 estadísticas de dispersión o variabilidad: originan un valor que nos indica en cierta forma cuán
aglutinadas están las observaciones respecto de una particular estadística de posición
 estadísticas de forma: proporcionan valores que permiten caracterizar la forma del histograma:
estadísticas de simetría: evalúan bajo cierto criterio hacia que sector del histograma se encuentra la
mayor parte de las observaciones
estadísticas de curtosis o achatamiento: otorgan un valor que permite interpretar la curvatura del
histograma.
 Estadísticas de asociación: proporcionan un valor que indica cuán ligadas se encuentran algunas
variables.

Admitiendo, que la información se encuentra disponible en una adecuada tabla de frecuencias, y


considerando las notaciones señaladas en 1.2. A continuación presentamos de acuerdo a los grupos señalados,
las estadísticas más utilizadas, y sus aproximaciones al disponer de datos tabulados.

1.4.1.- Estadísticas de Posición

Moda M0 : es el valor de la categoría de mayor recuento. En variables continuas, donde se presentan los
extremos relativos del polígono de frecuencias ( o de su idealización), se consideran
también como asociados a modas diferentes.
Estadística de orden  X    : valor de la observación, que ocupa el lugar
i
i-ésimo, luego de ordenar las

observaciones, de menor a mayor. En particular X1  min x i , X n  max x i .

Rango (R(Xi)): lugar que ocupa la observación Xi, una vez que las observaciones han sido ordenadas de
menor a mayor. En caso de empates es el promedio de tales ubicaciones.

Mediana  Me  : valor de la variable, que se encuentra en el centro de las observaciones ya ordenadas,

23
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 X (( n 1) / 2) , si n es impar

Me   1
 X (n / 2)  X n / 2+1 , si n es par
2

Percentil  P  : valor de la variable que separa las observaciones ya ordenadas, dejando un % y


100   % a su izquierda y derecha respectivamente,   0,100 . En particular:
P25  Q1 primer cuartil, P50  Q2  Me , P75  Q3 tercer cuartil.

n
 N j 1
 n 
P  x j 1  a j 100 , j = min i / N i  .
nj  100 
(Expresión que se obtiene al considerar un polígono de frecuencias sobre el gráfico de ejes
cartesianos en cuyas abscisas se ubican las clases y ordenadas las frecuencias absolutas).

 
Media M X  X : es la media aritmética de las observaciones,
1 n k
X  x1  ...  x n /n   x i   x ifi
n i 1 i 1
Media Geométrica: Mg= 𝑛√∏𝑛𝑖=1 𝑥𝑖 , apropiada para datos de progresión geométrica o con tasa de interés
compuesto, promediar razones, números índices, entre otros casos; log X  log Mg

−1 −1
̅̅̅̅̅
1 𝑛
Media Armónica:𝐻 = (𝑋) = ( 1)
∑𝑛
𝑖=1 𝑥𝑖

Media Truncada: Conociendo lo sensible de la media aritmética a valores extremos de la muestra, se


define la media trucada, como el promedio de las observaciones, una vez excluido los
datos extremos (de ambas colas) , en α% de la muestra; 5, 10, 25 son las situaciones
o valores α, más requeridos,(ie. excluye α/2 % de cada extremo de la muestra ordenada) .

Media Winzorisada: También, con el objeto de lograr un promedio menos inestable (robusto), se define como
media winzorisada, al promedio de las observaciones, luego de reemplazar ambas colas
en un porcentaje de las observaciones por sus nuevos valores extremos.

Ejemplo1.6: Cálculo de valores de tendencia central

-Moda para RNA:


De la lectura de la tabla del ejemplo 2 se precia que en su cuarta línea:
Tabla de Frecuencias para la variable Performance de RNA
LimInferior LimSuperior frec.abs frec.rel frec.absac frec.relac
77.6857 84.2571 16.0000 0.2667 46.0000 0.7667
La mayor frecuencia (repetición) se encuetra en la clase con extremos de intervalo:
LimInferior=77.6857 , LimSuperior= 84.2571

24
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

-Estadísticas de orden:
orden obs. n° Estadística de Orden para x5
1.0000 17.0000 51.4000
2.0000 20.0000 54.9000
3.0000 58.0000 55.3000
4.0000 12.0000 57.4000
5.0000 39.0000 57.6000
6.0000 29.0000 58.0000
7.0000 3.0000 58.2000
-Rangos:
obs. n° valor Rango
1.0000 67.2000 16.0000
2.0000 79.6000 29.0000
3.0000 58.2000 7.0000
4.0000 83.5000 32.0000
5.0000 78.9000 28.0000
6.0000 65.5000 12.0000
7.0000 90.4000 50.000
-Mediana: 82.400
-Percentiles: por ejemplo deciles
58.1000 65.6500 70.1000 76.8000 82.4000 86.0000 88.0000 90.0000 92.5000 97.4000
-Medias:

Media Aritmética ( Media)


Medias
PerfRNA PerfPCA DifRNAyPCA
78.5767 77.0767 1.5000
Mañana 80.4613 78.7452 1.7161
Jornada Tarde 79.5400 73.0333 6.5067
Noche 73.3714 77.7143 -4.3429

Medias Truncadas para Performance RNA


10% 20% 40% 50% de la muestra
5% 10% 20% 25% de cada extremo de la muestra
Medias: 79.0111 79.4771 80.2389 80.6967

Script:
prctile(x5,[10 20 30 40 50 60 70 80 90 100]);
A=sortrows([ item x5 ],2); disp(' orden obs. n° Estadística de Orden para x5'); disp([item A]);
B=[A ,[1:60]']; n=60
disp('obs. n° valor Rango');% también directamente mediante tiedrank(x5)
for k=1:7;
for h=1:n;
if B(h,2)== x5(k)
rango(h)=B(h,3);
disp([k x5(k) rango(h)]);
end
end
end
yy=[x5 x6 x7]; mean(yy);% medias de las componentes de yy
mean(yy); grpstats(yy,T.Jornada); % medias según valores de x1
t10x5=trimmean(x5,10); t20x5=trimmean(x5,20); t40x5=trimmean(x5,40); t50x5=trimmean(x5,50)
mediastruncadas=[t10x5 t20x5 t40x5 t50x5]
disp (' Medias Truncada para Performance RNA ')
disp(' 10% 20% 40% 50% de la muestra')
disp(' 5% 10% 20% 25% de cada extremo de la muestra')
disp(mediastruncadas)

25
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1.4.2.- Estadísticas de Dispersión

Amplitud: Xmax  Xmin =MAX {xi} - Mín {xi} = X(n) - X(1) .

Amplitud intercuartílica (rango intercuartílico): Q3  Q1 es la amplitud del 50% central de los datos

n 2 k 2
Varianza muestral  V X  S2 :
 
2
S   xi  X / n  
: X  X
2
 
  xi  X fi  
i 1 i 1
Se dice desviación típica (o standard) al valor S, y también se anotará SX al referirnos a la
desviación típica de la variable X de entre otras variables en estudio.
n 2

Se puede verificar que S2 = min S2(a), con S2 (a) =  x i  a  /n .


i 1
n
Además, se pueden definir diversos tipos de desviaciones, al considerar: S(*a )   xi  a / n ;
i 1
que en los casos particulares: a= X , a= Me , se denomina desviación media y mediana
respectivamente.

n 2
Varianza muestral insesgada  s2 :
  
s2   xi  X /  n  1
i 1
Coeficiente de variación C. V. ( X) : C.V.(X)= S/ X , (es muy útil para comparar variabilidad entre dos
muestras). Aquella muestra que presenta el menor valor de C.V., se dice; que es la más
homogénea, y en caso contrario heterogénea.

Ejemplo1.7: Para los valores observados en Performance RNA

Varianza Desv. Coef.de Rango


estandard variac. Intercuartílico
156.1601 12.4964 0.1590 21.9000

Script:
CVx5=(std(x5))/mean(x5)
disp(' Varianza Desv. Coef.de Rango')
disp(' estandard variac. Intercuartílico')
disp([var(x5) std(x5) CVx5 prctile(x5,75)- prctile(x5,25)])
boxplot(x5)

En el caso bidimensional, se habla de estadísticas marginales, a las realizadas con las frecuencias
marginales, que corresponden a estudiar una variable ignorando la presencia de la otra. En el caso de
considerar los valores a que está sujeta la otra variable, tales estadísticas deben realizarse con las pertinentes
frecuencias condicionales. Así entonces se contempla:

26
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1

media aritmética de X sujeta a que y  B j : M X  y  B j : M X  B j      xi fi  j
i 1
c
media aritmética de Y sujeta a que x  Ai : M Y  x Ai  : M Y  Ai    y jf ji
j1
2
  
1

varianza muestral de X sujeta a que y  B j : V X  y  B j : V X  B j =     xi  M X| B j fi| j
i 1

 
c
varianza muestral de Y sujeta a que x  Ai : V Y| x Ai  : V Y| Ai  =  y j  M Y|Ai  f j|i
2
j 1
Estas definiciones permiten explicar la varianza de una variable a través de la siguiente expresión que es
denominada, descomposición de la varianza, que consiste en exponer los aportes en la varianza de una
variable, en términos de variabilidad de y entre los grupos o estratos que la componen, al considerar una
clasificación que es dada por otra variable. Así la descomposición de una variable X en términos de los grupos
originados por su restricción, dada por los valores de Y, queda como:

     
V X  M V X| B j  V M X| B j , donde

M VX| B j   VX| B jf. j


c
, (varianza intra estratos)
j 1
2
    
 MX| B j  M X f. j , (varianza entre estratos
c
V M X| B j =
j1

1.4.3.- Estadísticas de Forma

Como podremos apreciar, estas estadísticas están en términos de: transformaciones de estadísticas de

posición, dispersión ya mencionadas o de X  X  , r  2,3,4... ; momentos empíricos de orden superior


r

respecto de la media.

Estadísticas de asimetría: son valores como los siguientes,

    / S 3 , I s  Q1  Q3  2Q2  / Q3  Q1 


3
As  X  M 0 / S , as  X  X
que de acuerdo a su signo indican el sentido de la asimetría.
En los casos unimodales, como indicadores de estas características, también pueden utilizarse
comparaciones entre distintas estadísticas citadas en los casos anteriores, como es el caso de:
M0  Me  X  estamos en presencia de asimetría positiva
X  Me  M0  " " " " asimetría negativa
M0  Me  X  " " " " simetría

Como Estadística de achatamiento, podemos entre otras citar

 
4
a XX / S 4  3, que de acuerdo a si es:

cero  curvatura no extrema


negativa  curva muy aguzada
positiva  curva muy achatada

27
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo1.8
Perf.RNA Perf.PCA Diferencia
asimetría -0.5116 -0.2327 0.0317
curtosis -0.9715 -0.8618 -0.8606

Script:
disp(' Perf.RNA Perf.PCA Diferencia'); as=skewness(X2);a= kurtosis(X2)-3; disp(as);disp(a)

1.4.4.- Estadísticas de asociación:

Según la escala de medición a que correspondan las variables a analizar, se han definido estadísticas para los
particulares objetivos e interpretaciones que se pretenda detectar. Por tal motivo se distinguen entre las
diversas alternativas, algunas como las siguientes, que se exponen para el caso de analizar una muestra bi-
variada formada por n observaciones: (X1,Y1),........,(Xn,Yn ).

1.4.4.1.- Para variables cuantitativas

Estadística de Pearson ( r ): Para cuantificar la ligazón entre dos variables cuantitativas, se puede
considerar un valor como, la covarianza, denotado y definido mediante:

 
n 1 c
cov X, Y   
 xi  X yi  Y / n  
   xi  X y j  Y fij ,
i 1 i 1 j 1
que será, un valor grande, si a medida que los datos se alejan de la media en una de las variables la otra
también lo hace respecto de su propia media.

Ahora para responder la pregunta obvia, ¿cuando tal valor es grande?, debemos recurrir a algo no obvio pero
natural para acotar una expresión de suma de productos, conocido como desigualdad de Cauchy-Schwartz:
n n n
  ai bi  2    ai  2   bi  2 , ai , bi números reales.
i 1 i 1 i 1
Considerando ai  X i  X , bi  Yi  Y , al aplicar directamente ésta desigualdad, logramos :
cov 2 (X,Y)  V(X) V(Y), lo que es equivalente a - Sx Sy  cov(X,Y)  Sx Sy , con lo que damos
respuesta a la interrogante aquí planteada.

A su vez, con lo anterior se puede construir un coeficiente:


r 2 = cov 2 (X,Y) / V(X) V(Y), denominado coeficiente de determinación, también denotado por rx , y ;
2

el valor r se denomina coeficiente de correlación (de Pearson), el cual satisface: -1  r  1.

Así obtenemos una medición más clara que la dada sólo por la covarianza, pues valores próximos a -1 o 1
nos indican un alto grado de ligazón (lineal), y la interpretación de valores próximos a cero ha de entenderse
como de no ligazón (lineal) entre las variables.
Se debe tener presente, que toda afirmación, referente al comportamiento de los datos observados (de una o
más variables), para generalizarse al comportamiento de la población en estudio; debe contemplar un análisis,
enmarcado en lo que nos referiremos formalmente más adelante como inferencia.

28
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1.4.4.2.- Para variables Cualitativas

Estadística de Kendall (): diseñada para el caso ordinal y se basa en estudiar los registros de las variables
comprometidas para cada observación y contabilizar sus concordancias y discrepancias con las restantes
observaciones, en el siguiente sentido:
concordancias ( observaciones con la misma relación de orden estricto entre sus respectivas componentes), y
discordancias (observaciones que poseen una relación de orden inverso estricto entre sus respectivas
componentes).
Excluyendo empates (coincidencias entre componentes), se origina la estadística (coeficiente de correlación)
de Kendall:
 = (Nc-Nd)/(n(n-1)/2)
donde Nc, Nd denotan el número de pares de observaciones concordantes y discordantes, respectivamente.
n
Como   = n(n-1)/2, es el total de concordancias, discordancias y empates en la muestra, entonces
 2
-1    1 .

Estadística de Spearman (): apropiada para el caso ordinal, es una aplicación de la estadística de Pearson
a la muestra conformada por los rangos de ambas características registradas en cada variable:

= coeficiente de correlación de Pearson entre rango X y rango Y = rR(X),R(Y)


n

entonces =
 ( R( X
i 1
i )  R ( X ))( R (Yi )  R (Y ))
,
n n

 ( R( X
i 1
i )  R ( X )) 2  ( R (Yi )  R (Y )) 2
i 1

 
n
que en ausencia de empates =  R( X i )  (n  1) / 2R(Yi )  (n  1) / 2 / n(n 2  1) / 12 ; caso en el
i 1
n
=1-6T/(n(n2-1)), donde T=  R( X i )  R(Yi )  .
2
cual, esta expresión, también se reduce a:
i 1

De esta manera, cuando || =1 o 0, respectivamente; nos revela, si en las observaciones, existe o no una
asociación lineal exacta entre los rangos de ambas características en estudio. Claramente se aprecia de la
expresión estructurada para ausencia de empates (cuando las observaciones en cada característica no
representan repetición), que el valor  =1, es sinónimo de que los respectivos rangos en cada observación son

coincidentes R( X i )  R(Yi ), i  1,..., n . 

Estadística Chi-cuadrado (  ): definida para el caso nominal; permite detectar cuán próximas están las
2

frecuencias relativas: observadas (Oi), de las propuestas , esperadas o teóricas (E i), mediante:

(Oi  Ei ) 2
k
 
2
, donde k es el número de clases o grupos distintos a considerar.
i 1 Ei

La cual, se aplica para identificar modelos de comportamiento plausible de una variable cualitativa, detectar
independencia, o casos muy particulares de asociación que se presuma entre variables.

29
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo1.9

La asociación entre :

- Jornada y Clima: para detectar si estas son características independientes, se evalúa retomando el Script del
ejemplo 1.4 o bién directamente de lo ya obtenido, lográndose para estas 60 observaciones:

Oij Eij
31 0 23.16 7.7502
0 15 11.25 3.75
14 0 10.5 3.5
de donde calculamos la estadística Chi-cuadrado=58.9279, valor enorme, lo que indica un alejamiento
sustantivo respecto a una conducta independiente, por ende sugiere que deben estar muy asociadas ambas
situaciones. Sobre lo cual es posible ser más categórico según veremos más adelante en Ejemplo6.7.

- Performance RNA y PCA puede ser evaluada mediante:


Coeficiente de Correlación de Pearson: r (x5,x6) = - 0.2386. Valor que indica una muy baja asociación
opuesta entre ambas variables.
Y también a través de Kendall y Spearman
Pearson Kendall Spearman
-0.2386 -0.1604 -0.2047
Se agrega nuevamente Pearson , ya que puede ser también obtenida a partir de una sentencia común.

Script:

O=[31 0;0 15;10 0]; Edivn=[0.386 0.12917; 0.1875 0.0625; 0.175 0.058333]
E=n*Edivn; chicuadrado=sum(sum(((O-E).^2)./E))

corr(x5,x6)
[RHOspearman,PVAL] = corr(x5,x6,'Type','Spearman');[RHOkendall,PVAL] = corr(x5,x6,'Type','Kendall');
[RHOpearson,PVAL] = corr(x5,x6,'Type','Pearson');disp(' Pearson Kendall Spearman');
disp( [RHOpearson RHOkendall RHOspearman])

30
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Anexo1:base de datos Ejemplo1


item Jornada clima nivrec Estado PerfRNA PerfPCA DifRNAyPCA
1 'mañana' 'despejado' 'deficiente' 'rechazado' 67.2 74.9 -7.7
2 'tarde' 'nublado' 'bueno' 'aceptado' 79.6 80.1 -0.5
3 'noche' 'despejado' 'regular' 'aceptado' 58.2 80.3 -22.1
4 'mañana' 'despejado' 'regular' 'aceptado' 83.5 74.4 9.1
5 'tarde' 'nublado' 'regular' 'aceptado' 78.9 72 6.9
6 'noche' 'despejado' 'regular' 'aceptado' 65.5 83.1 -17.6
7 'mañana' 'despejado' 'bueno' 'aceptado' 90.4 70.7 19.7
8 'tarde' 'nublado' 'regular' 'aceptado' 84 62.4 21.6
9 'noche' 'despejado' 'bueno' 'aceptado' 88.7 91.3 -2.6
10 'mañana' 'despejado' 'bueno' 'aceptado' 92 82.2 9.8
11 'mañana' 'despejado' 'bueno' 'aceptado' 64.7 79.4 -14.7
12 'mañana' 'despejado' 'bueno' 'aceptado' 57.4 81.2 -23.8
13 'mañana' 'despejado' 'bueno' 'aceptado' 90.9 65.1 25.8
14 'mañana' 'despejado' 'regular' 'aceptado' 88.4 89.2 -0.8
15 'tarde' 'nublado' 'regular' 'aceptado' 75 83 -8
16 'noche' 'despejado' 'regular' 'aceptado' 65.1 82 -16.9
17 'maña na' 'despejado' 'bueno' 'aceptado' 51.4 90.2 -38.8
18 'tarde' 'nublado' 'regular' 'aceptado' 69.9 73 -3.1
19 'noche' 'despejado' 'regular' 'aceptado' 85 70.8 14.2
20 'mañana' 'despejado' 'bueno' 'aceptado' 54.9 83.1 -28.2
21 'tarde' 'nublado' 'regular' 'aceptado' 85 88 -3
22 'noche' 'despejado' 'regular' 'aceptado' 86 88 -2
23 'mañana' 'despejado' 'bueno' 'aceptado' 93 78.3 14.7
24 'mañana' 'despejado' 'bueno' 'aceptado' 66.9 92 -25.1
25 'mañana' 'despejado' 'bueno' 'aceptado' 90 53.3 36.7
26 'mañana' 'despejado' 'bueno' 'aceptado' 90 57 33
27 'mañana' 'despejado' 'bueno' 'aceptado' 92.3 91.7 0.6
28 'tarde' 'nublado' 'regular' 'aceptado' 65.8 62.7 3.1
29 'noche' 'despejado' 'regular' 'aceptado' 58 88 -30
30 'mañana' 'despejado' 'bueno' 'aceptado' 92.7 85.8 6.9
31 'tarde' 'nublado' 'regular' 'aceptado' 76.8 74 2.8
32 'noche' 'despejado' 'regular' 'aceptado' 63.9 88 -24.1
33 'mañana' 'despejado' 'bueno' 'aceptado' 83 97.9 -14.9
34 'tarde' 'nublado' 'regular' 'aceptado' 86 80.6 5.4
35 'noche' 'despejado' 'regular' 'aceptado' 70.3 85.1 -14.8
36 'mañana' 'despejado' 'bueno' 'aceptado' 94 58.4 35.6
37 'mañana' 'despejado' 'bueno' 'aceptado' 7.5 70.9 6.6
38 'mañana' 'despejado' 'regular' 'aceptado' 89.2 85.3 3.9
39 'mañana' 'despejado' 'bueno' 'aceptado' 57.6 74.6 -17
40 'mañana' 'despejado' 'bueno' 'aceptado' 62.3 74 -11.7
41 'tarde' 'nublado' 'regular' 'aceptado' 86.5 67 19.5
42 'noche' 'despejado' 'regular' 'aceptado' 81.8 63.7 18.1
43 'mañana' 'despejado' 'bueno' 'aceptado' 97.4 82.6 14.8
44 'tarde' 'nublado' 'regular' 'aceptado' 65.8 75 -9.2
45 'noche' 'despejado' 'regular' 'aceptado' 87 68.5 18.5
46 'mañana' 'despejado' 'bueno' 'aceptado' 69.7 91.6 -21.9
47 'tarde' 'nublado' 'regular' 'aceptado' 87 66 21
48 'noche' 'despejado' 'regular' 'aceptado' 88 56.3 31.7
49 'mañana' 'despejado' 'bueno' 'aceptado' 95 55.4 39.6
50 'mañana' 'despejado' 'bueno' 'aceptado' 93 99.9 -6.9
51 'mañana' 'despejado' 'bueno' 'aceptado' 90 87.1 2.9
52 'mañana' 'despejado' 'bueno' 'aceptado' 91 61.6 29.4
53 'mañana' 'despejado' 'bueno' 'aceptado' 78.6 98.2 -19.6
54 'tarde' 'nublado' 'regular' 'aceptado' 76.8 79 -2.2
55 'noche' 'despejado' 'deficiente' 'rechazado' 74.4 54.9 19.5
56 'mañana' 'despejado' 'bueno' 'aceptado' 75.1 57.7 17.4
57 'tarde' 'nublado' 'regular' 'aceptado' 88 76 12
58 'noche' 'despejado' 'regular' 'aceptado' 55.3 88 -32.7
59 'mañana' 'despejado' 'bueno' 'aceptado' 75.2 97.4 -22.2
60 'tarde' 'nublado' 'regular' 'aceptado' 88 56.7 31.3

31
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CAPITULO II

ESPACIO DE PROBABILIDAD

Las nociones básicas en la teoría de probabilidad son sucesos y probabilidad, donde la probabilidad
tiene el sentido de intentar un orden de estos sucesos según formalizaremos más adelante.

Los fenómenos a estudiar en esta sección son aquellos del tipo no determinístico (aleatorio o
estocástico), de los cuales sólo se conocen los resultados factibles antes de su realización, pero
no cual será su resultado antes de que este ocurra.

Consideraremos a seguir que las ordenaciones de probabilidad para sucesos, sugeridas, están dadas por
funciones real valoradas que verifican ciertas características y a las que llamaremos funciones de
probabilidad o bien medidas de probabilidad, las propiedades de dichas ordenaciones se han de
desprender de las operaciones y relaciones a definir entre sucesos.

2.1.- ESPACIO MUESTRAL

Si identificamos como E a un particular experimento aleatorio, y por M a aquel conjunto constituido por
todos los resultados posibles de E; podemos entender como espacio muestral a un conjunto originado por
alguna agrupación de los componentes de M.

Definición
Diremos que  es un espacio muestral asociado al experimento E sii
existe una aplicación epiyectiva f : M  , m  f (m)  w  ;
así w es el elemento de  asociado al resultado m del experimento E.

De esta manera el propio M es un espacio muestral y naturalmente el más detallado. Razón por lo que en la
literatura (como la que aquí se presenta) orientada a las aplicaciones se identifica como el espacio muestral
asociado al experimento al propio M, dejándose el uso de aquella función epiyectiva diferente de la
identidad para análisis más formales.

Ejemplo2.1
Consideremos el experimento E que consiste en:
1) Lanzar al aire en forma aleatoria una moneda 2 veces y observar la cara superior una vez que ha caído, así
entonces nuestro conjunto de resultados posibles debe constar de dos componentes que se identifiquen
con cada moneda; M={(cara,sello),(sello,cara),(sello,sello),(cara,cara)} y disponemos entre otros de los
siguientes espacios muestrales:
 = {(c,s),(s,c),(s,s),(c,c)} , o
 = {0,1,2} , si apreciamos el número de caras ocurridas.

33
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

2) Observar la vida útil de un particular articulo, entonces nuestro conjunto de resultados posibles debe
presentar el tiempo transcurrido hasta que falle y por lo tanto M= IR+ (a lo mas) igual al conjunto de los
números reales positivos, por lo cual podemos mencionar:
= IR+
={c,s} , si nos interesamos en saber si satisface o no cierta propiedad (como puede ser la norma
de calidad exigida)

2.2.- SUCESOS Y OPERACIONES

Nos referiremos a los subconjuntos del espacio muestral asociado al experimento E, como sucesos. Aquellos
sucesos formados por un sólo elemento se dirán elementales.

La ocurrencia o no de un particular suceso estará determinada entonces por la pertenencia a  del particular
resultado de este experimento, en los términos que a continuación definimos.

Definición

Sean: w un particular resultado del experimento, A un suceso, diremos que:
A ocurre  wA
De esta manera al considerar un suceso A en un espacio muestral  ; A no ocurre  w A
c c
(e.d. A ocurre  w A  w A ), razón por la que nos referiremos al suceso A como el suceso

contrario de A.

De esta manera tenemos que:


 es el suceso seguro
 es el suceso imposible
 
2 el conjunto de las partes (o potencia) de , e.d. 2 = {A / A},

agrupa a todos los sucesos vinculados al experimento E.

Al igual que los conjuntos, los sucesos pueden ser definidos por proposiciones en términos de verdadero o
falso, asociadas a ocurre o no ocurre respectivamente. Apreciaremos a continuación algunas propiedades
referentes a sucesos, emanadas de definir sus operaciones, de forma análoga que para conjuntos.

Propiedades

La ocurrencia de sucesos queda determinada por:


a) A; Ac ocurre  A no ocurre

b) Sea {Ai   iI} entonces,


 A i ocurre  ocurre al menos un Ai
i I
 A i ocurre  ocurren todos loa Ai
i I

34
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

   
c) Sea {Ai   iIN}, definiendo: lim sup Ai =   i , lim inf Ai =   i ; entonces,
k 1 ik k 1 ik

lim sup Ai ocurre   i ocurre k, kIN
ik
 ocurren infinitos Ai

lim inf Ai ocurre    i ocurre para al menos un k IN
i k
 ocurren todos los Ai , excepto un número finito.

En estos términos podemos decir que, todas las propiedades del álgebra de conjuntos se verifican para el
álgebra de sucesos, modificándose sólo la forma de expresarlo. Por ejemplo en la teoría de conjuntos una
de las leyes de Morgan se presenta como:
c
  A    A c , en nuestros términos nos expone que el decir "no ocurre al menos uno de los sucesos"
 iI i  i I
i

es lo mismo a que "ocurran todos los sucesos contrarios".

Definición

Se dice que el suceso A implica el suceso B y se anotará AB sii: AB.


Lo que significa que toda vez que A ocurre entonces B ocurre.

Por las propiedades anteriores se puede apreciar la conveniencia de referiremos indistintamente a un A,


A y el suceso A, que adoptaremos en adelante.

Definición

Sea  espacio muestral , A2 es un -álgebra (de conjuntos de ) siempre y cuando satisfaga las siguientes
tres condiciones:
i) A
ii) A  A  Ac  A
iii) An A, n, nIN   An  A
n IN
Además entenderemos por espacio medible, al par (,A), donde  es el espacio muestral de interés y A una
-álgebra asociada.

Propiedades

Sea A un -álgebra de subconjuntos de  entonces,


1) A
k
2) Si An  A, n, n IN   n ,  n ,  n , lim sup An , y lim inf An son elementos de A.
n IN n=1 n=1

Ahora nuestra inquietud es ver si es factible el disponer de una tal estructura además de las
triviales: A={,} y A =2.

35
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Definición

Sea  = {intervalos en IR}, se define la -álgebra de Borel en IR, A ())=: , como la -álgebra más pequeña
que contiene a  ( todos los intervalos en IR), y sus elementos se denominan borelianos.

Observación

Si consideramos los siguientes conjuntos de intervalos en IR:


W1 = {]a,b[; a,b  IR }, W2 = {]a,b]; a,b  IR },
W3 = {[a,b[; a,b  IR,}, W4 = {[a,b]; a,b  IR },
es posible describir un elemento de cualquiera de estos conjuntos, en términos de uniones o intersecciones de
elementos de cualquiera de los otros conjuntos; por ejemplo:

]a,b] =  ]a,b+1/n[ =  [a+1/n,b] =  ]a-1/n,b+1/n].


n IN n IN n IN
Tal razón permite verificar que:
 = A(W1)=A(W2)=A(W3)=A(W4).

Como no es el propósito de este curso el extenderse en estos elementos formales, de ahora en adelante, cada
vez que hablemos de -álgebra asociada a un espacio muestral  nos referiremos a la -álgebra trivial A =2.

2.3.- MEDIDA DE PROBABILIDAD

Nos corresponde ahora el exponer los conceptos conducentes a estructurar una cierta ordenación de los
sucesos en un determinado espacio muestral.

Definición

Se denomina medida de probabilidad (o simplemente probabilidad) sobre el espacio medible (,A ), a toda
aplicación P: A IR , AP(A) que satisfaga las siguientes condiciones:
i) P (A) 0, A A
ii) P ()= 1
iii) Si {An / An  A, nIN} es una familia disjunta (toda intersección finita de elementos de esta familia
es vacía), entonces P(  An ) =
n IN

P(An).
n IN
La terna (, A, P) formada por un espacio muestral, una -álgebra y una medida de probabilidad asociada se
denomina espacio de probabilidad. Recordando que sólo utilizaremos la -álgebra trivial, la podemos omitir
y reducirnos simplemente a escribir esto como (, P).

Notación
En atención, a la tercera propiedad de las medidas de probabilidad, podemos adoptar una muy cómoda
notación, cuando estemos en presencia de: {An / An  A , nIN } una familia disjunta de sub-conjuntos de 
(la que también es denominada familia de eventos mutuamente excluyentes), escribiremos 
A n en lugar
de  A n . Así, en particular para A,B conjuntos disjuntos anotaremos A+B en lugar de A  B.

36
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Propiedades

Sea (Ω, P) un espacio de probabilidad, entonces


1) P ()=0
2) A , B  A mutuamente excluyentes  P(A +B)=P(A)+P(B)
3) A A  P(Ac)= 1- P(A)
4) A, B  A, P(A  Bc)=P(A) – P(A  B)
5) A, B  A, A  B  P(A)  P(B)
6) A, B  A  P(A  B )=P(A) + P(B) - P(A  B)
Además, para Ai  A, i=1,...,n;
n n n n n
P( Ai )   P( Ai )   P( Ai  A j )   P( Ai  A j  Ak )  .....  (1) n1 P( Ai ).
i 1 i 1 i j i j k i 1
7) Sean An  A, nIN, tq. An  An+1 entonces P(lim An) = lim P(An)
8) Sean An  A, nIN entonces, P(lim inf An)lim inf P(An)lim sup P(An)P(lim sup An).
Además si lim inf An = A = lim sup An, se dice que existe lim An=A ; en tal caso P(lim An) = lim P(An).

Observación
Para un espacio de probabilidad (, P), tal que:
 es finito, siendo n su cardinalidad (o número de elementos) que denotaremos =n, y
P(w)= p, w , ( es decir todos sus sucesos son equiprobables),
entonces:
1) p = 1/n,
#A k
2) A A; P(A)=  , donde #A = k, es la cardinalidad (o número de elementos) de A,.
#  n
Este resultado es el que habitualmente se conoce como: "la probabilidad de un suceso A"
(en espacios muestrales finitos) "es el número de casos favorables (#A) dividido por el número de casos
posibles (#)". Para lo cual sólo necesitamos saber contar. Lo cual en muchos casos no es tarea fácil, el
lector encontrará en Vilenkin (1976) un agradable texto que rápidamente dejará en evidencia lo que significa
esta tarea a través de anecdóticos casos. Los respectivos elementos de conteo se basan en dos axiomas:
adición y multiplicación, que dan origen a las permutaciones, combinaciones y arreglos que se encuentran en
una vasta bibliografía.

Ejemplo2.2
1) (Los cumpleaños)
Para un curso de 20 alumnos, determine la probabilidad de que al menos 2 alumnos de este
curso coincidan en el día de su cumpleaños.
Solución
E: es el experimento que consiste en anotar el día de cumpleaños de cada uno de los 20 alumnos.
Como es habitual en tales conmemoraciones no consideraremos años bisiestos, quedando entonces en
nuestro espacio muestral el registro de las eventuales observaciones, de la siguiente manera:
={  x1 ,......, x20  / xi 1,....,365 , i=1,..., 20}
x i : es el día del año en que el alumno i esta de cumpleaños
A: el suceso (de interés) que indica coincidencia de al menos 2 personas en el día de su cumpleaños,
entonces
c
A : indica que no hay coincidencia alguna en el día de cumpleaños en un tal grupo.
# = (365)20 , #  = 365 364
c
346,

c
#
P(A) = 1 - P(  ) = 1-
c
= 1 - 0.5886 = 0.4114
#

37
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Como curiosidad podemos apreciar que para distinto número de alumnos ( distintos experimentos) se
tienen los siguientes valores de probabilidad:

Experimento 1 2 3 4 5 6 7 8 9 10 11
n 5 10 15 20 22 23 25 30 40 50 60
P(A) .027 .117 .253 .411 .476 .507 .567 .706 .891 .97 .994

Se aprecia entonces, que en grupos de 50 personas,


estamos casi seguros (excepto por un error del 3%)
de encontrar al menos una coincidencia de fecha
de cumpleaños.

Script:
x=[5 10 15 20 22 23 25 30 40 50 60]
y=[.027 .117 .253 .411 .476 .507 .567 .706 .891 .97 .994]
plot(x,y, 'r--o')

2) (Los pedidos)
A petición de una empresa faenadora, desde n de entre M granjas se envía un número determinado de
pollos para su procesamiento. Admitiendo que los pedidos pueden ser surtidos sin inconveniente por
cualquiera de las granjas, estos se realizan indistintamente a cada granja sin preferencia u ordenamiento
alguno (al azar). Determine la probabilidad de que una granja deba satisfacer exactamente k pedidos.
Solución
M: números de granjas, n: número de pedidos
E: consiste en realizar n pedidos a M granjas
= {(x1,......,xn ) / xi  {1,....,M},i=1....,n}
x i : pedido i-ésimo.
A : el suceso que nos indica que k de los n pedidos se solicitan a una sola granja.
# = Mn
#A= número de maneras de realizar k pedidos entre n a una particular granja y los restantes a las demás
=(número de formas de realizar k pedidos de entre n) multiplicado por el (número de maneras de
requerir n-k pedidos a M-1 granjas)
 n
=   (M-1)n-k
 k
nk
 n  n  n  1  
k
1 
P(A) =   (M-1)n-k / Mn =   (M-1)n (M-1)-k/Mn =    1  
 k  k  k  M   M 
Resultado de particular comportamiento para distintos valores de n; lo cual ilustramos para m=2 y
retomaremos en el capítulo3

Script:
k= 0:5; PA=binopdf(k,5,0.5); plot(k,PA,'bo'); k= 0:10;PA1=binopdf(k,10,0.5); plot(k,PA1,'bo')
k= 0:30;PA2=binopdf(k,30,0.5); plot(k,PA2,'bo')

38
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3) (Las coincidencias)
Al llegar a su oficina y mirar su escritorio la secretaria de un cierto ejecutivo observa que las cartas
listas para colocar en los respectivos sobres dirigidos a n empresarios que había dejado el día anterior no
estaban en su lugar y menos en el respectivo orden. Su autoritario jefe que la observa confundida le ordena
colocar los sobres, cerrarlos y enviar al correo de inmediato. Es entonces que ella decide colocar las cartas
en los sobres sin preocuparse de su correcto destinatario. Determine la probabilidad de que a lo menos una
carta haya sido colocada en el sobre correcto.
Solución
No tenemos más que suponer que lo que se produjo es un total desorden entre cartas y sobres, entonces la
introducción de cartas en sobres la secretaria la realizó totalmente al azar.
Siendo Ai el suceso la carta i es colocada en el sobre correcto tenemos que,
n
P(Ai ) = 1/n, i=,...,n , y lo que nos interesa es calcular la probabilidad de  Ai, lo cual
i 1
requiere de: P(Ai  Aj) = 1/(n(n-1)), i,j  {1,....,n},ij
P(Ai  Aj  Ak) = 1/(n(n-1)(n-2)), i,j,k  {1,....,n}, subíndices diferentes

hasta considerar todos estos sucesos en


 n

P   A i  = 1/n!
 i 1 

 n

n
1 1 1  1 n 1

   A i       .....
 i 1  i  n i  n n  1 i  j n n  1 n  2 n!
1  n 1  n 1  1 n 1

= n     ....
n  2 n n  1  3 n n  1 n  2 n!
1 1 1 1  1 n 1

= 1-    .... .
2! 3! 4 ! 5! n!

n 
Además lím   A i   1  e 1 es el valor de la probabilidad de haber enviado al menos un sobre al
n   i 1 
destinatario correcto, cuando tenemos una situación extrema de incontables (pero numerables) sobres.

2.4.- PROBABILIDAD CONDICIONAL

Para poder estudiar cuán factible de ocurrir es un determinado suceso, sabiendo que otro
particular ha ocurrido (o se ha dado). Podemos situarnos en un nuevo espacio muestral como la restricción
del original al suceso dado y entonces definir la nueva función de probabilidad. Sin embargo para lograr una
relación coherente con el valor de la probabilidad del suceso ocurrido se opta por definir una nueva medida de
probabilidad a partir de la anterior en términos de la proporción de las veces que ocurren ambos sucesos
simultáneamente respecto de la ocurrencia del ya dado. Por esta razón es que de la siguiente manera se
presentan las ideas de esta nueva función de probabilidad.

Definición

Sean: (, A,P) un espacio de probabilidad, BA, tal que P(B)>0, entonces se define la función de probabilidad
condicional PB ( que también de acostumbra anotar P(.B)) como aquella aplicación dada por:

39
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

PB : A,  IR, A  PB (A) =: P(AB) = P (A  B) / P(B), a la cual nos referiremos como probabilidad de A dado
B.

Efectivamente, la aplicación PB (A) = P (A  B) / P(B), A A ; es una medida de probabilidad, por lo cual
(,A,PB ) se denomina espacio de probabilidad condicional (condicionado a B).

Definición
Sea (,A,P) un espacio de probabilidad. Diremos que los sucesos A,B  A son independientes sii:
P(A  B) = P(A) P(B)

La siguiente observación nos clarifica este concepto.

Observación
Sean (,A,P) espacio de probabilidad, A,B A tal que P(B)>0 entonces,
A,B independientes  P(AB) = P(A).
En otras palabras, la independencia entre dos sucesos se refleja en que la probabilidad condicional de uno de
ellos dado el otro no depende de este; quedando entonces la probabilidad de que tal suceso condicionado
ocurra como la probabilidad sólo de su propia ocurrencia, sin que el suceso considerado como condición
intervenga.

A seguir presentamos la extensión del concepto de independencia al caso de considerar una sucesión de
sucesos.

Definición
Sean:(, A,P) espacio de probabilidad, I={n/nk, n,k,IN} familia de subíndices,
{Ai / Ai A, iI} familia de sucesos. Diremos que {Ai / Ai A, iI } son conjuntamente independientes sii:

Dado J I, P   A i  A i 
 iJ   i
J
Por tal motivo, en una familia de n términos (finita) para afirmar dicha propiedad se deben efectuar, 2 n-(n+1),
verificaciones.

Observación
En una familia de sucesos, la independencia de a pares de todos los sucesos que la componen, no implica la
independencia conjunta de todos ellos.

Para ilustrar esto, basta considerar el siguiente caso (, A,P):


  w1 , w2 , w3 , w4 , A = 2  , P({w}) = 1/4, w.

Los sucesos A={w1, w4}, B={w2 , w4}, C= {w 3 , w 4 }, como se aprecia a continuación resultan ser
independientes de a pares pero no conjuntamente independientes:

P(A) = P(B) = P(C) = 1/4 + 1/4 = 1/2, entonces P(A)P(B) = P(A)P(C) = P(B)P(C) =1/4 ,
P(A) P(B) P(C) = (1/2)3 =1/8 .

A  B = A  C = B  C = A  B  C ={w4}, luego P(A  B) = P(A  C) = P(B  C) = P({w4}) = 1/4 ,


entonces
P(A  B) = P(A  C) = P(B  C) = P(A)P(B) = P(A)P(C) = P(B)P(C), pero
P(A  B  C) = P({w4}) = 1/4  P(A) P(B) P(C).

40
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo2.3

1) (El lanzamiento de un dado)


Al observar los resultados, obtenidos al lanzar totalmente al azar un dado. ¿Puede Ud. afirmar
independencia, entre los sucesos que indican, el resultado es un número par, con que éste sea inferior a 5?

Solución
Efectivamente puesto que:
 = {1,2,3,4,5,6} , A = {2,4,6}, y B = {1,2,3,4}
=6, #A=3, #B=4, entonces P(A)=3/6, P(B)=4/6, con lo cual se concluye que:
34 12 1 2
P(A) P(B) =        .
66 23 3 6
2) (El control de calidad)
Supongamos que una maquina produce un artículo defectuoso con probabilidad p (e.d. un 100p% de su
producción es defectuosa). Para su control se seleccionan al azar 6 artículos producidos por esta
máquina. Determine la probabilidad de que resulten:
i) los 6 artículos defectuosos
ii) al menos uno defectuoso
iii) dos de los seis artículos defectuosos
Solución
En este caso podemos considerar:
 = {0,1,2,3,4,5,6} o bien al propio conjunto M aludido en 2.1, que en este caso esta dado por :
{{xi /xi {defectuoso, no defectuoso}, i=1,..,6}}.
Identificando sucesos como a continuación se indica:
Di : el artículo i-ésimo seleccionado resulta defectuoso
Ni : " " " " " no defectuoso,
siendo la selección completamente al azar, se está admitiendo la independencia de resultados, y denotando
q=1-p tenemos que :

  D i    D 1   p 6
6
6
i) P(D1  D2  D3  D4  D5  D6 ) =
i 1

6 6
c
ii) Sea B =  D i entonces Bc =  Di indica que todos los artículos son no defectuosos, por lo tanto:
i 1 i 1
P(B) = 1-P(Bc ) = 1-q6

iv) P (D1  D2  N3  N4  N5  N6 ) = P(D1 )P(N2 )P(N3 )P(D4 )P(N5 )P(N6 ) = p2q4 , y sabiendo que

 6
de   maneras pueden presentarse dos defectuosos entre seis, se concluye que:
 2
 6 2 4
P(dos de los seis artículos son defectuosos) =   pq
 2

3) (La encuesta de aceptación)


Se seleccionan personas de manera lo más al azar posible y se les pregunta individualmente si
votarán o no por un cierto candidato en las próximas elecciones. Determine la probabilidad de que se
necesite encuestar a n personas para lograr el primer ciudadano dispuesto a votar por nuestro abanderado.
Solución
Siendo p la probabilidad de que un ciudadano diga estar dispuesto a votar por el candidato en referencia,
y considerando que nuestra encuesta se realiza en forma correcta se puede admitir la independencia de
opinión entre los encuestados, se puede decir que, la probabilidad pedida es:

41
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

p qn-1 pues las primeras n-1 personas no están a su favor y en la n-ésima entrevista se alcanza el k-ésimo
éxito (en este caso k=1) .
Además el lector puede verificar fácilmente que:

 n  1 k n  k
a)   p q , es la probabilidad de requerir n encuestados para completar k adeptos por tal
 k  1
candidato, n∈ {𝑘, 𝑘 + 1, 𝑘 + 2, … … . }
b) en el caso de universo electoral no acotado:
con probabilidad aproximadamente uno (certeza) se tiene al menos un votante a favor, ed. con seguridad
no todos lo descartan (claro es seguro que "alguien" vota por el).

A continuación, ilustramos el caso p=1/2, k=1: considerano x como la cantidad de encuestados


adicionales; x=n-k, ( intentos adicionales).

Script:
p=1/2; k=1; x=0:10; f1=nbinpdf(x,k,0.5); plot(x,f1,'o');

4) (El coleccionista)
No hay quién en algún período de su infancia no haya coleccionado estampillas para intentar
(muchas veces sin éxito) completar los r espacios de un determinado álbum de figuras.

Admitiendo el hecho no muy cierto que la empresa editora emite todas las estampillas del álbum en
igual cantidad y las empaca totalmente al azar en pequeños sobres. Determine la probabilidad de que al
comprar una cantidad de sobres equivalentes a n (nr) estampillas, todavía no completemos el álbum.
Solución
Con tales supuestos se indica la independencia conjunta de los sucesos:
Ai :el suceso la estampa i no aparece entre las n compradas, i=1,....,r
r
entonces nos interesa obtener la probabilidad de que ocurra:  A i que nos indica falta al menos un espacio
i 1
por llenar en el álbum.
P(Ai) = (1-(1/r))n = ((r-1)/r)n

P(Ai  Aj) = (1-(2/r))n = ((r-2)/r)n ij

P(Ai  Aj  Ah ) = ((r-3)/r)n……………………………

P 
 r 1 A  = ((r-(r-1))/r)n , y  r 
 P  Ai  = 0
 i 1 i   i 1 

42
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

r  r
  i    r  1/r    r  2 /r    r  3/r   ...   1  r  r  1/r 
n n n r 1 n

 i 1  i i j

r r r 1  r 
= r r - 1/r    r  2 /r    r  3/r   ...   1  r  r  1/r n
n n n

 2  3  r  1
Se deja al lector el analizar como cambia esta probabilidad en función de los valores de r y n.

A continuación presentamos las tres propiedades más útiles en las aplicaciones de esta medida de
probabilidad condicional. Se conocen habitualmente como teoremas de la probabilidad: producto, total y
Bayes, respectivamente.

Propiedades

Consideremos el conjunto de índices I={1,2,...,n}, para algún nIN.

 n 1 A  > 0 entonces,  n A    A    A i  A j 
i 1
 
n
1) Sean Ai  A, iI tal que P     
 i 1 i   i 1 i  1
i2  j 1 

2) Sea {Ei  A / iI} una participación de  (entonces  P(Ei )=1), tal que, P(Ei )>0, iI entonces,

2.1) P(A) =  P(Ei ) P(A Ei ) , AA, y


i I

2.2) Dado jI; P(Ej  A) =P(Ej ) P(A Ej ) /{  P(Ei) P(A Ej)}, que es consecuencia inmediata de 2.1 .
i I

Ejemplo2.4
1) (La fiesta de 15 años)
Habitualmente una celebración se inicia con pocos invitados que gradualmente llegan durante su
desarrollo.
Unos entusiastas menores de edad desean que la fiesta planeada para 20 jóvenes, en homenaje a
Paulina que hoy cumple 15 anos, ha comenzado y encontrándose la homenajeada, sus 2 hermanos, junto a
sus primeros invitados en llegar, su mejor amiga, un primo y tres amigos, se informan que nadie más sabe
de ésta fiesta.
Esperando que la fiesta en parte prospere y sin comunicación posible con quienes no se informaron,
recurren al inefable padre de Paulina para que recoja más amistades en su automóvil que tiene capacidad
para cinco ocupantes. Este intentando ordenar las peticiones de los miembros de la fiesta impone la
siguiente estrategia; realizará tres viajes, cada vez antes de salir, escogerá un joven al azar si es niño o
niña, saldrá sólo, y regresará con 4 niños o bien 4 niñas respectivamente.
Después de tanta incomodidad inicial, la fiesta logra tener el carácter de tal según lo planificado,
restándole al padre de Paulina el decir buenas noches y así cada invitada, siempre pudo con algún niño
compartir. Determinar la probabilidad p que tenía esto de ocurrir.

Solución
En resumen se pudieron formar 10 parejas ingresando grupos de a cuatro jóvenes a partir de un grupo de 8
jóvenes compuesto por dos niñas y 6 niños originado al seleccionar al azar un joven para que regresara al
grupo original junto con otros cuatro del mismo sexo, tantas veces como se requiriera hasta lograr 20
personas. Para tal efecto debieron llegar por este sistema 8 niñas y 4 niños.
Los sucesos que intervienen son:

43
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Mi : el padre de Paulina sale para recoger niñas en i-ésimo viaje, i=1,..,3; , y aquel que nos interesa es,
 c
1     
  2   3   1   c2   3   1   2   c3 , compuesto por tres sucesos
mutuamente excluyentes y equiprobables; así
  
 1   2   3c  1  2  1   3c  1   2  
2 6 6 3 3 9
  p=3 
8 12 16 64 64 64
2) (Las propuestas)
Una empresa consultora de proyectos en ingeniería en obras civiles, estudia la presentación a
diversas propuestas según la capacidad de sus equipos de trabajo reunidos como departamentos de: estudio
de suelos, cálculo de estructuras, e inspección de faenas.
Desde su puesta en marcha a la fecha esta consultora se ha adjudicado 130 propuestas de un total de
1500 en que ha participado (500 en cada instancia) según le compete, siendo adjudicadas:
50 de suelos,
40 de estructuras, de las cuales 10 también corresponden a estudios de suelos realizados por esta
empresa.
De las faenas adjudicadas 10 y 20 corresponden a estudios de estructuras y suelos respectivamente,
efectuados por la misma empresa.
La característica de la empresa es que por una u otra razón nunca gana un proyecto de inicio a fin
(propuestas de los 3 departamentos para proyectos en las distintas etapas de una misma obra, nunca se las
ha adjudicado).
a) Basándose en esta información, determine:
i) Si los departamentos de esta consultora ganan sus propuestas independientemente unos de otros?
ii) La probabilidad de que las propuestas se las adjudique solamente un solo departamento.
iii) La probabilidad de que la consultora gane la propuesta de realizar inspección de una faena, habiendo
perdido las de suelo y estructuras de la misma.
b) Toda propuesta se caracteriza por el adecuado manejo del presupuesto que ella misma propuso para su
adjudicación. Si a la información anterior agregamos que la mencionada consultora tiene serias
dificultades para lograr financiarse con el presupuesto de estructuras, suelos y la faena misma en un 78,
95, y 85 por ciento de los proyectos respectivamente adjudicados, determine:
i) La probabilidad de que una propuesta adjudicada a esta empresa no se encuentre en serias dificultades
para lograr financiarse.
ii) Sabiendo la gerencia de esta consultora el rumor interno de la empresa, que una propuesta ya por ellos
adjudicada esta teniendo serias dificultades para lograr financiarse; de inmediato es llamado el director
del departamento de suelos a presentar su balance. Cuál es la probabilidad de que la gerencia se
equivoque?
Solución
a) Esta empresa ha participado en 500 propuestas en tres ocasiones diferentes.
Identificando por G, S, E, F a los sucesos: gana propuesta, gana propuesta en suelos, estructuras y
faenas respectivamente, tenemos que:
      
  xi / xi  xi1 , xi 2 , xi 3 , xi1  S , S c , xi 2  E , E c , xi 2  F , F c , i  1,....,500 
propuestas suelos estructuras faenas total
ganadas 50 40 40 130
perdidas 450 460 460 1370
P(S)=50/500, P(E) = 40/500 = P(F) P(G) = 130/1500
i) #(S  E) = 10 de entre 500  P(S  E) = 10/500 = .02
P(S) P(E) = (50/500) (40/500) = 4/500 = .008  .02

entonces S y E son dependientes y por lo tanto el ganar propuestas no es un hecho independiente de la


etapa a la que concursa.
ii) Como se presenta en la figura que acompañamos:

44
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

S E
20 10
20
 c c
 
# S  E  F  20 # S  E  F
c c

# S  F  10
20 10 c
E c

10 en consecuencia,
9 F

     
 S  Ec  Fc   Sc  E  Fc   Sc  Ec  F  20  20  10/500  0.1

  
iii) F  S c  E c   F  S c  E c /  S c  E c   
= 10 / 500 / 1  S  E
= 10 / 500 / 1  80 / 500  1 / 42.
b)  = {y-propuesta adjudicada / y {se financia, no se financia} entonces # = 130
Admitamos que se identifican por S', E', F' los sucesos: la propuesta seleccionada de entre las
adjudicadas es de suelos estructuras y faenas respectivamente, y
D: el suceso , propuesta adjudicada tiene serios problemas de financiamiento.
Por lo tanto #Sc = 50, #Ec =40=#Fc, en consecuencia P(Sc) = 50/130 = 0.38, P(Ec) = P(Fc) = 40/130 =0.307
i) P(D)= P(Sc)P(DSc) + P(Ec)P(DEc) + P(Fc)P(DFc)
= 0.38 0.95 + 0.307 (0.78 + 0.85)
= 0.86141
P(Dc ) = 1- 0.86141 = 13859
ii) P(ScD) = P(Sc) P(DSc) / P(D)
= 0.38 0.95 / 0.86141
= 0.419
P(Sc  D) = 1 - 0.419 = 0.58, es la probabilidad de que la gerencia se equivoque, y por su valor se
aprecia que es con la que con mayor certeza comete error, pero analizando bien estos resultados se
observa que la gerencia usó su buen juicio respaldada por estos valores.

45
7
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CAPITULOIII

TRANSFORMACIONES ALEATORIAS
Dado un espacio de probabilidad ,2 

, P , el objetivo de esta sección, es reducir el espacio muestral
 asociado al experimento en estudio, a otro, donde muy explícitamente se reflejen las características
de interés en términos de números reales y proceder en tales condiciones a analizar su comportamiento.

3.1.- VARIABLE ALEATORIA

Definición

Dado un espacio ,2 



, P . Toda función de  hacia IR se denominará variable aleatoria. Así
diremos que X es una variable aleatoria asociada a , y la abreviaremos X v.a. sii:
X:  IR , w  X w  
X(w) es el valor de la característica de interés asociada al elemento w del espacio muestral.

En lo sucesivo omitiremos 2 teniendo presente su estructura, cuando se requirera. Como veremos a


continuación, por simple que parezca, lo más importante de una v.a. X es que la aplicación inversa al
ser aplicada, satisface: X 1  A  , A  IR

Ante un particular experimento aleatorio podemos describir su ley de comportamiento a través de


un modelo probabilístico que se resume por (, P), donde
P:IA [0,1] es la (medida de) probabilidad asociada al experimento.

Ahora al disponer de una v.a. tenemos:

P
X 1 A   [0,1

  PX
X

AIR
IR
IR
donde PX , la (medida de) probabilidad asociada a la v.a.X, se construye de la siguiente manera:
PX  A  PX 1  A  Pw   / X w A : P X  A

Nota

Se dice que X pertenece al conjunto D casi seguramente y anotaremos: X  D , c.s. sii PX D   1.


En tal caso, D recibe el nombre de soporte de la v.a.X.

47
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

NOTACIÓN: En base a lo anterior podemos anotar:

A PX  A
a, b P(a < X < b)
a, b P(a  X < b)
]a,b] P(a < X  b)
a, b P(a  X  b)
x,  P(X  x)
 , x P(X  x) = F x se llama función de
(distribución) de probabilidad.

Ejemplo3.1
Consideremos un juego, basado en el experimento de lanzar una moneda totalmente al azar; en el cual
para poder participar en cada apuesta se debe pagar $3000 (por el derecho a juego); donde el premio (para
cada apostador) es $1000 ( o premio de consuelo) si el resultado es {1,2}, $3000 ( no pierde) si el
resultado es {3,4} y $6000 ( recupera el doble de lo invertido) si el resultado es 6. En cualquier otro caso,
el apostador pierde lo pagado para poder participar. Entonces:

El experimento E = {lanzamiento de un dado} con espacio muestral Ω={1,2,3,4,5,6} , P({wi}=p=1/6,


disponiéndose así de (Ω,P) totalmente especificado. A ello, se agrega una transformación X (una v.a.) la
ganancia en el juego, tal que:

 - 2000 , w  1,2
 0 w  3,4
 ,
X ( w)  
 3000 , w6

 3000 , o.c.

Donde las probabilidades de la v.a.X se determinan de la sgte. manera:


PX({-2000})= P(X=-2000) = P(X-1({-2000}) = P({1,2})=2/6 =1/3
PX({0}) = P(X=0) = P(X-1({0}) =P({3,4})=2/6 =1/3
PX({3000}) = P(X=3000) = P(X-1({-3000}) =P({6})=1/6 = PX(-3000)=P({5})

Script:
x=[-3500 -3000 -2000 0 3000 3500];y=[0 1/6 1/3 1/3 1/6 0 ];plot(x,y,'.');%con retoques en salida del editor de gráficos

Lo cual podríamos promediar, respecto a los pesos o ponderaciones dadas por estas probabilidades,
resultando:

-2000 *1/3 +0*1/3+ (-3000)*1/6 + 3000*1/6=(-4000+3000)/6 = -1000/6 =- 167, lo que indicaría que la
expectativa por apuesta para el jugador, es lograr una pérdida de $167, que as u vez , es la ganancia para
el dueño del juego. Se deja al lector el diseño de premios para la mejor ganancia.
Para este caso, al dar forma a una función (de distribución) de probabilidad, con las probabilidades
acumuladas hasta X=x, nos referimos a F(x)=P(X  x), x  IR;
debemos considerar IR en los sgtes. términos:

IR=  ,3000   3000,2000  2000,0  0,3000  3000,


48
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

x -3000 -2000 0 3000


P(X=x)=f(x) 1/6 1/3 1/3 1/6
A  ,3000  3000,2000  2000,0 0,3000 3000,
F(x) 0 1/6 1/6+1/3=1/2 1/2+1/3=5/6 1

 0 x  3000
 1 / 6  3000  x  2000

F ( x )  1 / 2,  2000  x  0
5 / 6, 0  x  3000

 1, x  3000

Script:
t=linspace(-4000,4000,100)
f=(t<-3000).*(0)+((t>=-3000)&(t<-2000)).*(1/6)+((t>=-2000)&(t<0)).*(1/2)+((t>=0)&(t<3000)).*(5/6)+(t>=3000).*(1)
plot(t,f,'bo')

Pero, disponiendo de una forma de construir de manera arbitraria este tipo de funciones, podríamos
disponer de modelos para una diversidad de problemas que en forma directa, permitiría interpretar y
evaluar resultados de variables aleatorias. Situación que abordamos en la sección de a continuación.

Como información previa, debemos tener presente el siguiente concepto y notación de cálculo
infinitesimal:
Notación
F(a-)= lím F (x) = lím F (a  h) , límite por la izquierda de F en el punto a
x a  h 0 

3.1.1.- Construcción de Medida de Probabilidad para una v.a.

Definición

Una función F: IR  IR se denomina función de distribución (de probabilidad en IR ) sii satisface


las siguientes condiciones:
F es monótona no decreciente
F es contínua por la derecha
F    0, F    1.

Existe un vínculo directo entre las funciones de distribución y la medidas de probabilidad que se
puedan construir para una v.a. X.; el que está dado de la siguiente manera:
 
 dada una medida de probabilidad P de una v.a. X, entonces F x = P(X  x) es función de
distribución y se conoce como la función de distribución de la v.a.X.
 dada una función de distribución F en IR, entonces definiendo una aplicación P1 sobre los
49
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

intervalos en IR tal que: al considerar a, b  IR, a  b,

 P1 ([a,b])= F(b)-F a        F b


P1 ,b

P  ,b  F b 

 P1 (]a,b])= F(b)-F(a) 1

 P1 ([a,b[)= F(b ) - F(a ) P1 ([a,+[) = 1- F(a )


 P1 (]a,b[)= F(b ) - F(a) P1 ( a,- ) = 1- F(a)
 P1 (] ,  [)= P1 (IR) = 1

Lo cual es suficiente, basta para poder extenderla a una medida de probabilidad P sobre
subconjuntos de IR..

Notemos que la probabilidad de un punto, es decir P(X=a) = P({a}) = P([a.a]),


 P(X=a)=F(a)- F(a ), que es la magnitud del salto (o discontinuidad) de F (x), en el punto x=a.

Ejemplo3.2:

Consideremos un experimento aleatorio, sobre el cual actúa una variable aleatoria, donde el gráfico de
su distribución F adopta la siguiente forma:

Script:
t=linspace(-8,8,1000);
f=(t<=-4).*(0)+((t>=-4)&(t<-2)).*(0.3*unifcdf(t,-4,-2))+((t>=-2)&(t<0)).*(0.5)+(t>=0).*(normcdf(t,0,1)); plot(t,f,'.')

Como se aprecia, F cumple con la definición de distribución, además presenta una forma creciente, F(x)
=0 si x<-4, discontinua en x=-2, pero donde debe ser contínua por la derecha, no diferenciable en x=-4,
y x=0, asíntota Y=1:

Debido a que esta función tiene solo un punto de discontinuidad, en x=-2, este el único punto con
probabilidad distinta de cero y su valor es la magnitud del salto de dicha discontinuidad:

P(X=-2)=F(-2)-F(-2-)=0.5-0.2=0.3

P (Xϵ[-5,-3])=P(-5≤ X ≤-3 )=F(-3)-F(-5-)= F(-3)=0.15. Todo otro cálculo se rige por las reglas
recién descritas.
50
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Disponer de algún método para construir funciones de distribución es de real importancia, pues cada
una identifica la ley de comportamiento de un particular fenómeno en estudio.
Efectivamente hay al menos "dos maneras" de lograrlo; mediante funciones de cuantía o de densidad
de probabilidad, también denominadas de densidad discreta o contínua respectivamente.

Definición
Se dice que una función f : D  IR. IR., tal que f  x  0, x  D, f  x  0x  D c , es:
- cuantía ssi D es numerable, y  f  x  1
x D

- densidad ssi  f  xdx  1


D
El conjunto D así considerado se denomina soporte de f.

Ahora, exponemos el nexo entre estas funciones de cuantía o densidad con las funciones de
distribución, también llamado método de construcción de distribuciones:


  f t , si f es cuantía 

F  x    :  dF t 
x
tx

- f  xdx, si f es densidad 


x

Gráficamente, estas funciones F(x) obedecen a uno


de los siguientes dos aspectos:

-Al provenir de una función de cuantía,


son de la forma representada en el ejemplo anterior,

-Cuando proceden de una función de densidad,


su representación gráfica es una curva suave.

dF  x 
Así, cuando f es densidad si   f  x .
dx
Lo que motiva el simbolizar por  dF a la suma o integral antes señalada, y dF por f, para f cuantía o
densidad.

Este método, conduce a diferentes tipos de distribuciones y por lo tanto de variables de acuerdo a si se
utiliza una función de cuantía o bien una de densidad:

v.a. discreta
f cuantía
X F
f densidad

v. a. contínua

51
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

e.d. Si X es una v.a. cuya función de distribución proviene de una función de cuantía o densidad,
diremos que tal variable es discreta o continua respectivamente. De esta definición se desprende que, la
probabilidad que una v.a.X discreta o continua con distribución F, asuma valores en A IR , se obtiene
mediante:

P X  A   dF .
A

Las distribuciones aquí aludidas se conocen como regulares, las cuales tienen forma de escalera si
proceden de una función de cuantía ( como el ejemplo 3.1), o curva continua creciente si procede de una
función de densidad. Sin embargo existen también otras denominadas singulares o mezclas entre estos
dos tipos de funciones de cuantía y densidad, dando origen al tipo de distribución ( bastante genérica por
cierto), como la presentada en el ejemplo3.2.

Ejemplo 3.3

1) Supongamos que en un sistema de transmisión electrónico, los paquetes computacionales de


información, deben pasar por un rectificador de señal, el cual opera un 25% a alta temperatura en
modalidad slow con tiempo X de proceso (servicio) aleatorio dado por una densidad

𝛼𝑒 −𝛼𝑥 , 𝑥 > 0
𝑓1 (𝑥) = {
0, 0. 𝑐
y un 75% de las veces a modo fast, con velocidad servicio, que se comporta según una densidad

5𝛼𝑒 −5𝛼𝑥 , 𝑥 > 0


𝑓2 (𝑥 ) = {
0, 0. 𝑐

0.25 α

0.75 5α

Efectivamente, f1, f2 son funciones de densidad: por ser no negativas,


∞ ∞ ∞ ∞

∫ 𝑓1 (𝑥 )𝑑𝑥 = ∫ 𝑓1 (𝑥)𝑑𝑥 = ∫ 𝛼𝑒 −𝛼𝑥 𝑑𝑥 = −𝑒 −𝛼𝑥 |∞


0 = 1 = ∫ 𝑓2 (𝑥 ) 𝑑𝑥
−∞ 0 0 −∞

De esta manera, el tiempo de servicio en este punto del sistema, es una v.a.X con densidad ( el lector
puede verificar directamente este hecho):

1 3 𝛼 −𝛼𝑥 15 −5𝛼𝑥
𝑓 𝑥 = 𝑓1 𝑥 + 𝑓2 𝑥 = {4 𝑒
( ) ( ) ( ) + 𝛼𝑒
4
𝑥>0
4 4
0, 𝑜. 𝑐.

Queda en evidencia que una combinación lineal de densidades con peso acumulados unitario, es también
densidad y que no es extraño en casos prácticos.

52
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

2) Consideremos una función de densidad f , definida como:

 2/3 , 0  x 1

f x    x / 12 , 1  x  3
 0
 , o.c.

Efectivamente es densidad, ya que es positiva y su integral o área total bajo la curva es 1


 3 1 3 1 3
x2
 f xdx  0 f x dx  0 f x dx  1 f x dx  0 3dx  1 12dx  3
2 x 2x 2 1
   1
1 3
0 1
24 3 3
 x

  f x dx , x0
 
 0 x

x 
  f x dx  0 f x dx , 0  x 1
F ( x)   f  x dx   0 
1 x
 f x dx  f  x dx  f  x dx
 0 1

, 1 x  3
 

  f x dx

, x3

para:
x x
x<0;  f x dx =  0 dx  0
 
x x 1
f x dx =   f x dx  3
2 2 2
0<x<1; 
0 0
3
dx  x ;
3 0
x x 2 3
x x
f x dx =   f x dx  3
1
1<x<3; 
1 0
12
dx 
24
;
1

x x
x>3;  f x dx =  0 dx  0
3 3

 0 , x0  0 , x0
 2  2
 x , 0  x 1  x , 0  x 1

x
F ( x)   f x dx  
3
x  3 2
   f x dx
2
 , 1 x  3 2  x , 1 x  3
3 1  3 24
 1 , x3  1 , x3

La probabilidad que esta v.a. X, tenga resultados en un conjunto A en IR, se obtendrá integrando la
densidad sobre A, o bien mediante las reglas entregadas en la presente sección para utilizar F.
53
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.1.2.- MODELOS
Se entiende por modelo (probabilístico) a la función de cuantía o de densidad que caracteriza a
la distribución del fenómeno en estudio, por tal motivo se habla de modelos discretos o contínuos
respectivamente, y se acostumbra identificar a la v.a. con su particular cuantía o densidad f más que
por su distribución F, lo que se abrevia Xf. Los sgtes. modelos son de uso habitual en aplicaciones.
3.1.2.1.- Discretos - Continuos
A continuación presentamos las v.a. más utilizadas en las aplicaciones, junto con sus
respectivos soportes.

a) DISCRETOS:
 X ~ B(n,p) Binomial de parámetros n y p.
 n
 f x     p x q n x , x  0,1,..., n, q  1  p,0  p  1 . Repetición de n ensayos de
x
detección de falla (Bernoulli o B(1,p)) con taza de falla p constante en cada ensayo o
experimentos similares al ejemplo de pedidos a una misma granja).
 X ~ Bneg (k,p) Binomial Negativa de parámetros k y p.
 x  1 k x  k
 f x     p q , x  k , k  1, k  2,..., q  1  p,0  p  1 . Repetición de ensayos
 k  1
 B(1,p) que se detiene al lograr por primera vez k fallas o experimento tipo encuesta de aceptación.
 Cuando   x 1
k  1, f x  pq , x  IN, q = 1 - p, también se denomina Pascal o
Geométrica.
 X ~ Hipg(n1 ,n2 ) Hipergeométrica de parámetros n1 ,n2.
 n1  n2   N 
 f x      /  , x  max{0, n  n2 },..., minn1 , n, max{0, n1 - n}  n  x  n2 ,
 x  n  x   n 
N  n1  n2 . Sselección al azar y sin reemplazo, de n objetos desde dos grupos.
 X ~ P() Poisson de parámetro 
 x
 f  x  exp  , x  IN0
x!
 (aprox. de Binomial cuando, p pequeño, np   constante para n grande)

b) CONTINUOS:
 X ~ Exp() exponencial de parámetro  , f x    exp  x , x  0
. Tiempo de falla,
con velocidad de crecimiento proporcional al tiempo.

 X~U([a,b]) uniforme en [a,b], f(x)=1/(b-a), x  [a,b], (tiempo de fallas al azar en [a,b])

 X~ N (  , ) normal (o Gauss) de parámetros  y  2


2


f x   2 2 1 / 2
 
exp  ( x   )2 /( 2 2 ) , x  IR ,
x 1
 X ~  ,   gamma de parámetros  ,  , donde f x   exp  x /  , x  0
  

donde     x  1 e  x dx,      1  1, n  n  1 ! n  IN.
0

Casos continuos especiales:

1,    Exp 1/   ; para n  IN.: n,   : n  Erlang , ( n / 2,2) :  2 n, distribución
Chi-cuadrado con n grados de libertad
W  ,   Weibull de parámetros  ,  , f x     x 1 exp   
x , x  0
(tiempo de fallas asimétrico, unimodal)

54
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Para fines operativos en Anexo MATLAB (12) se encuentra un listado de este tipo de funciones (sigla),
distribución (siglacpf), densidad o cuantía ( sigladpf) según corresponda. En los sgtes. gráficos, se
representan los valores distintos de cero de las respectivas funciones de densidad f y distribución F

55
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

56
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Se observa, que la asimetría que presentan estos gráficos para las distintas f ( cuantías o densidades), es
uno de los principales aspectos que caracteriza a cada una de ellas y naturalmente a la v.a. asociada.

3.1.2.2.- Deducción de la función de probabilidad (densidad discreta) Poisson

Otra importante propiedad de la función de cuantía Poisson es que da origen a la ley de comportamiento
de fenómenos muy utilizados en el análisis de lineas de espera que satisfagan las siguientes condiciones:
A un lugar llegan elementos (concurrentes) para ser atendidos (procesados, ensamblados, examinados,
informados,evaluados,...), ante un servidor establecido para tal propósito:
- el número de concurrentes en lapsos de tiempo consecutivos son sucesos independientes
- los sucesos número de concurrentes en un lapso de tiempo, ocurren con probabilidad proporcional a
dicho lapso.
- en lapsos de tiempo muy pequeños ocurre a lo más una concurrencia (esto hace posible que se
origine una fila)

Tales condiciones pueden formalizarse de la siguiente manera:


Sea X : número de concurrentes a ser atendidos
]0,t[ : lapso de tiempo de amplitud t
p(x; t)= P(X=x en ]0,t[): la probabilidad de que X=x (ocurran exactamente) concurrencia en un
intervalo de tiempo de amplitud t, (respecto de t , el soporte de p(x,t) es t>0) y supóngase lo
siguiente:

1. En este intervalo, los eventos ocurren de manera independiente.


2. La probabilidad de una sola ocurrencia, en un intervalo muy pequeño dt es vdt, en donde v es la
frecuencia constante de ocurrencia y (v > 0).
3. El intervalo dt es tan pequeño, que la probabilidad de tener más de una ocurrencia en dt es
despreciable.

El evento en que el tiempo t + dt ha ocurrido exactamente x veces, puede llevarse a cabo de dos maneras
diferentes y excluyentes:

1. Existen x ocurrencia por tiempo t, con probabilidad p(x; t) y ninguna en dt, con probabilidad 1- vdt
Dada la suposición de independencia, la probabilidad conjunta es p(x; t) (1- vdt).
2. Existen x –1 ocurrencias por tiempo t, con probabilidad p(x-1; t) y una durante dt, con probabilidad
vdt. Recordando nuevamente el supuesto de independencia, la probabilidad de que ello ocurra
simultáneamente ( o en forma conjunta ) es: p(x-1; t) vdt.

Así: p(x; t + dt) = p(x; t)(1 – vdt) + p(x –1; t)vdt.

Después de multiplicar, transponer p(x; t) al primer miembro, y dividir por dt, se tiene:
p( x; t  dt )  p( x; t )
=v[p(x – 1; t) – p(x; t)].
dt
57
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Al sacar el límite cuando dt  0, por definición se tiene:


dp( x; t )
=v[p(x – 1; t) – p(x; t)].
dt

que es una ecuación diferencial lineal con respecto a t y una ecuación de diferencias finitas de primer
orden, con respecto a x.

dp( 0; t )
Si x = 0, obtenemos =v[p( – 1; t) – p(0; t)] = - vp(0; t), pues p( – 1; t)=0, entonces
dt
dp( 0; t )
= - v p(0; t), que al separar variables e integrar se reduce a
dt
In[p(0; t)] = In (c ) – vt, o p(0; t) = c e-vt , pero p(0,t)=1 p(0; t) = e-vt

dp( 1; t ) dp( 1; t )
Si x = 1, obtenemos = v[p(0; t) – p(1; t)], o + vp(1; t)= ve-vt, ecuación diferencial
dt dt
no homogénea con condición inicial p(1; 0) = 0 ; cuya solución es p(1; t) = (vt)e-vt

dp(2; t )
Análogamente para x = 2 y p(2; 0)= 0 se obtiene p(2, t )   2 te t
dt

cuya solución es p(2; t) =


vt 2 e  vt .
2!

Al continuar este proceso, asumiendo p(x; 0) = 0;. puede deducirse que la probabilidad de tener

exactamente x ocurrencias en t es p(x; t) =


vt e
x  vt
, x = 0, 1, 2,... ,
x!
que al considerar  = vt, este resultado, es la función de probabilidad de Poisson. P().

Fijando el tiempo en T = t, unidades de tiempo, para la v.a. X: número de sucesos en lapso [0, t], se ha
deducido que si tales sucesos ocurren con frecuencia  , en cada unidad de tiempo; XPx(t )=Px(),
con  = vt.

Ahora al estudiar tales ocurrencias en [t1, t2], intervalo de amplitud t = t2 – t1 , el número de ellas en tal
lapso, es una v.a. X tal que X Px( (t2 – t1)).

Además surge un interesante resultado, al considerar el suceso X =1, que por lo anterior, podemos admitir
que ocurre en un lapso de amplitud t. Lo que es equivalente, a estudiar el resultado de una variable
aleatoria T , definida como
T: tiempo de espera para que ocurra el próximo suceso Poisson.(tiempo de espera entre sucesos),

con distribución : FT(t) = P(T  t): probabilidad que esperemos a lo sumo t instantes para que el
próximo suceso ocurra

es decir : 1-Ft(t) = P(T > t) :probabilidad de que ocurra el primer suceso despues de t instantes
=P(X=0)= f(0) = e- t : probabilidad de que ningún suceso ocurra en el lapso t

d d - t
así 1-Ft(t) = e- t, entonces
(1-Ft(t)) = ( e )  -fT(t) =- e- tt  fT(t) = e- t  T exp().
dt dt
Lo que se resume: a número de llegadas por unidad de tiempo P(), el “número” de unidades de tiempo
entre arribos es exp().

58
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo3.4

Sea X: Nº de pasajeros que llegan a un terminal en un lapso t (en [0, t]), X  P(t)= P()
T: tiempo que transcurre entre la llegada de uno y otro pasajero, T  exp(t)= exp()

1) Si el promedio de usuarios que llegan por minuto es 10 =  t. Para unidades minutos t =1 y ==10,
es decir la ley de comportamiento (función de densidad) del tiempo transcurrido hasta que llegue el
próximo usuario es:
fT(t) =10 e-10t. t >0
2) Para determinar, cuanto tiempo hemos de considerar para que la llegada entre uno y otro usuario sea
al azar (se logre con probabilidad igual a ½): nos planteamos

PT  t   0.5   e t dt  0.5  e t  1  0.5  t 


t ln 2
.
0 

Ejemplo3.5 . Cálculo de probabilidades con apoyo de las sentencias MATLAB

1.- Al lanzar un dado 20 veces, determine la probabilidad que ocurra:


- solo tres resultados iguales a 6:
- al menos 3 y a lo sumo 17 resultados iguales 6
- calcular cuartiles y quintiles

Solución:
X: cantidad de resultados iguales a 6 en 20 repeticiones B(1, 1/6), entonces X es N(20,1/6)
P(X=3) P(3<=X<=17)
0.237886566137850 0.433454362223004

Q1 Q2 Q3 P20 P40 P60 P80


2 3 4 2 3 4 5
Script
format long
disp(' P(X=3) P(3<=X<=17)');disp( [binopdf(3,20, 1/6) binocdf(17,20,1/6)-binocdf(3,20,1/6)])
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([binoinv( 0.25,20,1/6) binoinv( 0.5,20,1/6) binoinv( 0.75,20,1/6) binoinv( 0.20,20,1/6) binoinv( 0.40,20,1/6) binoinv(
0.60,20,1/6) binoinv( 0.80,20, 1/6)])

2.- Si realizamos hoy una encuesta, entrevistando electores hasta encontrar el primero a favor del
candidato que figura en todas las encuestas con un 60% de las preferencias.; determine la probabilidad
que requiera entrevistar:
- 7 electores para encontrar el primero a favor de tal candidato;
- al menos 7 electores para encontrar el segundo elector a favor de tal candidato.
- calcular cuartiles y quintiles para las v.a. involucradas

Solución
X: cantidad de entrevistas para lograr el primero a favor es geométrica o Binomial Negativa Bneg( 1,0.6)
Y: cantidad de entrevistas para lograr el segundo a favor es Binomial Negaiva; Bneg(2,0.6)
P(X=7) P(Y>=7)
0.000983040000000 0.993534124647965

Q1 Q2 Q3 P20 P40 P60 P80


X 0 0 1 0 0 0 1
Y 0 1 2 0 1 1 2

Script
disp(' P(X=7) P(Y>=7)');disp( [nbinpdf(7,1,0.6) 1- binocdf(6,20,0.6)]);disp( 'para la v.a. X')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([nbininv( 0.25,1,0.6) nbininv( 0.5,1,0.6) nbininv( 0.75,1,0.6) nbininv( 0.20,1,0.6) nbininv( 0.40,1,0.6) nbininv( 0.60,1,0.6)
nbininv( 0.80,1,0.6)]);disp(' para la v.a. Y');disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([nbininv( 0.25,2,0.6) nbininv( 0.5,2,0.6) nbininv( 0.75,2,0.6) nbininv( 0.20,2,0.6) nbininv( 0.40,2,0.6) nbininv( 0.60,2,0.6)
nbininv( 0.80,2,0.6)])

59
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.- Al llegar clientes a requerir un cierto servicio, lo hacen según un proceso Poisson de 10 personas por
minuto. determine la probabilidad que:
- nadie llegue durante un minuto
- nadie llegue durante 5 minutos
- arriben más de 10 personas por minuto
- llegue al menos 5 y a lo más 15 personas por minuto
- lleguen al menos 60 personas en 5 minutos
- el tiempo entre la llegada de una y otra persona es inferior a dos minutos
- calcular cuartiles y quintiles

Solución:
X: cantidad de llegadas de clientes ( personas) que llegan por unidad de tiempo ( minuto), X es P(10)
Y: cantidad de llegadas en 5 minutos, Y es P(5*10)=P(50)
Z: tiempo entre llegadas, Z es Exp(10)

P(X=0) P(Y=0) P(X>10) P(5<=X<=15) P(Y>=60) P(Z<2)


0.0000453 0.00 0.41696 0.8841736 0.092265 0.181269

Q1 Q2 Q3 P20 P40 P60 P80


X 8 10 12 7 9 11 13
Y 45 50 55 44 48 52 56
Z 2.87682 6.9314718 13.8629 2.2314 5.108 9.1629 16.0943

Script:
disp(' P(X=0) P(Y=0) P(X>10) P(5<=X<=15) P(Y>=60) P(Z<2) ')
disp( [poisspdf(0,10) poisspdf(0,50) 1-poisscdf(10,10) poisscdf(15,10)-poisscdf(5,10) 1-poisscdf(59,50) expcdf(2,10) ])
disp( 'para la v.a. X')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([poissinv(0.25,10) poissinv( 0.5,10) poissinv( 0.75,10) poissinv( 0.2,10) poissinv( 0.4,10) poissinv( 0.6,10) poissinv( 0.8,10) ])
disp( 'para la v.a. y')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([poissinv(0.25,50) poissinv( 0.5,50) poissinv( 0.75,50) poissinv( 0.2,50) poissinv( 0.4,50) poissinv( 0.6,50) poissinv( 0.8,50) ])
disp( 'para la v.a. Z')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([expinv(0.25,10) expinv( 0.5,10) expinv( 0.75,10) expinv( 0.2,10) expinv( 0.4,10) expinv( 0.6,10) expinv( 0.8,10) ])
hold on ; x4=-1:0.001:50 ; y4= exppdf(x4,10); zzzz4=( x4<=13.8) .* exppdf(x4,10)+ (x4>13.8) .* (0); plot(x4,y4);
yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf);set(gca,'xtick', [0 13.8629 ]) ; colormap autumn;
title('Representación de Q3 para Exp(10)'); hold off

4.- Salvo contadas excepciones, si un artefacto falla de manera totalmente al azar entre el tercer y sexto
año de efectuada la compra, determine la probabilidad que falle:
- al cumplir el cuarto año
- durante el cuarto año
- falle después del cuarto año
- que falle antes de 5 años si ha superado los 4 años, e identifique el modelo aleatorio subyacente
- calcular cuartiles y quintiles

60
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Solución:
X : tiempo de falla es uniforme entre 3 y 6 años ,
es decir su densidad f(x) es uniforme U(3,6)
Probabilidad de falla al cumplir el cuarto año: P(X=4)=0.
Lo solicitado se realiza directamente según
script.

Y: falla antes de y años, dado que superó los 4 años:


Y= X=y | X>4
FY(y)=P({w tq. X(w)<=y, dado que X(w)>4}.
es un evento condicional, por ello para evaluar
su probabilidad; corresponde aplicar probabilidad
condicional: P(X<5|X>4) = P(X>4 y X<5)/ P(X>4)

P(4<=X<5) P(X>4) P(X<5|X>4)


0.333 0.66667 0.5
Q1 Q2 Q3 P20 P40 P60 P80
X 3.75 4.5 5.25 3.6 4.2 4.8 5.4
Y 4.5 5.0 5.5 4.4 4.8 5.2 5.6

Además la función de distribución de Yes:

FY(y)= P(X<= y | X>4)=P(4<X<y)/P(X>4) = (F(y)-F(4))/ 1- F(4),

por tanto, para obtener tal percentil α= (F(y)-F(4))/ 1- F(4) entonces p=F(y) = F(4)+α* (1-F(4)).

Es decir, α% de las observaciones a la izquierda de un valor Y=y, es equivalente a su análogo p% para


X=y según tal relación..

 dFY ( y ) f ( y)
  , 4 y6 0.5 , 4 y6
 dy 1  F (4)

fY(y)=  = 
 0 ,

0 , o.c.  o.c.

Este modelo, identifica la v.a. Y como uniforme truncada, haciendo referencia a la v.a. X de la cual
procede; específicamente X truncada a X>4

Script:
disp(' P(4<=X<5) P(X>4) P(X<5|X>4) ')
disp( [unifcdf(5,3,6)-unifcdf(4,3,6) 1- unifcdf(4,3,6) (unifcdf(5,3,6)-unifcdf(4,3,6))/(1-unifcdf(4,3,6)) ])
format short; disp( 'para la X'); disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([unifinv(0.25,3,6) unifinv(.5,3,6) unifinv(.75,3,6) unifinv(.2,3,6) unifinv(.4,3,6) unifinv(.6,3,6) unifinv(.8,3,6) ])
a1=[0.25 0.5 0.75]; a2=0.2 :0.2:0.8 ; a=[a1 a2 ]; p= unifcdf(4,3,6)+a*(1-unifcdf(4,3,6)); percentilesY=unifinv(p,3,6)
disp( 'para la Y= X|X>4'); disp(' Q1 Q2 Q3 P20 P40 P60 P80'); disp(percentilesY)
t=linspace(0,10,1000);h=(t<=4).*(0)+ ((t>4)&(t<6)).*(1/2)+ (t>=6).*(0); h1=(t<=3).*(0)+
((t>3)&(t<6)).*(1/3)+(t>=6).*(0)

5.- Aceptando que la temperatura interna del cuerpo en personas adultas, sin diagnóstico de afección
alguna o pre-existencia, es normal N(36.5,1).
5.-1-Determine cuán probable es que una persona tenga una temperatura:
- de 37 grados
- inferior a 36.6 grados
- entre 36.6y 37.5
- que sobrepase los 38.5 grados
- calcular cuartiles y quintiles
Solución:
X: es N(36,5,1), una v.a. continua , por lo tanto P(X=37)=0

P(X<36.6)=0.5398 , P(36.6<X<37.5)=0.3015, PX>38.5)=0.0228


61
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Q1 Q2 Q3 P20 P40 P60 P80


35.8255 36.5000 37.1745 35.6584 36.2467 36.7533 37.3416
Script:
normcdf(36.6,36.5,1); normcdf(37.5,36.5,1)-normcdf(36.6,36.5,1); 1-normcdf(38.5, 36.5,1); a1=[0.25 0.5 0.75]; a2=0.2
:0.2:0.8 ; a=[a1 a2 ]; percentiles=norminv(a,36.5,1);disp(' Q1 Q2 Q3 P20 P40 P60 P80'); disp(percentiles)
hold on; x4=33:0.001:40; zzzz4=(x4>36.6 &x4<37.5).*(y4); plot(x4, y4); set(gca,'xtick', [ 36.6 37.5]);
yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf); colormap autumn; hold off % normspec([a,b],mu,sigma,’inside);grid on; logra
el mismo gráfico solo para el caso normal.

5.2.- En este contexto, determine la probabilidad de


- encontrar al menos 5 personas con temperatura sobre los 37 grados, al examinar 10 personas
- tener que examinar 5 personas para encontrar la primera con tempertura sobre los 37 grados

Solución:
Con la v.a. X con distribución N(36.5,1),
calculemos p=P(X>37)=0.3085

Y: cantidad de personas con temperatura


sobre 37 grados, de entre 10 examinados

Y es B( n,p)=B(10,p)

Z: cantidad de personas a examinar ,


para encontrar la primera con temperatura
sobre 37 grados; Z es Bneg( 1, p)
p P(Y>=5) P(Z=5)
0.3085 0.1653 0.0488

Script:
p=1-normcdf(37,36.5,1);
disp(' p P(Y>=5) P(Z=5)');
disp([ p 1-binocdf(4,10,p) nbinpdf(5,1,p)])
hold on; x4=33:0.001:40; zzzz4=(x4>37).*(y4); plot(x4, y4);
set(gca,'xtick', [ 36.5 37]) ; yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf) ; hold off

5.3.- Que porcentaje de las personas con temperatura sobre 36 grados, presentan temperaturas inferiores a
los 37 grados, e identifique el modelo subyacente:

Solución:
Consideremos el evento de interés sobre del cual se efectúa lo solicitado:

X: temperatura de una persona,


con densidad f es N(36.5, 1)
p= P(X>37)

Y = X=y| X>36;
FY(y)= P(X<= y | X>36)=P(36<X<y)/P(X>36)
= (F(y)-F(36))/ (1- F(36)),

62
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

La cual se identifica como normal truncada,


haciendo referencia a la v.a. X truncada o
restringida para valores X>36.

P(Y<37)= FY(37)=( F(37)-F(36))/ (1- F(36))


= 0.5538
 f ( y)
dFY ( y )  , y  36
Además: fY ( y )   1  F (36)
dy 
 0, o.c.

Script:
(normcdf(37,36.5,1)-normcdf(36,36.5,1))/(1-normcdf(36,36.5,1))
hold on; x=35:0.01:40; f=(x<36).*(0)+ (x>36).*((normpdf(x,36.5,1))/(1-normcdf(36,36.5,1)));
ff= (x>37).*((normpdf(x,36.5,1))/(1-normcdf(36,36.5,1))); plot(x, f,'r.'); set(gca,'xtick', [ 36 37 40 ]); fff=spline(x,ff,x); area(x,fff)
Fcond= (x<36).*(0)+ (x>36).*((normcdf(x,36.5,1)-normcdf(36,36.5,1))/(1-normcdf(36,36.5,1))); plot(x,Fcond,'r.')

3.1.3.- Cambio de Variable

El siguiente resultado nos permite determinar el comportamiento de la transformación de una


variable aleatoria.

Sea FX la función de distribución asociada a una v.a.X, Y=goX con g:D IR IR una función
creciente estricta, tal que XD c.s., entonces
FY  y   PY  y   PgoX  y   FX g 1  y .
De lo cual se desprende que, en el caso de X v.a. discreta, la obtención de dFY con Y=goX es muy
simple y para el caso continuo sólo es suficiente una exigencia adicional. Lo que presentamos en
el siguiente resultado, conocido como teorema del cambio de variable unidimensional.

Teorema

Sea X v.a. discreta o continua con D soporte de dFX , Y= goX con g:D IRIR función, entonces

a) Si X es v.a. discreta; Y es v.a.discreta con soporte g(D)


fY  y    f x, X y  g D  con Ay  x  D / g x   y
x Ay

b) Si X es v.a. continua; Y es v.a. continua con soporte g(D), g monótona estrica y diferenciable:

 
f Y  y   f X g 1  y   dyd g  y ,
1
y  g D

A continuación presentamos un ejemplo, al primero de tres grupos de casos trascendentes para múltiples
aplicaciones, en lo que se refiere a transformaciones aleatorias como recurso para múltiples aplicaciones

Ejemplo3.6

1) X ~ N  ,    Z  X   ~ N(0,1)
2

 Nota. Este hecho es el que nos permite llevar todos los cálculos de probabilidades de variables normales a
N(0,1). Proceso conocido como estandarización; en particular para esta X ~ N ,   ,
2
su distribución,

X  x  x
FX x   P X  x   P    P Z  , Y ~ N (0,1).
      
 Este resultado, en la mayor parte de la literatura, hasta antes de softwares MATLAB, R,
63
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

SPSS… ; era necesario abordarlo al comienzo de toda presentación de variable aleatoria normal, para
hacer uso de tabla de distribución N(0,1), como recurso ineludible para calcular, cualquier
probabilidad de una v.a.normal arbitraria, que como ya hemos visto, no es necesaria.

La función de densidad f ( x )  N ,  2  , posee un máximo en x   , lo cual puede verificarse al


resolver la ecuación de su derivada iguala a cero y constatar que su segunda derivada en este punto es
negativa. Pero si observamos esta segunda derivada como función de x, y plantemos encontrar sus
raíces, hallaremos que se encuentran en los puntos: x     y donde se producen cambios de
curvatura, siendo ambos, puntos de inflexión. La curvatura cambia al apartarnos a una distancia  de
la media y señala la captura de un porcentaje importante de probabilidad de la v.a.

Aquí se aprecia, lo relevante de N(0,1), que va más allá de un recurso operativo; su comportamiento, como
veremos al final de este capítulo, será el centro de la atención en la Parte II del presente texto; pero en lo
inmediato hay que distinguir los siguientes puntos notables de una v.a. N(0,1) y su extensión a una normal
arbitraria a partir de lo señalado en el párrafo anterior.

Primeramente, veamos los siguientes percentiles de una v.a. Z de este tipo:


p 0,1 0.2 0.25 0.5 0.75 0.8413 0.9 .9332 0.95 0.975 0.975
z -1.281 -0.84 -0.6745 0 0.6745 1 1.2816 1.5 1.6449 1.96 1.96

0.9772 0.9987
2 3

Se denomina puntaje Z, o estandarización de valores x de una v.a. X ~ N  ,  , al valor z  x  


2

x
El 5% de valores superiores de la v.a.X, corresponde al puntaje z  1.6449  1.645 ;

es decir: x    1.645 , entonces x    1.645

Curva Normal N(0,σ2)

-3σ -2σ -1.5σ -σ 0 σ 1.5σ 2σ 3σ


68%
86.64%
95.45%
99.73%
De la tabla de percentiles, se obtiene:
- Valores X inferiores al primer cuartil Q1, pertenecen al intervalo  ;   0.6745 
- Rango inter-cuartílico:   0.6745  (   0.6745 )    2  0.6745    1.349
- El 90% central de los datos se encuentra en el intervalo   1.645 ;   1.645 
64
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

- El último decil se inicia con el valor x    1.2816 


- Un 84.13% de las respuestas X son inferiores a x    
- 68.27% de resultados de X , se encuentra en:    ;    
- 86.64% de resultados X, resultan entre:   1.5 ;   1.5 
- Un 95% de los resultados X se encuentran en:   1.96  ;   1.96  
- 95.45% de valores de X se encuentra en:   2 ;   2  
- 99.73% de respuestas X ocurrirán en:   3 ;   3 , es decir en una
banda de ancho 6σ está contenido el 99,73% de los resultados X. Estrategia de control conocida
como 6σ (six-sigma), cuyo propósito es la permanente reducción de σ, luego de alcanzar una
producción o servicio normalizado y centrado, con objetivo de resultados µ.

2) X~ N(0,1)  Y  X 2 ~ 0.5,2 : x21


Es decir, cuando elevamos al cuadrado los resultados de una distribución F dada por una densidad f
normal d eparámetros 0 y 1, N(0,1); se origina otra v.a. con una nueva distribución F Y , dada por una
densidad gamma de parámetros 1/2, 2, que se denomina Chi-cuadrado con 1 .gl.
Resultado no se desprende del reciente teorema, pero como transformación relevante la obordamos y
deducimos de la sgte. manera:

Para: y<0; FY ( y )  P(Y  y )  P(Y  )  0


y>0; FY ( y )  P(Y  y )  P( X 2  y)  P(- y  X  y )  F( y )  F (  y ) ,

Entonces:

 0, yo
FY ( y )  
F( y )  F (  y ), y0

derivando, obtenemos la densidad de la v.a.Y:


1
fY ( y )  ( f ( y)  f ( y) )
2 y
2 1 1
 f ( y)  f ( y )   ( y ; ,2 )
2 y y 2

p 0.1 0.2 0.25 0.4 0.5 0.6 0.6827 0.75 0.8 0.9 0.95 0.9445
y 0.0158 0.0642 0.1015 0.2750 0.4549 0.7083 1 1.3233 1.6424 2.7055 3.8415 4

Tabla de la cual se desprende lo siguiente:


65
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

- Resultados bajo el primer cuartil Q1 son aquellos que se encuentran en 0;0.1015


- Valores Y sobre el cuartil superior Q3, poseen valores en 1.3233;
- rango inter-cuartílico= Q3-Q2= 1.3233-0.1015=1.2218
- mediana: 0.4549
- valores sobre el quintil superior: 1.6424;
- media o expectativa de la v.a.Y : E Y   1 , (véase Anexo tabla de características de v.a.)
Como se puede apreciar, esta es una enorme transformación de la N(0,1) , en la cual la media y
mediana de X que eran concordantes, en Y se han distanciado de manera importante.
- Siendo una transformación global de comportamiento, localmente en conjuntos equivalentes debe
permanecer una forzosa coincidencia en probabilidad; lo cual ilustramos con los sgtes, casos simples:
0.68.27 = P(-1<X<1) = P(X2<1) = P(Y<1)
0.9445%= P(-2<X<2) = P(X2<4) = P(Y<4))
- Por motivos, a destacar durante la parte II, es de suma determinar los valores de Y que pertenecen al
extremo (cola) de esta distribución. En este caso, la cola del 5% superior es: 3.8415;
3) Generación de números aleatorios.
Sea X v.a.c. con función de distribución FX creciente estricta, entonces Y  FX (x ) es v.a. U[0,1].
Este resultado, puede obtenerse directamente del siguiente hecho:

Para valores:
y<0; FY ( y )  P(Y  y )  P(Y  )  0

y>1; FY ( y )  P(Y  0,1 1, y )  P(Y  0,1)  P(Y  1, y )  1  P(Y  )  1

0  y  1; FY  y   PY  y   PFX ( x)  y   P( X  FX1 ( y ))  FX ( FX1 ( y ))  y,

 0, y0

 FY ( y )   y, 0  y  1 , a la cual, corresponde el gráfico F=U(0,1); además una vez
1 y 1

0, y0
 1, 0  y  1
derivada , logramos la densidad f de la v.a.Y: f Y ( y )  1, 0  y  1 
0 0, o.c.
 y 1

Así entonces, dada una distribución F creciente estricta, y una muestra y1 ,.... yn con distribución U[0,1], al
1
considerar el sistema yi  F ( xi ), i  1,..., n ; podemos obtener xi  F ( yi ) , muestra tamaño n de una
v.a. X con distribución F ( X ~ F ).

Por esta y múltiples razones, es que todo sistema o procedimiento procedimiento para simular, debe ser
muy eficiente para la generación de números (pseudo) aleatorios en el intervalo (0,1).

Para aplicar directamente este procedimiento, basta que F sea creciente estricta, en el intervalo donde se
encuentra todo el peso de la v.a.X.. Procedimiento que en muchos casos, no es tan directo y se hace
necesario otros recursos, como es el caso de simular N(0,1), debido a lo complejo de invertir la
correspondiente distribución. Cabe destacar, que en la actualidad, la mayor parte de los procedimientos
para simular v.a. ya se encuentran implementados de manera muy eficiente, como en el caso de
MATLAB, R,SAS, SPSS u otro recurso de esta índole.

A continuación, presentamos según script que se acompaña: una m.a.(7), dos m.a.(10), y una m.a.(10);
N(0,1), Exp(1), Weibul(1,1) respectivamente:

66
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CAPITULOIII

TRANSFORMACIONES ALEATORIAS
Dado un espacio de probabilidad ,2 

, P , el objetivo de esta sección, es reducir el espacio muestral
 asociado al experimento en estudio, a otro, donde muy explícitamente se reflejen las características
de interés en términos de números reales y proceder en tales condiciones a analizar su comportamiento.

3.1.- VARIABLE ALEATORIA

Definición

Dado un espacio ,2 



, P . Toda función de  hacia IR se denominará variable aleatoria. Así
diremos que X es una variable aleatoria asociada a , y la abreviaremos X v.a. sii:
X:  IR , w  X w  
X(w) es el valor de la característica de interés asociada al elemento w del espacio muestral.

En lo sucesivo omitiremos 2 teniendo presente su estructura, cuando se requirera. Como veremos a


continuación, por simple que parezca, lo más importante de una v.a. X es que la aplicación inversa al
ser aplicada, satisface: X 1  A  , A  IR

Ante un particular experimento aleatorio podemos describir su ley de comportamiento a través de


un modelo probabilístico que se resume por (, P), donde
P:IA [0,1] es la (medida de) probabilidad asociada al experimento.

Ahora al disponer de una v.a. tenemos:

P
X 1 A   [0,1

  PX
X

AIR
IR
IR
donde PX , la (medida de) probabilidad asociada a la v.a.X, se construye de la siguiente manera:
PX  A  PX 1  A  Pw   / X w A : P X  A

Nota

Se dice que X pertenece al conjunto D casi seguramente y anotaremos: X  D , c.s. sii PX D   1.


En tal caso, D recibe el nombre de soporte de la v.a.X.

47
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

NOTACIÓN: En base a lo anterior podemos anotar:

A PX  A
a, b P(a < X < b)
a, b P(a  X < b)
]a,b] P(a < X  b)
a, b P(a  X  b)
x,  P(X  x)
 , x P(X  x) = F x se llama función de
(distribución) de probabilidad.

Ejemplo3.1
Consideremos un juego, basado en el experimento de lanzar una moneda totalmente al azar; en el cual
para poder participar en cada apuesta se debe pagar $3000 (por el derecho a juego); donde el premio (para
cada apostador) es $1000 ( o premio de consuelo) si el resultado es {1,2}, $3000 ( no pierde) si el
resultado es {3,4} y $6000 ( recupera el doble de lo invertido) si el resultado es 6. En cualquier otro caso,
el apostador pierde lo pagado para poder participar. Entonces:

El experimento E = {lanzamiento de un dado} con espacio muestral Ω={1,2,3,4,5,6} , P({wi}=p=1/6,


disponiéndose así de (Ω,P) totalmente especificado. A ello, se agrega una transformación X (una v.a.) la
ganancia en el juego, tal que:

 - 2000 , w  1,2
 0 w  3,4
 ,
X ( w)  
 3000 , w6

 3000 , o.c.

Donde las probabilidades de la v.a.X se determinan de la sgte. manera:


PX({-2000})= P(X=-2000) = P(X-1({-2000}) = P({1,2})=2/6 =1/3
PX({0}) = P(X=0) = P(X-1({0}) =P({3,4})=2/6 =1/3
PX({3000}) = P(X=3000) = P(X-1({-3000}) =P({6})=1/6 = PX(-3000)=P({5})

Script:
x=[-3500 -3000 -2000 0 3000 3500];y=[0 1/6 1/3 1/3 1/6 0 ];plot(x,y,'.');%con retoques en salida del editor de gráficos

Lo cual podríamos promediar, respecto a los pesos o ponderaciones dadas por estas probabilidades,
resultando:

-2000 *1/3 +0*1/3+ (-3000)*1/6 + 3000*1/6=(-4000+3000)/6 = -1000/6 =- 167, lo que indicaría que la
expectativa por apuesta para el jugador, es lograr una pérdida de $167, que as u vez , es la ganancia para
el dueño del juego. Se deja al lector el diseño de premios para la mejor ganancia.
Para este caso, al dar forma a una función (de distribución) de probabilidad, con las probabilidades
acumuladas hasta X=x, nos referimos a F(x)=P(X  x), x  IR;
debemos considerar IR en los sgtes. términos:

IR=  ,3000   3000,2000  2000,0  0,3000  3000,


48
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

x -3000 -2000 0 3000


P(X=x)=f(x) 1/6 1/3 1/3 1/6
A  ,3000  3000,2000  2000,0 0,3000 3000,
F(x) 0 1/6 1/6+1/3=1/2 1/2+1/3=5/6 1

 0 x  3000
 1 / 6  3000  x  2000

F ( x )  1 / 2,  2000  x  0
5 / 6, 0  x  3000

 1, x  3000

Script:
t=linspace(-4000,4000,100)
f=(t<-3000).*(0)+((t>=-3000)&(t<-2000)).*(1/6)+((t>=-2000)&(t<0)).*(1/2)+((t>=0)&(t<3000)).*(5/6)+(t>=3000).*(1)
plot(t,f,'bo')

Pero, disponiendo de una forma de construir de manera arbitraria este tipo de funciones, podríamos
disponer de modelos para una diversidad de problemas que en forma directa, permitiría interpretar y
evaluar resultados de variables aleatorias. Situación que abordamos en la sección de a continuación.

Como información previa, debemos tener presente el siguiente concepto y notación de cálculo
infinitesimal:
Notación
F(a-)= lím F (x) = lím F (a  h) , límite por la izquierda de F en el punto a
x a  h 0 

3.1.1.- Construcción de Medida de Probabilidad para una v.a.

Definición

Una función F: IR  IR se denomina función de distribución (de probabilidad en IR ) sii satisface


las siguientes condiciones:
F es monótona no decreciente
F es contínua por la derecha
F    0, F    1.

Existe un vínculo directo entre las funciones de distribución y la medidas de probabilidad que se
puedan construir para una v.a. X.; el que está dado de la siguiente manera:
 
 dada una medida de probabilidad P de una v.a. X, entonces F x = P(X  x) es función de
distribución y se conoce como la función de distribución de la v.a.X.
 dada una función de distribución F en IR, entonces definiendo una aplicación P1 sobre los
49
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

intervalos en IR tal que: al considerar a, b  IR, a  b,

 P1 ([a,b])= F(b)-F a        F b


P1 ,b

P  ,b  F b 

 P1 (]a,b])= F(b)-F(a) 1

 P1 ([a,b[)= F(b ) - F(a ) P1 ([a,+[) = 1- F(a )


 P1 (]a,b[)= F(b ) - F(a) P1 ( a,- ) = 1- F(a)
 P1 (] ,  [)= P1 (IR) = 1

Lo cual es suficiente, basta para poder extenderla a una medida de probabilidad P sobre
subconjuntos de IR..

Notemos que la probabilidad de un punto, es decir P(X=a) = P({a}) = P([a.a]),


 P(X=a)=F(a)- F(a ), que es la magnitud del salto (o discontinuidad) de F (x), en el punto x=a.

Ejemplo3.2:

Consideremos un experimento aleatorio, sobre el cual actúa una variable aleatoria, donde el gráfico de
su distribución F adopta la siguiente forma:

Script:
t=linspace(-8,8,1000);
f=(t<=-4).*(0)+((t>=-4)&(t<-2)).*(0.3*unifcdf(t,-4,-2))+((t>=-2)&(t<0)).*(0.5)+(t>=0).*(normcdf(t,0,1)); plot(t,f,'.')

Como se aprecia, F cumple con la definición de distribución, además presenta una forma creciente, F(x)
=0 si x<-4, discontinua en x=-2, pero donde debe ser contínua por la derecha, no diferenciable en x=-4,
y x=0, asíntota Y=1:

Debido a que esta función tiene solo un punto de discontinuidad, en x=-2, este el único punto con
probabilidad distinta de cero y su valor es la magnitud del salto de dicha discontinuidad:

P(X=-2)=F(-2)-F(-2-)=0.5-0.2=0.3

P (Xϵ[-5,-3])=P(-5≤ X ≤-3 )=F(-3)-F(-5-)= F(-3)=0.15. Todo otro cálculo se rige por las reglas
recién descritas.
50
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Disponer de algún método para construir funciones de distribución es de real importancia, pues cada
una identifica la ley de comportamiento de un particular fenómeno en estudio.
Efectivamente hay al menos "dos maneras" de lograrlo; mediante funciones de cuantía o de densidad
de probabilidad, también denominadas de densidad discreta o contínua respectivamente.

Definición
Se dice que una función f : D  IR. IR., tal que f  x  0, x  D, f  x  0x  D c , es:
- cuantía ssi D es numerable, y  f  x  1
x D

- densidad ssi  f  xdx  1


D
El conjunto D así considerado se denomina soporte de f.

Ahora, exponemos el nexo entre estas funciones de cuantía o densidad con las funciones de
distribución, también llamado método de construcción de distribuciones:


  f t , si f es cuantía 

F  x    :  dF t 
x
tx

- f  xdx, si f es densidad 


x

Gráficamente, estas funciones F(x) obedecen a uno


de los siguientes dos aspectos:

-Al provenir de una función de cuantía,


son de la forma representada en el ejemplo anterior,

-Cuando proceden de una función de densidad,


su representación gráfica es una curva suave.

dF  x 
Así, cuando f es densidad si   f  x .
dx
Lo que motiva el simbolizar por  dF a la suma o integral antes señalada, y dF por f, para f cuantía o
densidad.

Este método, conduce a diferentes tipos de distribuciones y por lo tanto de variables de acuerdo a si se
utiliza una función de cuantía o bien una de densidad:

v.a. discreta
f cuantía
X F
f densidad

v. a. contínua

51
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

e.d. Si X es una v.a. cuya función de distribución proviene de una función de cuantía o densidad,
diremos que tal variable es discreta o continua respectivamente. De esta definición se desprende que, la
probabilidad que una v.a.X discreta o continua con distribución F, asuma valores en A IR , se obtiene
mediante:

P X  A   dF .
A

Las distribuciones aquí aludidas se conocen como regulares, las cuales tienen forma de escalera si
proceden de una función de cuantía ( como el ejemplo 3.1), o curva continua creciente si procede de una
función de densidad. Sin embargo existen también otras denominadas singulares o mezclas entre estos
dos tipos de funciones de cuantía y densidad, dando origen al tipo de distribución ( bastante genérica por
cierto), como la presentada en el ejemplo3.2.

Ejemplo 3.3

1) Supongamos que en un sistema de transmisión electrónico, los paquetes computacionales de


información, deben pasar por un rectificador de señal, el cual opera un 25% a alta temperatura en
modalidad slow con tiempo X de proceso (servicio) aleatorio dado por una densidad

𝛼𝑒 −𝛼𝑥 , 𝑥 > 0
𝑓1 (𝑥) = {
0, 0. 𝑐
y un 75% de las veces a modo fast, con velocidad servicio, que se comporta según una densidad

5𝛼𝑒 −5𝛼𝑥 , 𝑥 > 0


𝑓2 (𝑥 ) = {
0, 0. 𝑐

0.25 α

0.75 5α

Efectivamente, f1, f2 son funciones de densidad: por ser no negativas,


∞ ∞ ∞ ∞

∫ 𝑓1 (𝑥 )𝑑𝑥 = ∫ 𝑓1 (𝑥)𝑑𝑥 = ∫ 𝛼𝑒 −𝛼𝑥 𝑑𝑥 = −𝑒 −𝛼𝑥 |∞


0 = 1 = ∫ 𝑓2 (𝑥 ) 𝑑𝑥
−∞ 0 0 −∞

De esta manera, el tiempo de servicio en este punto del sistema, es una v.a.X con densidad ( el lector
puede verificar directamente este hecho):

1 3 𝛼 −𝛼𝑥 15 −5𝛼𝑥
𝑓 𝑥 = 𝑓1 𝑥 + 𝑓2 𝑥 = {4 𝑒
( ) ( ) ( ) + 𝛼𝑒
4
𝑥>0
4 4
0, 𝑜. 𝑐.

Queda en evidencia que una combinación lineal de densidades con peso acumulados unitario, es también
densidad y que no es extraño en casos prácticos.

52
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

2) Consideremos una función de densidad f , definida como:

 2/3 , 0  x 1

f x    x / 12 , 1  x  3
 0
 , o.c.

Efectivamente es densidad, ya que es positiva y su integral o área total bajo la curva es 1


 3 1 3 1 3
x2
 f xdx  0 f x dx  0 f x dx  1 f x dx  0 3dx  1 12dx  3
2 x 2x 2 1
   1
1 3
0 1
24 3 3
 x

  f x dx , x0
 
 0 x

x 
  f x dx  0 f x dx , 0  x 1
F ( x)   f  x dx   0 
1 x
 f x dx  f  x dx  f  x dx
 0 1

, 1 x  3
 

  f x dx

, x3

para:
x x
x<0;  f x dx =  0 dx  0
 
x x 1
f x dx =   f x dx  3
2 2 2
0<x<1; 
0 0
3
dx  x ;
3 0
x x 2 3
x x
f x dx =   f x dx  3
1
1<x<3; 
1 0
12
dx 
24
;
1

x x
x>3;  f x dx =  0 dx  0
3 3

 0 , x0  0 , x0
 2  2
 x , 0  x 1  x , 0  x 1

x
F ( x)   f x dx  
3
x  3 2
   f x dx
2
 , 1 x  3 2  x , 1 x  3
3 1  3 24
 1 , x3  1 , x3

La probabilidad que esta v.a. X, tenga resultados en un conjunto A en IR, se obtendrá integrando la
densidad sobre A, o bien mediante las reglas entregadas en la presente sección para utilizar F.
53
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.1.2.- MODELOS
Se entiende por modelo (probabilístico) a la función de cuantía o de densidad que caracteriza a
la distribución del fenómeno en estudio, por tal motivo se habla de modelos discretos o contínuos
respectivamente, y se acostumbra identificar a la v.a. con su particular cuantía o densidad f más que
por su distribución F, lo que se abrevia Xf. Los sgtes. modelos son de uso habitual en aplicaciones.
3.1.2.1.- Discretos - Continuos
A continuación presentamos las v.a. más utilizadas en las aplicaciones, junto con sus
respectivos soportes.

a) DISCRETOS:
 X ~ B(n,p) Binomial de parámetros n y p.
 n
 f x     p x q n x , x  0,1,..., n, q  1  p,0  p  1 . Repetición de n ensayos de
x
detección de falla (Bernoulli o B(1,p)) con taza de falla p constante en cada ensayo o
experimentos similares al ejemplo de pedidos a una misma granja).
 X ~ Bneg (k,p) Binomial Negativa de parámetros k y p.
 x  1 k x  k
 f x     p q , x  k , k  1, k  2,..., q  1  p,0  p  1 . Repetición de ensayos
 k  1
 B(1,p) que se detiene al lograr por primera vez k fallas o experimento tipo encuesta de aceptación.
 Cuando   x 1
k  1, f x  pq , x  IN, q = 1 - p, también se denomina Pascal o
Geométrica.
 X ~ Hipg(n1 ,n2 ) Hipergeométrica de parámetros n1 ,n2.
 n1  n2   N 
 f x      /  , x  max{0, n  n2 },..., minn1 , n, max{0, n1 - n}  n  x  n2 ,
 x  n  x   n 
N  n1  n2 . Sselección al azar y sin reemplazo, de n objetos desde dos grupos.
 X ~ P() Poisson de parámetro 
 x
 f  x  exp  , x  IN0
x!
 (aprox. de Binomial cuando, p pequeño, np   constante para n grande)

b) CONTINUOS:
 X ~ Exp() exponencial de parámetro  , f x    exp  x , x  0
. Tiempo de falla,
con velocidad de crecimiento proporcional al tiempo.

 X~U([a,b]) uniforme en [a,b], f(x)=1/(b-a), x  [a,b], (tiempo de fallas al azar en [a,b])

 X~ N (  , ) normal (o Gauss) de parámetros  y  2


2


f x   2 2 1 / 2
 
exp  ( x   )2 /( 2 2 ) , x  IR ,
x 1
 X ~  ,   gamma de parámetros  ,  , donde f x   exp  x /  , x  0
  

donde     x  1 e  x dx,      1  1, n  n  1 ! n  IN.
0

Casos continuos especiales:

1,    Exp 1/   ; para n  IN.: n,   : n  Erlang , ( n / 2,2) :  2 n, distribución
Chi-cuadrado con n grados de libertad
W  ,   Weibull de parámetros  ,  , f x     x 1 exp   
x , x  0
(tiempo de fallas asimétrico, unimodal)

54
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Para fines operativos en Anexo MATLAB (12) se encuentra un listado de este tipo de funciones (sigla),
distribución (siglacpf), densidad o cuantía ( sigladpf) según corresponda. En los sgtes. gráficos, se
representan los valores distintos de cero de las respectivas funciones de densidad f y distribución F

55
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

56
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Se observa, que la asimetría que presentan estos gráficos para las distintas f ( cuantías o densidades), es
uno de los principales aspectos que caracteriza a cada una de ellas y naturalmente a la v.a. asociada.

3.1.2.2.- Deducción de la función de probabilidad (densidad discreta) Poisson

Otra importante propiedad de la función de cuantía Poisson es que da origen a la ley de comportamiento
de fenómenos muy utilizados en el análisis de lineas de espera que satisfagan las siguientes condiciones:
A un lugar llegan elementos (concurrentes) para ser atendidos (procesados, ensamblados, examinados,
informados,evaluados,...), ante un servidor establecido para tal propósito:
- el número de concurrentes en lapsos de tiempo consecutivos son sucesos independientes
- los sucesos número de concurrentes en un lapso de tiempo, ocurren con probabilidad proporcional a
dicho lapso.
- en lapsos de tiempo muy pequeños ocurre a lo más una concurrencia (esto hace posible que se
origine una fila)

Tales condiciones pueden formalizarse de la siguiente manera:


Sea X : número de concurrentes a ser atendidos
]0,t[ : lapso de tiempo de amplitud t
p(x; t)= P(X=x en ]0,t[): la probabilidad de que X=x (ocurran exactamente) concurrencia en un
intervalo de tiempo de amplitud t, (respecto de t , el soporte de p(x,t) es t>0) y supóngase lo
siguiente:

1. En este intervalo, los eventos ocurren de manera independiente.


2. La probabilidad de una sola ocurrencia, en un intervalo muy pequeño dt es vdt, en donde v es la
frecuencia constante de ocurrencia y (v > 0).
3. El intervalo dt es tan pequeño, que la probabilidad de tener más de una ocurrencia en dt es
despreciable.

El evento en que el tiempo t + dt ha ocurrido exactamente x veces, puede llevarse a cabo de dos maneras
diferentes y excluyentes:

1. Existen x ocurrencia por tiempo t, con probabilidad p(x; t) y ninguna en dt, con probabilidad 1- vdt
Dada la suposición de independencia, la probabilidad conjunta es p(x; t) (1- vdt).
2. Existen x –1 ocurrencias por tiempo t, con probabilidad p(x-1; t) y una durante dt, con probabilidad
vdt. Recordando nuevamente el supuesto de independencia, la probabilidad de que ello ocurra
simultáneamente ( o en forma conjunta ) es: p(x-1; t) vdt.

Así: p(x; t + dt) = p(x; t)(1 – vdt) + p(x –1; t)vdt.

Después de multiplicar, transponer p(x; t) al primer miembro, y dividir por dt, se tiene:
p( x; t  dt )  p( x; t )
=v[p(x – 1; t) – p(x; t)].
dt
57
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Al sacar el límite cuando dt  0, por definición se tiene:


dp( x; t )
=v[p(x – 1; t) – p(x; t)].
dt

que es una ecuación diferencial lineal con respecto a t y una ecuación de diferencias finitas de primer
orden, con respecto a x.

dp( 0; t )
Si x = 0, obtenemos =v[p( – 1; t) – p(0; t)] = - vp(0; t), pues p( – 1; t)=0, entonces
dt
dp( 0; t )
= - v p(0; t), que al separar variables e integrar se reduce a
dt
In[p(0; t)] = In (c ) – vt, o p(0; t) = c e-vt , pero p(0,t)=1 p(0; t) = e-vt

dp( 1; t ) dp( 1; t )
Si x = 1, obtenemos = v[p(0; t) – p(1; t)], o + vp(1; t)= ve-vt, ecuación diferencial
dt dt
no homogénea con condición inicial p(1; 0) = 0 ; cuya solución es p(1; t) = (vt)e-vt

dp(2; t )
Análogamente para x = 2 y p(2; 0)= 0 se obtiene p(2, t )   2 te t
dt

cuya solución es p(2; t) =


vt 2 e  vt .
2!

Al continuar este proceso, asumiendo p(x; 0) = 0;. puede deducirse que la probabilidad de tener

exactamente x ocurrencias en t es p(x; t) =


vt e
x  vt
, x = 0, 1, 2,... ,
x!
que al considerar  = vt, este resultado, es la función de probabilidad de Poisson. P().

Fijando el tiempo en T = t, unidades de tiempo, para la v.a. X: número de sucesos en lapso [0, t], se ha
deducido que si tales sucesos ocurren con frecuencia  , en cada unidad de tiempo; XPx(t )=Px(),
con  = vt.

Ahora al estudiar tales ocurrencias en [t1, t2], intervalo de amplitud t = t2 – t1 , el número de ellas en tal
lapso, es una v.a. X tal que X Px( (t2 – t1)).

Además surge un interesante resultado, al considerar el suceso X =1, que por lo anterior, podemos admitir
que ocurre en un lapso de amplitud t. Lo que es equivalente, a estudiar el resultado de una variable
aleatoria T , definida como
T: tiempo de espera para que ocurra el próximo suceso Poisson.(tiempo de espera entre sucesos),

con distribución : FT(t) = P(T  t): probabilidad que esperemos a lo sumo t instantes para que el
próximo suceso ocurra

es decir : 1-Ft(t) = P(T > t) :probabilidad de que ocurra el primer suceso despues de t instantes
=P(X=0)= f(0) = e- t : probabilidad de que ningún suceso ocurra en el lapso t

d d - t
así 1-Ft(t) = e- t, entonces
(1-Ft(t)) = ( e )  -fT(t) =- e- tt  fT(t) = e- t  T exp().
dt dt
Lo que se resume: a número de llegadas por unidad de tiempo P(), el “número” de unidades de tiempo
entre arribos es exp().

58
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo3.4

Sea X: Nº de pasajeros que llegan a un terminal en un lapso t (en [0, t]), X  P(t)= P()
T: tiempo que transcurre entre la llegada de uno y otro pasajero, T  exp(t)= exp()

1) Si el promedio de usuarios que llegan por minuto es 10 =  t. Para unidades minutos t =1 y ==10,
es decir la ley de comportamiento (función de densidad) del tiempo transcurrido hasta que llegue el
próximo usuario es:
fT(t) =10 e-10t. t >0
2) Para determinar, cuanto tiempo hemos de considerar para que la llegada entre uno y otro usuario sea
al azar (se logre con probabilidad igual a ½): nos planteamos

PT  t   0.5   e t dt  0.5  e t  1  0.5  t 


t ln 2
.
0 

Ejemplo3.5 . Cálculo de probabilidades con apoyo de las sentencias MATLAB

1.- Al lanzar un dado 20 veces, determine la probabilidad que ocurra:


- solo tres resultados iguales a 6:
- al menos 3 y a lo sumo 17 resultados iguales 6
- calcular cuartiles y quintiles

Solución:
X: cantidad de resultados iguales a 6 en 20 repeticiones B(1, 1/6), entonces X es N(20,1/6)
P(X=3) P(3<=X<=17)
0.237886566137850 0.433454362223004

Q1 Q2 Q3 P20 P40 P60 P80


2 3 4 2 3 4 5
Script
format long
disp(' P(X=3) P(3<=X<=17)');disp( [binopdf(3,20, 1/6) binocdf(17,20,1/6)-binocdf(3,20,1/6)])
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([binoinv( 0.25,20,1/6) binoinv( 0.5,20,1/6) binoinv( 0.75,20,1/6) binoinv( 0.20,20,1/6) binoinv( 0.40,20,1/6) binoinv(
0.60,20,1/6) binoinv( 0.80,20, 1/6)])

2.- Si realizamos hoy una encuesta, entrevistando electores hasta encontrar el primero a favor del
candidato que figura en todas las encuestas con un 60% de las preferencias.; determine la probabilidad
que requiera entrevistar:
- 7 electores para encontrar el primero a favor de tal candidato;
- al menos 7 electores para encontrar el segundo elector a favor de tal candidato.
- calcular cuartiles y quintiles para las v.a. involucradas

Solución
X: cantidad de entrevistas para lograr el primero a favor es geométrica o Binomial Negativa Bneg( 1,0.6)
Y: cantidad de entrevistas para lograr el segundo a favor es Binomial Negaiva; Bneg(2,0.6)
P(X=7) P(Y>=7)
0.000983040000000 0.993534124647965

Q1 Q2 Q3 P20 P40 P60 P80


X 0 0 1 0 0 0 1
Y 0 1 2 0 1 1 2

Script
disp(' P(X=7) P(Y>=7)');disp( [nbinpdf(7,1,0.6) 1- binocdf(6,20,0.6)]);disp( 'para la v.a. X')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([nbininv( 0.25,1,0.6) nbininv( 0.5,1,0.6) nbininv( 0.75,1,0.6) nbininv( 0.20,1,0.6) nbininv( 0.40,1,0.6) nbininv( 0.60,1,0.6)
nbininv( 0.80,1,0.6)]);disp(' para la v.a. Y');disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([nbininv( 0.25,2,0.6) nbininv( 0.5,2,0.6) nbininv( 0.75,2,0.6) nbininv( 0.20,2,0.6) nbininv( 0.40,2,0.6) nbininv( 0.60,2,0.6)
nbininv( 0.80,2,0.6)])

59
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.- Al llegar clientes a requerir un cierto servicio, lo hacen según un proceso Poisson de 10 personas por
minuto. determine la probabilidad que:
- nadie llegue durante un minuto
- nadie llegue durante 5 minutos
- arriben más de 10 personas por minuto
- llegue al menos 5 y a lo más 15 personas por minuto
- lleguen al menos 60 personas en 5 minutos
- el tiempo entre la llegada de una y otra persona es inferior a dos minutos
- calcular cuartiles y quintiles

Solución:
X: cantidad de llegadas de clientes ( personas) que llegan por unidad de tiempo ( minuto), X es P(10)
Y: cantidad de llegadas en 5 minutos, Y es P(5*10)=P(50)
Z: tiempo entre llegadas, Z es Exp(10)

P(X=0) P(Y=0) P(X>10) P(5<=X<=15) P(Y>=60) P(Z<2)


0.0000453 0.00 0.41696 0.8841736 0.092265 0.181269

Q1 Q2 Q3 P20 P40 P60 P80


X 8 10 12 7 9 11 13
Y 45 50 55 44 48 52 56
Z 2.87682 6.9314718 13.8629 2.2314 5.108 9.1629 16.0943

Script:
disp(' P(X=0) P(Y=0) P(X>10) P(5<=X<=15) P(Y>=60) P(Z<2) ')
disp( [poisspdf(0,10) poisspdf(0,50) 1-poisscdf(10,10) poisscdf(15,10)-poisscdf(5,10) 1-poisscdf(59,50) expcdf(2,10) ])
disp( 'para la v.a. X')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([poissinv(0.25,10) poissinv( 0.5,10) poissinv( 0.75,10) poissinv( 0.2,10) poissinv( 0.4,10) poissinv( 0.6,10) poissinv( 0.8,10) ])
disp( 'para la v.a. y')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([poissinv(0.25,50) poissinv( 0.5,50) poissinv( 0.75,50) poissinv( 0.2,50) poissinv( 0.4,50) poissinv( 0.6,50) poissinv( 0.8,50) ])
disp( 'para la v.a. Z')
disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([expinv(0.25,10) expinv( 0.5,10) expinv( 0.75,10) expinv( 0.2,10) expinv( 0.4,10) expinv( 0.6,10) expinv( 0.8,10) ])
hold on ; x4=-1:0.001:50 ; y4= exppdf(x4,10); zzzz4=( x4<=13.8) .* exppdf(x4,10)+ (x4>13.8) .* (0); plot(x4,y4);
yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf);set(gca,'xtick', [0 13.8629 ]) ; colormap autumn;
title('Representación de Q3 para Exp(10)'); hold off

4.- Salvo contadas excepciones, si un artefacto falla de manera totalmente al azar entre el tercer y sexto
año de efectuada la compra, determine la probabilidad que falle:
- al cumplir el cuarto año
- durante el cuarto año
- falle después del cuarto año
- que falle antes de 5 años si ha superado los 4 años, e identifique el modelo aleatorio subyacente
- calcular cuartiles y quintiles

60
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Solución:
X : tiempo de falla es uniforme entre 3 y 6 años ,
es decir su densidad f(x) es uniforme U(3,6)
Probabilidad de falla al cumplir el cuarto año: P(X=4)=0.
Lo solicitado se realiza directamente según
script.

Y: falla antes de y años, dado que superó los 4 años:


Y= X=y | X>4
FY(y)=P({w tq. X(w)<=y, dado que X(w)>4}.
es un evento condicional, por ello para evaluar
su probabilidad; corresponde aplicar probabilidad
condicional: P(X<5|X>4) = P(X>4 y X<5)/ P(X>4)

P(4<=X<5) P(X>4) P(X<5|X>4)


0.333 0.66667 0.5
Q1 Q2 Q3 P20 P40 P60 P80
X 3.75 4.5 5.25 3.6 4.2 4.8 5.4
Y 4.5 5.0 5.5 4.4 4.8 5.2 5.6

Además la función de distribución de Yes:

FY(y)= P(X<= y | X>4)=P(4<X<y)/P(X>4) = (F(y)-F(4))/ 1- F(4),

por tanto, para obtener tal percentil α= (F(y)-F(4))/ 1- F(4) entonces p=F(y) = F(4)+α* (1-F(4)).

Es decir, α% de las observaciones a la izquierda de un valor Y=y, es equivalente a su análogo p% para


X=y según tal relación..

 dFY ( y ) f ( y)
  , 4 y6 0.5 , 4 y6
 dy 1  F (4)

fY(y)=  = 
 0 ,

0 , o.c.  o.c.

Este modelo, identifica la v.a. Y como uniforme truncada, haciendo referencia a la v.a. X de la cual
procede; específicamente X truncada a X>4

Script:
disp(' P(4<=X<5) P(X>4) P(X<5|X>4) ')
disp( [unifcdf(5,3,6)-unifcdf(4,3,6) 1- unifcdf(4,3,6) (unifcdf(5,3,6)-unifcdf(4,3,6))/(1-unifcdf(4,3,6)) ])
format short; disp( 'para la X'); disp(' Q1 Q2 Q3 P20 P40 P60 P80')
disp([unifinv(0.25,3,6) unifinv(.5,3,6) unifinv(.75,3,6) unifinv(.2,3,6) unifinv(.4,3,6) unifinv(.6,3,6) unifinv(.8,3,6) ])
a1=[0.25 0.5 0.75]; a2=0.2 :0.2:0.8 ; a=[a1 a2 ]; p= unifcdf(4,3,6)+a*(1-unifcdf(4,3,6)); percentilesY=unifinv(p,3,6)
disp( 'para la Y= X|X>4'); disp(' Q1 Q2 Q3 P20 P40 P60 P80'); disp(percentilesY)
t=linspace(0,10,1000);h=(t<=4).*(0)+ ((t>4)&(t<6)).*(1/2)+ (t>=6).*(0); h1=(t<=3).*(0)+
((t>3)&(t<6)).*(1/3)+(t>=6).*(0)

5.- Aceptando que la temperatura interna del cuerpo en personas adultas, sin diagnóstico de afección
alguna o pre-existencia, es normal N(36.5,1).
5.-1-Determine cuán probable es que una persona tenga una temperatura:
- de 37 grados
- inferior a 36.6 grados
- entre 36.6y 37.5
- que sobrepase los 38.5 grados
- calcular cuartiles y quintiles
Solución:
X: es N(36,5,1), una v.a. continua , por lo tanto P(X=37)=0

P(X<36.6)=0.5398 , P(36.6<X<37.5)=0.3015, PX>38.5)=0.0228


61
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Q1 Q2 Q3 P20 P40 P60 P80


35.8255 36.5000 37.1745 35.6584 36.2467 36.7533 37.3416
Script:
normcdf(36.6,36.5,1); normcdf(37.5,36.5,1)-normcdf(36.6,36.5,1); 1-normcdf(38.5, 36.5,1); a1=[0.25 0.5 0.75]; a2=0.2
:0.2:0.8 ; a=[a1 a2 ]; percentiles=norminv(a,36.5,1);disp(' Q1 Q2 Q3 P20 P40 P60 P80'); disp(percentiles)
hold on; x4=33:0.001:40; zzzz4=(x4>36.6 &x4<37.5).*(y4); plot(x4, y4); set(gca,'xtick', [ 36.6 37.5]);
yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf); colormap autumn; hold off % normspec([a,b],mu,sigma,’inside);grid on; logra
el mismo gráfico solo para el caso normal.

5.2.- En este contexto, determine la probabilidad de


- encontrar al menos 5 personas con temperatura sobre los 37 grados, al examinar 10 personas
- tener que examinar 5 personas para encontrar la primera con tempertura sobre los 37 grados

Solución:
Con la v.a. X con distribución N(36.5,1),
calculemos p=P(X>37)=0.3085

Y: cantidad de personas con temperatura


sobre 37 grados, de entre 10 examinados

Y es B( n,p)=B(10,p)

Z: cantidad de personas a examinar ,


para encontrar la primera con temperatura
sobre 37 grados; Z es Bneg( 1, p)
p P(Y>=5) P(Z=5)
0.3085 0.1653 0.0488

Script:
p=1-normcdf(37,36.5,1);
disp(' p P(Y>=5) P(Z=5)');
disp([ p 1-binocdf(4,10,p) nbinpdf(5,1,p)])
hold on; x4=33:0.001:40; zzzz4=(x4>37).*(y4); plot(x4, y4);
set(gca,'xtick', [ 36.5 37]) ; yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf) ; hold off

5.3.- Que porcentaje de las personas con temperatura sobre 36 grados, presentan temperaturas inferiores a
los 37 grados, e identifique el modelo subyacente:

Solución:
Consideremos el evento de interés sobre del cual se efectúa lo solicitado:

X: temperatura de una persona,


con densidad f es N(36.5, 1)
p= P(X>37)

Y = X=y| X>36;
FY(y)= P(X<= y | X>36)=P(36<X<y)/P(X>36)
= (F(y)-F(36))/ (1- F(36)),

62
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

La cual se identifica como normal truncada,


haciendo referencia a la v.a. X truncada o
restringida para valores X>36.

P(Y<37)= FY(37)=( F(37)-F(36))/ (1- F(36))


= 0.5538
 f ( y)
dFY ( y )  , y  36
Además: fY ( y )   1  F (36)
dy 
 0, o.c.

Script:
(normcdf(37,36.5,1)-normcdf(36,36.5,1))/(1-normcdf(36,36.5,1))
hold on; x=35:0.01:40; f=(x<36).*(0)+ (x>36).*((normpdf(x,36.5,1))/(1-normcdf(36,36.5,1)));
ff= (x>37).*((normpdf(x,36.5,1))/(1-normcdf(36,36.5,1))); plot(x, f,'r.'); set(gca,'xtick', [ 36 37 40 ]); fff=spline(x,ff,x); area(x,fff)
Fcond= (x<36).*(0)+ (x>36).*((normcdf(x,36.5,1)-normcdf(36,36.5,1))/(1-normcdf(36,36.5,1))); plot(x,Fcond,'r.')

3.1.3.- Cambio de Variable

El siguiente resultado nos permite determinar el comportamiento de la transformación de una


variable aleatoria.

Sea FX la función de distribución asociada a una v.a.X, Y=goX con g:D IR IR una función
creciente estricta, tal que XD c.s., entonces
FY  y   PY  y   PgoX  y   FX g 1  y .
De lo cual se desprende que, en el caso de X v.a. discreta, la obtención de dFY con Y=goX es muy
simple y para el caso continuo sólo es suficiente una exigencia adicional. Lo que presentamos en
el siguiente resultado, conocido como teorema del cambio de variable unidimensional.

Teorema

Sea X v.a. discreta o continua con D soporte de dFX , Y= goX con g:D IRIR función, entonces

a) Si X es v.a. discreta; Y es v.a.discreta con soporte g(D)


fY  y    f x, X y  g D  con Ay  x  D / g x   y
x Ay

b) Si X es v.a. continua; Y es v.a. continua con soporte g(D), g monótona estrica y diferenciable:

 
f Y  y   f X g 1  y   dyd g  y ,
1
y  g D

A continuación presentamos un ejemplo, al primero de tres grupos de casos trascendentes para múltiples
aplicaciones, en lo que se refiere a transformaciones aleatorias como recurso para múltiples aplicaciones

Ejemplo3.6

1) X ~ N  ,    Z  X   ~ N(0,1)
2

 Nota. Este hecho es el que nos permite llevar todos los cálculos de probabilidades de variables normales a
N(0,1). Proceso conocido como estandarización; en particular para esta X ~ N ,   ,
2
su distribución,

X  x  x
FX x   P X  x   P    P Z  , Y ~ N (0,1).
      
 Este resultado, en la mayor parte de la literatura, hasta antes de softwares MATLAB, R,
63
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

SPSS… ; era necesario abordarlo al comienzo de toda presentación de variable aleatoria normal, para
hacer uso de tabla de distribución N(0,1), como recurso ineludible para calcular, cualquier
probabilidad de una v.a.normal arbitraria, que como ya hemos visto, no es necesaria.

La función de densidad f ( x )  N ,  2  , posee un máximo en x   , lo cual puede verificarse al


resolver la ecuación de su derivada iguala a cero y constatar que su segunda derivada en este punto es
negativa. Pero si observamos esta segunda derivada como función de x, y plantemos encontrar sus
raíces, hallaremos que se encuentran en los puntos: x     y donde se producen cambios de
curvatura, siendo ambos, puntos de inflexión. La curvatura cambia al apartarnos a una distancia  de
la media y señala la captura de un porcentaje importante de probabilidad de la v.a.

Aquí se aprecia, lo relevante de N(0,1), que va más allá de un recurso operativo; su comportamiento, como
veremos al final de este capítulo, será el centro de la atención en la Parte II del presente texto; pero en lo
inmediato hay que distinguir los siguientes puntos notables de una v.a. N(0,1) y su extensión a una normal
arbitraria a partir de lo señalado en el párrafo anterior.

Primeramente, veamos los siguientes percentiles de una v.a. Z de este tipo:


p 0,1 0.2 0.25 0.5 0.75 0.8413 0.9 .9332 0.95 0.975 0.975
z -1.281 -0.84 -0.6745 0 0.6745 1 1.2816 1.5 1.6449 1.96 1.96

0.9772 0.9987
2 3

Se denomina puntaje Z, o estandarización de valores x de una v.a. X ~ N  ,  , al valor z  x  


2

x
El 5% de valores superiores de la v.a.X, corresponde al puntaje z  1.6449  1.645 ;

es decir: x    1.645 , entonces x    1.645

Curva Normal N(0,σ2)

-3σ -2σ -1.5σ -σ 0 σ 1.5σ 2σ 3σ


68%
86.64%
95.45%
99.73%
De la tabla de percentiles, se obtiene:
- Valores X inferiores al primer cuartil Q1, pertenecen al intervalo  ;   0.6745 
- Rango inter-cuartílico:   0.6745  (   0.6745 )    2  0.6745    1.349
- El 90% central de los datos se encuentra en el intervalo   1.645 ;   1.645 
64
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

- El último decil se inicia con el valor x    1.2816 


- Un 84.13% de las respuestas X son inferiores a x    
- 68.27% de resultados de X , se encuentra en:    ;    
- 86.64% de resultados X, resultan entre:   1.5 ;   1.5 
- Un 95% de los resultados X se encuentran en:   1.96  ;   1.96  
- 95.45% de valores de X se encuentra en:   2 ;   2  
- 99.73% de respuestas X ocurrirán en:   3 ;   3 , es decir en una
banda de ancho 6σ está contenido el 99,73% de los resultados X. Estrategia de control conocida
como 6σ (six-sigma), cuyo propósito es la permanente reducción de σ, luego de alcanzar una
producción o servicio normalizado y centrado, con objetivo de resultados µ.

2) X~ N(0,1)  Y  X 2 ~ 0.5,2 : x21


Es decir, cuando elevamos al cuadrado los resultados de una distribución F dada por una densidad f
normal d eparámetros 0 y 1, N(0,1); se origina otra v.a. con una nueva distribución F Y , dada por una
densidad gamma de parámetros 1/2, 2, que se denomina Chi-cuadrado con 1 .gl.
Resultado no se desprende del reciente teorema, pero como transformación relevante la obordamos y
deducimos de la sgte. manera:

Para: y<0; FY ( y )  P(Y  y )  P(Y  )  0


y>0; FY ( y )  P(Y  y )  P( X 2  y)  P(- y  X  y )  F( y )  F (  y ) ,

Entonces:

 0, yo
FY ( y )  
F( y )  F (  y ), y0

derivando, obtenemos la densidad de la v.a.Y:


1
fY ( y )  ( f ( y)  f ( y) )
2 y
2 1 1
 f ( y)  f ( y )   ( y ; ,2 )
2 y y 2

p 0.1 0.2 0.25 0.4 0.5 0.6 0.6827 0.75 0.8 0.9 0.95 0.9445
y 0.0158 0.0642 0.1015 0.2750 0.4549 0.7083 1 1.3233 1.6424 2.7055 3.8415 4

Tabla de la cual se desprende lo siguiente:


65
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

- Resultados bajo el primer cuartil Q1 son aquellos que se encuentran en 0;0.1015


- Valores Y sobre el cuartil superior Q3, poseen valores en 1.3233;
- rango inter-cuartílico= Q3-Q2= 1.3233-0.1015=1.2218
- mediana: 0.4549
- valores sobre el quintil superior: 1.6424;
- media o expectativa de la v.a.Y : E Y   1 , (véase Anexo tabla de características de v.a.)
Como se puede apreciar, esta es una enorme transformación de la N(0,1) , en la cual la media y
mediana de X que eran concordantes, en Y se han distanciado de manera importante.
- Siendo una transformación global de comportamiento, localmente en conjuntos equivalentes debe
permanecer una forzosa coincidencia en probabilidad; lo cual ilustramos con los sgtes, casos simples:
0.68.27 = P(-1<X<1) = P(X2<1) = P(Y<1)
0.9445%= P(-2<X<2) = P(X2<4) = P(Y<4))
- Por motivos, a destacar durante la parte II, es de suma determinar los valores de Y que pertenecen al
extremo (cola) de esta distribución. En este caso, la cola del 5% superior es: 3.8415;
3) Generación de números aleatorios.
Sea X v.a.c. con función de distribución FX creciente estricta, entonces Y  FX (x ) es v.a. U[0,1].
Este resultado, puede obtenerse directamente del siguiente hecho:

Para valores:
y<0; FY ( y )  P(Y  y )  P(Y  )  0

y>1; FY ( y )  P(Y  0,1 1, y )  P(Y  0,1)  P(Y  1, y )  1  P(Y  )  1

0  y  1; FY  y   PY  y   PFX ( x)  y   P( X  FX1 ( y ))  FX ( FX1 ( y ))  y,

 0, y0

 FY ( y )   y, 0  y  1 , a la cual, corresponde el gráfico F=U(0,1); además una vez
1 y 1

0, y0
 1, 0  y  1
derivada , logramos la densidad f de la v.a.Y: f Y ( y )  1, 0  y  1 
0 0, o.c.
 y 1

Así entonces, dada una distribución F creciente estricta, y una muestra y1 ,.... yn con distribución U[0,1], al
1
considerar el sistema yi  F ( xi ), i  1,..., n ; podemos obtener xi  F ( yi ) , muestra tamaño n de una
v.a. X con distribución F ( X ~ F ).

Por esta y múltiples razones, es que todo sistema o procedimiento procedimiento para simular, debe ser
muy eficiente para la generación de números (pseudo) aleatorios en el intervalo (0,1).

Para aplicar directamente este procedimiento, basta que F sea creciente estricta, en el intervalo donde se
encuentra todo el peso de la v.a.X.. Procedimiento que en muchos casos, no es tan directo y se hace
necesario otros recursos, como es el caso de simular N(0,1), debido a lo complejo de invertir la
correspondiente distribución. Cabe destacar, que en la actualidad, la mayor parte de los procedimientos
para simular v.a. ya se encuentran implementados de manera muy eficiente, como en el caso de
MATLAB, R,SAS, SPSS u otro recurso de esta índole.

A continuación, presentamos según script que se acompaña: una m.a.(7), dos m.a.(10), y una m.a.(10);
N(0,1), Exp(1), Weibul(1,1) respectivamente:

66
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

N(0,1)
Muestra1: -1.1480 0.1049 0.7223 2.5855 -0.6669 0.1873 -0.0825
Muestra2: -1.9330 -0.4390 -1.7947 0.8404 -0.8880 0.1001 -0.5445
Muestra3: 0.3035 -0.6003 0.4900 0.7394 1.7119 -0.1941 -2.1384

Exp(1)
Muestra1: 1.3693 0.2054 1.4125 0.0734 1.0499 1.6266 1.3820 0.4844 0.7480 1.0451
Muestra 2: 0.1853 0.5357 0.5983 0.0864 1.2523 0.2781 0.2827 0.9664 0.5659 2.5789

Weibull (1,1)
Muestra: 1.3661 0.6813 0.3580 0.1155 0.0416 0.6029 1.9760 1.9018 1.3567 0.1735

Script:
(normrnd(0,1,7,3))';(exprnd(1,10,2))';(wblrnd(1,1,10,1))'

3.1.4.- Operador Esperanza

Con el objeto de disponer de un valor que nos caracterice en términos de los parámetros que
componen a dF, la forma de la v.a.X discreta o continua asociada, se ha pensado en obtener un valor
central, promedio, esperado o de expectativa de X respecto de las ponderaciones dadas por su propia
ley de comportamiento dF. El que servirá de base para disponer de otros valores de forma
(poblacional), llegando incluso a ser una poderosa herramienta para identificar su distribución.

3.1.4.1.- Valor Esperado

Definición

Sea X una v.a. discreta o contínua, se define su media o valor esperado (esperanza) y denota como

E[X] al número real 
x dFX : E[X], cuando exista.
Se puede verificar fácilmente en el caso discreto y de manera muy interesante por los recursos que
ha de utilizarse en el caso contínuo que si consideramos Y=goX ;
 
E[Y]   y dFY   g x dFX
 

Definición

Para una v.a. X discreta o continua, a IR ; se define  (a,r) como el momento (teórico) de orden r
respecto de a, al número real dado por

E[  X  a  ]
r


 x  a r dFX : a, r  , cuando exista.


En particular: 0,1   x dFX  E[X] valor esperado o media de X.


 E[x],2   E[ X - E X 2 ] = V(X), varianza de X.

Los habituales indicadores de asimetría y curtosis se definen respectivamente como,


 E[x],3   E[x],4 
as  , ak  .
VX  VX 
3/ 2 2

Por este mecanismo, disponemos entonces de conceptos más generales que los citados en
estadística descriptiva, cuyo significado acompañamos:
67
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

E[X] valor medio real, o punto de equilibrio respecto de dF


V(X) varianza, que mide cuán dispersos estan los valores de X respecto de su valor medio.
as indica hacia que lado de la media está desbalanceada dF.
ak nos da cuán achatada es la representación de dF.

Comentario:
Cuando se informa (ESI-INE 2016) que la v.a. X : ingreso mensual p/persona en Chile, se presenta con
un valor:
- medio de $517540,
- con mediana $ 350000,
todo análisis, bajo el supuesto de comportamiento normal (Gauss) es incorrecto, ya que la curva normal
es simétrica con punto de simetría igual a la mediana , el cual coincide con la media; y en caso de una
aproximación, al menos se tendrían valores cercanos, pero no tan ostensiblemente distintos.
Afirmaciones, que por cierto son estadísticamente verificables, como veremos en la Parte II.

Propiedades

Sea X una v.a. discreta o continua, entonces


1) E[X]  0 si X  0 c.s., además
+∞

∫ (1 − 𝐹𝑋 (𝑥))𝑑𝑥, 𝑠𝑖 𝑋 𝑒𝑠 𝑣. 𝑎. 𝑐.
𝐸 [𝑋 ] = 0
+∞

∑ 𝑃 (𝑋 > 𝑥 ),
𝑠𝑖 𝑋 𝑒𝑠 𝑣. 𝑎. 𝑑.
{ 𝑥=0
1 − 𝐹𝑋 (𝑥) = 𝑃(𝑋 > 𝑥 ), se denomina función de sobrevivencia, cuando X v.a.c representa tiempos de
duración, vida útil o similares.
2) E [aX+b] = a E[X] + b.
2 2
De lo cual se desprende que V(X) = E[X ] - E [X] , V(aX+b) = a 2 V(X)
3) Para C=]a,b[ tal que P(C)=1  E[X] C

4) Si h i : Ai  IR IR, i=1,2 tales que h1  h2 en C, PX (C)=1, se tiene que E[h1 (X)]  E[h2 (X)]

5) V(X)  E[(X -  )2 ]  IR


E[ X - Me(X) ]  E[ X -  ],   IR

 
6) Desigualdades
P X  a   E X / a r , a  0
r
6.1) (Markov)

6.2)(Chernoff)Si  X (t ) = E[e
tX
] , a  0  P X  a  e ta X (t ), t  0 P X  a  eta X (t ), t  0
6.3) (Chebychev) Si c IR, E  X  c    entonces,   0 , P  X  c     EX  c / 
2 2 2

En particular: P( X  E  X    )  V ( X ) /  2 .
1 1
E[ XY ]  E[ X ]1 / r E[ Y ]1 / s , r  1, s  0 ,   1 , (Schwartz si r=s=2)
r s
6.4)(Holder)
r s
r1 / r r1 / r
E[ X  Y ]1 / r  E X  EY ,r 1
r
6.5)(Minkowski)

d 2h
6.6) (Jensen) Si h : A  IR IR, tal que existe  0 en C, PX (C)=1, (h convexa en C soporte de X),
dx 2
entonces h (E[X])  E[h(X)].
En particular, si C IR :

(E[X])r  E[X r ] , r  IR,

68
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.1.4.2.- Función Generadora de Momentos

Definición
Dada una v.a. discreta o contínua X, una aplicación  X : D  IR  IR, t   X (t)=
tX
E[e ]; que satisface
1) D es un intervalo abierto que contiene al 0 ,
r
2)  X (t ), t  D; r  k
t r
r   r tX 
3) X (t )  E  t r e , t  D; r  k
t r  
se denomina función generadora de momentos (centrales respecto del origen) hasta orden k.
Si ψ𝑋 (𝑡) = 𝐸[(1 + 𝑡) 𝑋 ] satisface estas tres condiciones ( en que la propiedad 3 ha de entenderse
como el dar cumplimiento a que la derivada pueda ingresar dentro de la esperanza), se denomina función
generadora de momentos factoriales ( en torno a t=1).

En rigor, tanto  X como  X son operadores, y como veremos inmediatamente; respectivamente, nos
proporcionan los momentos: factoriales y cuantíuas , y centrales respecto del origen, antes definidos
como (0,r).

3.1.4.2.a.-Obtención de momentos centrales ( respecto del origen)


Si  X es una función generadora de momentos centrales hasta de orden k, efectivamente tales
momentos se obtienen de la siguiente manera:
r
r X
(0)   0, r   EX r , r  k.
t
Además, 𝜑𝑎𝑋+𝑏 (𝑡) = 𝐸[𝑒 (𝑎𝑥+𝑏)𝑡 ] = 𝑒 𝑏𝑡 𝜑𝑎𝑋 (𝑡) = 𝑒 𝑏𝑡 𝜑𝑋 (𝑎𝑡)
3.1.4.2.b.-Cálculo de momentos factoriales
Para  X función generadora de momentos factoriales en torno a t=0:
r 
(0)  E  X ( X  1)( X  2) ( X  (r  1)) , r  k.
 tr X
V(X) = E[X2]-E2[X] = E[X2-X+X]-E2[X]= E[X(X-1)] + E[X] - E2[X}
2
𝜕2 𝜕 𝜕
=𝜕𝑡 2 𝜓𝑋 (1) + 𝜕𝑡 𝜓𝑋 (1) − (𝜕𝑡 𝜓𝑋 (1))
𝜓𝑋 (𝑡) = 𝐸[𝑒𝑥𝑝(𝑙𝑛(1 + 𝑡) 𝑋 )] = 𝐸[ 𝑒𝑥𝑝(𝑋 𝑙𝑛(1 + 𝑡)) ] = 𝜑𝑋 (𝑙𝑛(1 + 𝑡))

𝜓𝑋 (𝑒 𝑡 − 1) = 𝐸 [(1 + 𝑒 𝑡 − 1) 𝑋 ] = 𝐸 [𝑒 𝑡𝑋 ] = 𝜑𝑋 (𝑡)

También se logran los mismos resultados con  𝑋 (𝑡) = 𝐸[𝑡 𝑋 ] efectuando los análisis en torno
a t=1, es decir:
𝜕
 𝑋 (1) = 𝐸[𝑋],
𝜕𝑡
𝜕2
 𝑋 (1) = 𝐸[𝑋(𝑋 − 1)]
𝜕𝑡𝑟2
𝜕
 𝑋 (1) = 𝐸[𝑋(𝑋 − 1)(𝑋 − 2) … . (𝑋 − (𝑟 − 1)], 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑟 𝑒𝑛𝑡𝑒𝑟𝑜 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜
𝜕𝑡 𝑟

en tal caso  𝑋 (𝑒 𝑡 ) = 𝜑𝑋 (𝑡),  𝑋 (𝑡) = 𝜑𝑋 (𝑙𝑛 𝑡)

69
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.1.4.2.c.-Generación de probabilidades para variables aleatoria discretas


Para X v.a.d con cuantía (o probabilidades) dF(x)= f(x)=, cuyo soporte es D={0,1,2,…}, entonces

 𝑋 (𝑡) = 𝐸 [𝑡 𝑋 ] = ∑∞ 𝑥 ∞ 𝑥
𝑥=0 𝑡 𝑓 (𝑥 ) = 𝑓 (0) + ∑𝑥=1 𝑡 𝑓 (𝑥 );
Naturalmente, en esta descomposición 𝑓(𝑥) 𝑒𝑠 el coeficiente de 𝑡 𝑥 , el cual se puede obtener de
 𝑋 mediante:
 𝑋 ( 0) = 𝑓 (0)
∞ ∞ ∞
𝜕 𝜕 𝜕
 𝑋 (𝑡) = ∑ 𝑡 𝑥 𝑓(𝑥 ) = ∑ 𝑥𝑡 𝑥−1 𝑓(𝑥 ) = 𝑓(1) + ∑ 𝑥𝑡 𝑥−1 𝑓(𝑥 );  𝑋 (0) = 𝑓(1)
𝜕𝑡 𝜕𝑡 𝜕𝑡
𝑥=1 𝑥=1 𝑥=2

∞ ∞
𝜕2 𝜕2
 ( 𝑡 ) = ∑ 𝑥(𝑥 − 1)𝑡 𝑥−1 ( )
𝑓 𝑥 = 2𝑓 ( 2 ) + ∑ 𝑥(𝑥 − 1)𝑡 𝑥−1 ( )
𝑓 𝑥 ;  𝑋 (0) = 𝑓(2)
𝜕𝑡 2 𝑋 𝜕𝑡 2
𝑥=1 𝑥=3
𝜕𝑥
 (0) = 𝑥! 𝑓(𝑥)
𝜕𝑡 𝑥𝑥 𝑋
1 𝜕
𝑥 𝑋
(0) = 𝑓(𝑥), 𝑥 𝑒𝑛 𝐷;
𝑥! 𝜕𝑡

3.1.4.3.- Función Característica

Definición
Dada una v.a. discreta o contínua X, D un intervalo abierto que contenga a 0; la aplicación
X
:D IR  IC, t   X (t)= E[e ] itX

se denomina función característica (transformada de Fourier) de la v.a.X.

Proposición
Tal función característica (operador) , siempre existe y es única, por lo tanto caracteriza o identifica a la
v.a.X.
A diferencia de la función generadora, tal función característica siempre existe, además:
𝑋
-  𝑋 (𝑒 𝑖𝑡 ) = 𝐸 [(𝑒 𝑖𝑡 ) ] = 𝐸[𝑒 𝑖𝑡𝑋 ] =  X  t 
- si  X en D   X t    X it  .

Una de sus aplicaciones, quizás la más importante es la siguiente:


Para  X 1 , X 2 funciones características asociadas a las variables aleatorias discretas (contínuas) X1 , X2
respectivamente:  X   X  FX  FX
1 2 1 2

Resultado que efectivamente, permite caracterizar las v.a., al reconocer tal aplicación por su procedencia
o revisando las diferentes de funciones características que se encuentra en Anexo : Tabla de
características de variables aleatorias trascendentales, la cual también contiene un detalle de los
respectivos valores de interés abordados en la sección anterior.

70
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo3.7: Consideremos una v.a. X con distribución

1.- Exp(λ), exponencial de parámetro λ, entonces:

    
 X (t )  Ee itX    e itx dF ( x)   e itx f ( x)dx   e itx e x dx   e itxx dx   e (it  ) x dx
0 0 0 0 0

 1
   it 
1
 (  it )e
(  it ) x
= dx    1     X (it )
  it 0
  it 1  it   

1 1 2
 t d  t  t 1
con  X (t )  1   ; EX  
d 1
( X (t ))  1    1    ,
  dt t 0 dt       
t 0 t 0

d  2
 3

E X    1  t  1    21  t  1
2
d 2
2
( X (t ))   ;
dt 2  dt        
2
2
t 0     t 0 t 0

 
2
1
V ( X )  E X 2  E 2 X  
2 1
   2
 
2

2.- P(λ), Poisson de parámetro λ entonces:


∞ ∞ ∞
𝑋] 𝑥 𝑥
𝜆𝑥 𝑒 −𝜆 −𝜆
(𝜆𝑡)𝑥
 𝑋 (𝑡) = 𝐸 [𝑡 = ∑ 𝑡 𝑓 (𝑥 ) = ∑ 𝑡 =𝑒 ∑ = 𝑒 −𝜆+𝜆𝑡 = 𝑒 𝜆(𝑡−1)
𝑥! 𝑥!
𝑥=0 𝑥=0 𝑥=0

Efectivamente:
 𝑋 (0) = 𝑒 −𝜆 = 𝑓(0),
….
1 𝜕𝑥 𝜆𝑥 𝜆(𝑡−1) 𝜆𝑥 −𝜆
 (0) = 𝑒 | = 𝑒 = 𝑓(𝑥)
𝑥! 𝜕𝑡 𝑥 𝑋 𝑥! 𝑡=0 𝑥!

𝜕𝑟
𝜕𝑡 𝑟
 𝑋 (1) = 𝜆𝑟 𝑒−𝜆(𝑡−1) |𝑡=1 = 𝜆𝑟 ; 𝐸[𝑋(𝑋 − 1) … (𝑋 − (𝑟 − 1)] = 𝜆𝑟 , r=1,2,…..

Así: 𝐸[𝑋] = 𝜆, 𝐸 [𝑋(𝑋 − 1)] = 𝐸 [𝑋 2 − 𝑋] = 𝜆2 ,….

𝑉 (𝑋) = 𝐸 [(𝑋 − 𝐸 [𝑋])2 ] = 𝐸 [𝑋 2 − 𝑋 + 𝑋] − 𝐸 2 [𝑋] = 𝐸 [𝑋 2 − 𝑋] + 𝐸[𝑋] − 𝐸 2 [𝑋] = 𝜆2 + 𝜆 − 𝜆2 = 𝜆

71
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

72
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

73
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.2.- VECTOR ALEATORIO

Tales aplicaciones deben representar el valor de diferentes características en cada


elemento del espacio muestral. Es en este sentido que se definen los siguientes conceptos.

Definición  
Una función X:  IRn es un vector aleatorio (vec.a.) asociado a (,IA) sii X:  IRn
Se adopta la notación X para diferenciarlas de las X v.a..
Ahora al disponer de un vec.a. tenemos:

 P
X 1  A   [0,1]


X
  P X

A IRn


donde PX , la (medida de) probabilidad asociada al vec.a. X , se construye de la siguiente manera:
  

PX  A  PX 1  A  P W   / X W   A : P X  A   
3.2.1.- Construcción de Medida de Probabilidad para un vec.a.

Definición

Se define el operador diferencial parcial de salto hi  0 y se denota por  h a


i

aquel operador que actúa sobre funciones F: IRn IR de la siguiente manera:
 h F x1,.., xi 1, xi , xi 1,..xn   F x1,.., xi 1, xi  hi , xi 1,..xn   F x1,.., xi 1, xi , xi 1,..xn 
i

Si h = (h1,.., hi ,.., hn ), el operador parcial  h se define como la composición de los


respectivos  hi , quedando entonces como:  h F   h1  h2 ... hn F .

Propiedades

1)  h F(x1 ,..., x n ) =
 F(x1 + h1,..., xn + hn ) -
 {F(x1, x2 + h2 ,..., xn + hn )+...+F(x1 + h1,..., xn-1 + hn-1, xn )} +
{F(x1, x 2 , x 3 + h 3 ,..., x n + h n ) + ... + F(x1 + h1 ,..., x n - 2 + h n - 2 , x n -1, x n )}+
 +...+ (-1) F(x1 ,..., xn ).
n

2) Los operadores  hi son conmutativos y lineales


 En efecto si i<j, entonces
  hi  h j F(x1 ,..., x n ) =
 = h i {F(x1,.., x i ,.., x j + h j ,.., x n ) - F(x1,..., x n )}
 = F(x1,.., xi + hi ,.., x j + h j ,.., xn ) - F(x1,.., xi + hi ,.., xn ) -
 F(x ,.., x ,.., x
1 i j + h j ,.., x n ) - F(x1,..., x n )
 = F(x1,.., xi + hi ,.., x j + h j ,.., xn ) - F(x1,.., xi ,.., x j + h j ,.., xn ) -
 F(x1 ,.., x i + h i ,.., x n ) - F(x 1 ,..., x n )
74
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 = h j {F(x1,.., x i + h i ,.., x n ) - F(x1,..., x n )}


 =  h j  h i F(x1 ,..., x n )

Finalmente es evidente que hi F  G   hi F  hi G, lo que también nos conduce a la
linealidad de h .

Definición
Una función F: IRn IR se denomina función de distribución (de probabilidad en IRn ) sii:
F x1 ,..., xn   0, x1 ,..., xn   IR n ,
 
 ba F x1 ,..., xn  0, si a  a1 ,..., a n , b    b1 ,..., bn , ai  bi i ,
F continua por la derecha en cada componente,
F  , x2 ,..., xn   ...  F x1 ,..., xn1 ,  0 y F  ,...,  1 .
Al igual que en el caso real, existe una correspondencia bi-unívoca entre el espacio
IP = {P:(IRn ,  n ) IR / P es medida de probabilidad} y el espacio IF = {F: IRn  IR / F es función de
distribución}, que puede exponerse de la siguiente manera:

FX  x 1 ,..., x n   P , x i 


n
dada P IP  F :FX tal que
 i 1 

PX  a i , b i    b  a F a  si a i  b i i


n
dada FIF   P :PX tal que
 i 1 
Probabilidades sobre otro tipo de bloques se obtienen de forma análoga que en el caso
unidimensional, lo que basta para pretender la extensión de P a n .

Se repite entonces en este caso la relevancia de las funciones de distribución y por tal motivo es
conveniente disponer de algún método de construcción. Para ello basta con extender a IRn las
definiciones de función de cuantía y densidad reales, como veremos a continuación.

Definición
Se dice que una función f: :D IR IR, f(x)  0, x  D,
n
f  x  0x  D, es:
-cuantía sii D es numerable, y  f  x  1
x D

-densidad sii  f  xdx   f  x ,... x dx


D D
1 n 1 dx n  1
El conjunto D así considerado se denomina soporte de f.

Luego, podemos exponer el nexo entre estas funciones de cuantía o densidad con las funciones
de distribución de la siguiente manera:
para x = (x1,...,xn )  IR
n


  f t , f cuantía 

F x    t  t1 ,...,t n  A / t i  x i ,i
 :  dF (t )
 .... f x dx1...dxn
x1 xn
f densidad  n   , x 
 -    i
i 1

 F  x
n

Si f es densidad, cuando existe  f  x . Razón que motiva el denotar por  dF


x i .. x n
indistintamente a la suma o integral antes señalada, identificando a f por dF.
El método anterior nos conduce a diferentes tipos de distribuciones y por lo tanto de vectores de acuerdo
a si se utiliza una función de cuantía o bien una de densidad:
75
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

vec.a.discreto

f X cuantía

 FX
X
f X densidad

vec.a. contínuo


e.d. Si X es un vec.a. cuya función de distribución proviene de una función de cuantía o densidad,
respectivamente, diremos que tal vector es discreto o bien continuo.

Propiedad
1)Si f X es una función de cuantía o densidad con soporte en D Rn , que define una distribución FX
asociada a PX , entonces

 Para A IRn ; PX  A   dFX   dFX , B  IR n


AD A


  f X  x , si f X es cuantía
 x  A

f   x ,..., x n dx1 ... dx n , si f X es densidad


A X 1

2) Siendo f X densidad, ai  bi ; para cualquier intervalo desde ai hasta bi, , que denotaremos ai , bi ,
se verifica:
n 
PX   ai , bi    n dFX    f X x dx1  dx n
b1 bn

 i 1  i1 ai ,bi a1 an

3) Todo subespacio propio de IRn , tiene probabilidad igual a cero de ocurrir (salvo un milagro, ocurre).

3.2.2.- MODELOS

Nuestro concepto de modelo (probabilístico), definido en 3.1.2 fue general. Atendiendo a ello es
que nos referiremos en forma análoga a modelos discretos y continuos, e identificaremos a un
vec.a. X con su particular cuantía o densidad f, mediante la notación X ~ f X .

A continuación presentamos a modo de ilustración dos casos de vectores aleatorios muy


utilizadas en las aplicaciones.

a) DISCRETO

 X ~ Multinomial

f x   p1x1  pkxk , con p1  0,1i,


n!
p1  ...  pk  1
x1 ! xk !

x  ( x1, x2 ,..., xk ) {( x1, x2 ,.., xk ) t.q. xi  0,1,n i , x1    xk  n}
(representa la probabilidad de que en n intentos independientes, logremos xi sucesos de tipo i,
de entre k eventos mutuamente excluyentes de probabilidad pi respectivamente)

76
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa


 X ~ Hipergeométrica (dos variables)
 N  N  N3  N
f  x    1  2   / ; con n N= N1+N2+N3 ,
 x1  x2  n  x1  x2   n 

x  ( x1 , x2 ) {( x1 , x2 ) t.q. x1  0,.., min n, N1, x2  0,.., min n, N 2 ,0  n  x1  x2  N3}
(selección al azar sin reemplazo, de objetos provenientes de una agrupación de 3 tipos excluyentes)

b) CONTINUO:

N  ,V  Normal con vector de medias   1 ,...,  p  y matriz de var. covarianzas


 
X ~

 1  ,   
V  aij i , j 1,.., p ;
 
f x   2  V 1 exp   x    V 1 x   ,
p/2 1/ 2
x  IRp
 2 
En particular si aij  0, i  j , aij   2 , i  j , entonces V  2I ;


     
n
1
 (x
p/2
f X  2 2 exp     i ) 2 .
 2
2 i
i 1 

Para p=2, su expresión general contempla:


  ÉX 1   1 

EX   
  ,
 V (X1)

V 
cov( X 1 , X 2 )    12  12 
 :  
2 
 EX 2    2   cov( X 1 , X 2 ) V ( X 2 )   12   2 

  1   ,    
f x   2  V 1 exp   x    V 1 x   ,
 1/ 2
x IR2
 2 
Su gráfico, es similar al de la siguiente figura, la cual es una superficie (campana) que se acerca a cero en
todas las direcciones del plano (x,y), de secciones verticales campanas unidimensionales como las ya
abordadas y elipses en las secciones transversales paralelas al plano x,y, las cuales se reducen a
circunferencias en aquellas distribuciones donde  12   22 , y  12  0

77
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Como consecuencia de la definición N  ,V  , satisface las siguientes propiedades:

1.- X = SZ + ~ Np ( ,  ) si Z ~ Np( 0, Ip), donde SS´

2.- Si X ~ Np ( ,) ,  diagonal; entonces (x-)´ -1(x-) ~ χ2p

3.- Si X ~ Np (,yYX + C, donde B es una matriz de kxp, de rango r ≤ p

Y, C є  k entonces Y ~ Nk (BC , B´



4.- Si disponemos de una m.a.(n) de X ~ Np ( ,) entonces el vector de medias

X ~ Np ( , /n)

 X (1) 
5.- Si X =  ( 2)  donde X(1) , X (2) son una partición del vector X ~ Np ( ,) de
X 

dimensiones q y (p-q) con q ≤ prespectivamenteEntonces

  (1)   11 12 


5.1.- X~Np (  ,
( 2)     , ´
     21  22 

5.2.- X(1)| X (2) ~ Nq (1|2 , 1|2) , con 1|2 = (1) +X (2) - (2)) y 

 

X(1)| X (2)=x(2) , es vec.a. igual a : X1.2= X(1)+x (2) - (2)) ,


vec.a de componentes que representa al espacio de variación residual.

5.4.- Cov(X(1), X1.2) =  es decir la asociación del primer vector aletorio y el mismo bajo
restricción a otro vector es tanta como la variabilidad de su transformación dada por el
espacio residual.

5.5.- Cov(X(2), X1.2) = 0lo que sumado a la normalidad, nos indica que en base a esta
ortogonalidad, entonces existe independencia entre las variaciones residuales X 1.2 y fijas X(2).

78
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

N(0,1)
Muestra1: -1.1480 0.1049 0.7223 2.5855 -0.6669 0.1873 -0.0825
Muestra2: -1.9330 -0.4390 -1.7947 0.8404 -0.8880 0.1001 -0.5445
Muestra3: 0.3035 -0.6003 0.4900 0.7394 1.7119 -0.1941 -2.1384

Exp(1)
Muestra1: 1.3693 0.2054 1.4125 0.0734 1.0499 1.6266 1.3820 0.4844 0.7480 1.0451
Muestra 2: 0.1853 0.5357 0.5983 0.0864 1.2523 0.2781 0.2827 0.9664 0.5659 2.5789

Weibull (1,1)
Muestra: 1.3661 0.6813 0.3580 0.1155 0.0416 0.6029 1.9760 1.9018 1.3567 0.1735

Script:
(normrnd(0,1,7,3))';(exprnd(1,10,2))';(wblrnd(1,1,10,1))'

3.1.4.- Operador Esperanza

Con el objeto de disponer de un valor que nos caracterice en términos de los parámetros que
componen a dF, la forma de la v.a.X discreta o continua asociada, se ha pensado en obtener un valor
central, promedio, esperado o de expectativa de X respecto de las ponderaciones dadas por su propia
ley de comportamiento dF. El que servirá de base para disponer de otros valores de forma
(poblacional), llegando incluso a ser una poderosa herramienta para identificar su distribución.

3.1.4.1.- Valor Esperado

Definición

Sea X una v.a. discreta o contínua, se define su media o valor esperado (esperanza) y denota como

E[X] al número real 
x dFX : E[X], cuando exista.
Se puede verificar fácilmente en el caso discreto y de manera muy interesante por los recursos que
ha de utilizarse en el caso contínuo que si consideramos Y=goX ;
 
E[Y]   y dFY   g x dFX
 

Definición

Para una v.a. X discreta o continua, a IR ; se define  (a,r) como el momento de orden n respecto de
a, al número real dado por

E[  X  a  ]
r


 x  a r dFX : a, r  , cuando exista.


En particular: 0,1   x dFX  E[X] valor esperado o media de X.


 E[x],2   E[ X - E X 2 ] = V(X), varianza de X.

Los habituales indicadores de asimetría y curtosis se definen respectivamente como,


 E[x],3   E[x],4 
as  , ak  .
VX  VX 
3/ 2 2

Por este mecanismo, disponemos entonces de conceptos más generales que los citados en
estadística descriptiva, cuyo significado acompañamos:
67
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

E[X] valor medio real, o punto de equilibrio respecto de dF


V(X) varianza, que mide cuán dispersos estan los valores de X respecto de su valor medio.
as indica hacia que lado de la media está desbalanceada dF.
ak nos da cuán achatada es la representación de dF.

Comentario:
Cuando se informa (ESI-INE 2016) que la v.a. X : ingreso mensual p/persona en Chile, se presenta con
un valor:
- medio de $517540,
- con mediana $ 350000,
todo análisis, bajo el supuesto de comportamiento normal (Gauss) es incorrecto, ya que la curva normal
es simétrica con punto de simetría igual a la mediana , el cual coincide con la media; y en caso de una
aproximación, al menos se tendrían valores cercanos, pero no tan ostensiblemente distintos.
Afirmaciones, que por cierto son estadísticamente verificables, como veremos en la Parte II.

Propiedades

Sea X una v.a. discreta o continua, entonces


1) E[X]  0 si X  0 c.s., además
+∞

∫ (1 − 𝐹𝑋 (𝑥))𝑑𝑥, 𝑠𝑖 𝑋 𝑒𝑠 𝑣. 𝑎. 𝑐.
𝐸 [𝑋 ] = 0
+∞

∑ 𝑃 (𝑋 > 𝑥 ),
𝑠𝑖 𝑋 𝑒𝑠 𝑣. 𝑎. 𝑑.
{ 𝑥=0
1 − 𝐹𝑋 (𝑥) = 𝑃(𝑋 > 𝑥 ), se denomina función de sobrevivencia, cuando X v.a.c representa tiempos de
duración, vida útil o similares.
2) E [aX+b] = a E[X] + b.
2 2
De lo cual se desprende que V(X) = E[X ] - E [X] , V(aX+b) = a 2 V(X)
3) Para C=]a,b[ tal que P(C)=1  E[X] C

4) Si h i : Ai  IR IR, i=1,2 tales que h1  h2 en C, PX (C)=1, se tiene que E[h1 (X)]  E[h2 (X)]

5) V(X)  E[(X -  )2 ]  IR


E[ X - Me(X) ]  E[ X -  ],   IR

 
6) Desigualdades
P X  a   E X / a r , a  0
r
6.1) (Markov)

6.2)(Chernoff)Si  X (t ) = E[e
tX
] , a  0  P X  a  e ta X (t ), t  0 P X  a  eta X (t ), t  0
6.3) (Chebychev) Si c IR, E  X  c    entonces,   0 , P  X  c     EX  c / 
2 2 2

En particular: P( X  E  X    )  V ( X ) /  2 .
1 1
E[ XY ]  E[ X ]1 / r E[ Y ]1 / s , r  1, s  0 ,   1 , (Schwartz si r=s=2)
r s
6.4)(Holder)
r s
r1 / r r1 / r
E[ X  Y ]1 / r  E X  EY ,r 1
r
6.5)(Minkowski)

d 2h
6.6) (Jensen) Si h : A  IR IR, tal que existe  0 en C, PX (C)=1, (h convexa en C soporte de X),
dx 2
entonces h (E[X])  E[h(X)].
En particular, si C IR :

(E[X])r  E[X r ] , r  IR,

68
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.1.4.2.- Función Generadora de Momentos

Definición
Dada una v.a. discreta o contínua X, una aplicación  X : D  IR  IR, t   X (t)=
tX
E[e ]; que satisface
1) D es un intervalo abierto que contiene al 0 ,
r
2)  X (t ), t  D; r  k
t r
r   r tX 
3) X (t )  E  t r e , t  D; r  k
t r  
se denomina función generadora de momentos (centrales respecto del origen) hasta orden k.
Si ψ𝑋 (𝑡) = 𝐸[(1 + 𝑡) 𝑋 ] satisface estas tres condiciones ( en que la propiedad 3 ha de entenderse
como el dar cumplimiento a que la derivada pueda ingresar dentro de la esperanza), se denomina función
generadora de momentos factoriales ( en torno a t=1).

En rigor, tanto  X como  X son operadores, y como veremos inmediatamente; respectivamente, nos
proporcionan los momentos: factoriales y cuantíuas , y centrales respecto del origen, antes definidos
como (0,r).

3.1.4.2.a.-Obtención de momentos centrales ( respecto del origen)


Si  X es una función generadora de momentos centrales hasta de orden k, efectivamente tales
momentos se obtienen de la siguiente manera:
r
r X
(0)   0, r   EX r , r  k.
t
Además, 𝜑𝑎𝑋+𝑏 (𝑡) = 𝐸[𝑒 (𝑎𝑥+𝑏)𝑡 ] = 𝑒 𝑏𝑡 𝜑𝑎𝑋 (𝑡) = 𝑒 𝑏𝑡 𝜑𝑋 (𝑎𝑡)
3.1.4.2.b.-Cálculo de momentos factoriales
Para  X función generadora de momentos factoriales en torno a t=0:
r 
(0)  E  X ( X  1)( X  2) ( X  (r  1)) , r  k.
 tr X
V(X) = E[X2]-E2[X] = E[X2-X+X]-E2[X]= E[X(X-1)] + E[X] - E2[X}
2
𝜕2 𝜕 𝜕
=𝜕𝑡 2 𝜓𝑋 (1) + 𝜕𝑡 𝜓𝑋 (1) − (𝜕𝑡 𝜓𝑋 (1))
𝜓𝑋 (𝑡) = 𝐸[𝑒𝑥𝑝(𝑙𝑛(1 + 𝑡) 𝑋 )] = 𝐸[ 𝑒𝑥𝑝(𝑋 𝑙𝑛(1 + 𝑡)) ] = 𝜑𝑋 (𝑙𝑛(1 + 𝑡))

𝜓𝑋 (𝑒 𝑡 − 1) = 𝐸 [(1 + 𝑒 𝑡 − 1) 𝑋 ] = 𝐸 [𝑒 𝑡𝑋 ] = 𝜑𝑋 (𝑡)

También se logran los mismos resultados con  𝑋 (𝑡) = 𝐸[𝑡 𝑋 ] efectuando los análisis en torno
a t=1, es decir:
𝜕
 𝑋 (1) = 𝐸[𝑋],
𝜕𝑡
𝜕2
 𝑋 (1) = 𝐸[𝑋(𝑋 − 1)]
𝜕𝑡𝑟2
𝜕
 𝑋 (1) = 𝐸[𝑋(𝑋 − 1)(𝑋 − 2) … . (𝑋 − (𝑟 − 1)], 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑟 𝑒𝑛𝑡𝑒𝑟𝑜 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜
𝜕𝑡 𝑟

en tal caso  𝑋 (𝑒 𝑡 ) = 𝜑𝑋 (𝑡),  𝑋 (𝑡) = 𝜑𝑋 (𝑙𝑛 𝑡)

69
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.1.4.2.c.-Generación de probabilidades para variables aleatoria discretas


Para X v.a.d con cuantía (o probabilidades) dF(x)= f(x)=, cuyo soporte es D={0,1,2,…}, entonces

 𝑋 (𝑡) = 𝐸 [𝑡 𝑋 ] = ∑∞ 𝑥 ∞ 𝑥
𝑥=0 𝑡 𝑓 (𝑥 ) = 𝑓 (0) + ∑𝑥=1 𝑡 𝑓 (𝑥 );
Naturalmente, en esta descomposición 𝑓(𝑥) 𝑒𝑠 el coeficiente de 𝑡 𝑥 , el cual se puede obtener de
 𝑋 mediante:
 𝑋 ( 0) = 𝑓 (0)
∞ ∞ ∞
𝜕 𝜕 𝜕
 𝑋 (𝑡) = ∑ 𝑡 𝑥 𝑓(𝑥 ) = ∑ 𝑥𝑡 𝑥−1 𝑓(𝑥 ) = 𝑓(1) + ∑ 𝑥𝑡 𝑥−1 𝑓(𝑥 );  𝑋 (0) = 𝑓(1)
𝜕𝑡 𝜕𝑡 𝜕𝑡
𝑥=1 𝑥=1 𝑥=2

∞ ∞
𝜕2 𝜕2
 ( 𝑡 ) = ∑ 𝑥(𝑥 − 1)𝑡 𝑥−1 ( )
𝑓 𝑥 = 2𝑓 ( 2 ) + ∑ 𝑥(𝑥 − 1)𝑡 𝑥−1 ( )
𝑓 𝑥 ;  𝑋 (0) = 𝑓(2)
𝜕𝑡 2 𝑋 𝜕𝑡 2
𝑥=1 𝑥=3
𝜕𝑥
 (0) = 𝑥! 𝑓(𝑥)
𝜕𝑡 𝑥𝑥 𝑋
1 𝜕
𝑥 𝑋
(0) = 𝑓(𝑥), 𝑥 𝑒𝑛 𝐷;
𝑥! 𝜕𝑡

3.1.4.3.- Función Característica

Definición
Dada una v.a. discreta o contínua X, D un intervalo abierto que contenga a 0; la aplicación
X
:D IR  IC, t   X (t)= E[e ] itX

se denomina función característica (transformada de Fourier) de la v.a.X.

Proposición
Tal función característica (operador) , siempre existe y es única, por lo tanto caracteriza o identifica a la
v.a.X.
A diferencia de la función generadora, tal función característica siempre existe, además:
𝑋
-  𝑋 (𝑒 𝑖𝑡 ) = 𝐸 [(𝑒 𝑖𝑡 ) ] = 𝐸[𝑒 𝑖𝑡𝑋 ] =  X  t 
- si  X en D   X t    X it  .

Una de sus aplicaciones, quizás la más importante es la siguiente:


Para  X 1 , X 2 funciones características asociadas a las variables aleatorias discretas (contínuas) X1 , X2
respectivamente:  X   X  FX  FX
1 2 1 2

Resultado que efectivamente, permite caracterizar las v.a., al reconocer tal aplicación por su procedencia
o revisando las diferentes de funciones características que se encuentra en Anexo : Tabla de
características de variables aleatorias trascendentales, la cual también contiene un detalle de los
respectivos valores de interés abordados en la sección anterior.

70
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo3.7: Consideremos una v.a. X con distribución

1.- Exp(λ), exponencial de parámetro λ, entonces:

    
 X (t )  Ee itX    e itx dF ( x)   e itx f ( x)dx   e itx e x dx   e itxx dx   e (it  ) x dx
0 0 0 0 0

 1
   it 
1
 (  it )e
(  it ) x
= dx    1     X (it )
  it 0
  it 1  it   

1 1 2
 t d  t  t 1
con  X (t )  1   ; EX  
d 1
( X (t ))  1    1    ,
  dt t 0 dt       
t 0 t 0

d  2
 3

E X    1  t  1    21  t  1
2
d 2
2
( X (t ))   ;
dt 2  dt        
2
2
t 0     t 0 t 0

 
2
1
V ( X )  E X 2  E 2 X  
2 1
   2
 
2

2.- P(λ), Poisson de parámetro λ entonces:


∞ ∞ ∞
𝑋] 𝑥 𝑥
𝜆𝑥 𝑒 −𝜆 −𝜆
(𝜆𝑡)𝑥
 𝑋 (𝑡) = 𝐸 [𝑡 = ∑ 𝑡 𝑓 (𝑥 ) = ∑ 𝑡 =𝑒 ∑ = 𝑒 −𝜆+𝜆𝑡 = 𝑒 𝜆(𝑡−1)
𝑥! 𝑥!
𝑥=0 𝑥=0 𝑥=0

Efectivamente:
 𝑋 (0) = 𝑒 −𝜆 = 𝑓(0),
….
1 𝜕𝑥 𝜆𝑥 𝜆(𝑡−1) 𝜆𝑥 −𝜆
 (0) = 𝑒 | = 𝑒 = 𝑓(𝑥)
𝑥! 𝜕𝑡 𝑥 𝑋 𝑥! 𝑡=0 𝑥!

𝜕𝑟
𝜕𝑡 𝑟
 𝑋 (1) = 𝜆𝑟 𝑒−𝜆(𝑡−1) |𝑡=1 = 𝜆𝑟 ; 𝐸[𝑋(𝑋 − 1) … (𝑋 − (𝑟 − 1)] = 𝜆𝑟 , r=1,2,…..

Así: 𝐸[𝑋] = 𝜆, 𝐸 [𝑋(𝑋 − 1)] = 𝐸 [𝑋 2 − 𝑋] = 𝜆2 ,….

𝑉 (𝑋) = 𝐸 [(𝑋 − 𝐸 [𝑋])2 ] = 𝐸 [𝑋 2 − 𝑋 + 𝑋] − 𝐸 2 [𝑋] = 𝐸 [𝑋 2 − 𝑋] + 𝐸[𝑋] − 𝐸 2 [𝑋] = 𝜆2 + 𝜆 − 𝜆2 = 𝜆

71
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CARACTERISTICAS PRINCIPALES DE VARIABLES ALEATORIAS TRASCENDENTALES

MODELO dFX(x) E[X] V(X) asimetría curtosis  X (t )


(parámetro) as(X) ak(X)
Bernoulli p pq (1):
B(1,p), p x q1 x , 1 2 p 1  6 pq pet  q p  n1 / N , N  n1  n2
, 3
p  ]0,1[ pq pq ( N  2n1 )( N  2n) N  1
q  1  p, x  0,1. (2):
( N  2) nn1 ( N  n1 )( N  n)
(3):
Binomial np npq t n N 2 ( N  1)
B(n,p)  n  x n x 1 2 p 1  6 pq  pe  q
  p q , 3 ( N  2)( N  3)nn1 ( N  n1 )( N  n)
n  Z+, npq npq
p  ]0,1[ x {N ( N  1)  6n( N  n) 
x  0,1,..., n p
3 ( N  n1 )( N 2 (n  2)  Nn 2  6n( N  n))}
N
Geomé-trica
Bneg(1,p) pq x 1 , 2
2 p p2 pe t (4): (2(    )     1 /(  (    2))
1/ p q/ p 9
p  ]0,1[ q 1  qe t
x  1,2,.... q
Hipergeo- npq( N  n) (2) (3) 2
(5): 3(    1)[2(   )   (    6) .
métrica np N 1
Hpg(n1,n2)  n1  n2   N   (    2)(    3)
   /  , 3
n1,n2  Z+
 x  n  x   n  (6): (1  3 /  )  3(1  1/  )(1  2 /  )  2 (1  1 /  )
(1) 2 3/ 2
((1  2 /  )   (1  1/  ))
x  {max{0, n  n2 },  (1  4 /  )  4(1  1/  )(1  3 /  )
(7): 
..., min{n, n1 }}, ((1  2 /  )   2 (1  1/  ))2

Pascal o p 2  6q k
Binomial  x  1 k x  k 2
2 p  pet 
k/ p kq / p 3 6 2 (1  1/  )(1  2 /  )  3 4 (1  1 /  )
Negativa kq .
  p q ,
t
kq  
Bneg(k,p)  k  1  1  qe  ((1  2 /  )   2 (1  1 /  ))2
k  Z+, x  k , k  1,... ( ,  )  ( )(  ) / (   )
p  ]0,1[
Poisson t
x e  / x!, x  0,1,...   1/  3 1/  e  ( e 1) K t  ((r  1) / 2) /( r (r / 2))
P(  ),  >0
K F  (((r  s) / 2) /((r / 2)(s / 2)))(r / s) r / 2

72
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Uniforme 9
U(,  ),  < 
1 ,  x        2 0
et  et ,t0
  5 t    
2 12
Exponencial  e- x, x > 0 2 9 (1-t/)-1, t < 
1/  1 / 2
Exp(),  > 0
Gamma
 x r 1 e  x ,x>0 3(1+2/r)
 (r, ) r/ (1-t/)-r, t < 
( r ) r / 2 2/ r
r > 0,  > 0
r x r
Chi-cuadrado 1  1
r 2r 3(1+4/r)
1  2t  2 , t 
2 x2 e 2 3/ 2
 (r), r > 0 2 / r 2
2 r / 2 ( r / 2)
Normal o Gauss  
1  x  2  1 2 2
1    t  t 
N( , 2)   , - < x <   2 0 3 2
e 2  
- <  < ,  > 0 2  e
Lognormal 1  In ( x )    2
 
2 2
1 2   ,x>0  1 
Lg(, 2)    2 
e e 2    (e  1)
- <  < ,  > 0 2 x 2 
e
Beta x 1 (1  x)  1 , 0 x  1  
(,) 2
(4) (5)
 > 0,  > 0  ,            1
Weibull
W(, ) x  1 /  (1  1 /  )  2 /  ((1  2 /  )   2 (1  1/  )) (6) (7)
 x 1 e   ,x > 0
 > 0,  > 0
t-Student r 1 0
 r 3( r  2 )
 x2  2
t(r ) , - < x <  ,r>2
r>0 K t 1   0 r2 r 1
 r 
,r>1
Fisher o Snedecor r s
r  s
1 2
F(r,s)
2s 2 r  s  2  , s > 1
KF 2  r  ,x>0 ,s > 2 2
r > 0, n > 0 x 1  x  s2 r s  2  s  4 
 s 
Cauchy  / no existe no existe no existe no existe no existe
,  x  
C(), >0 ( x   )2   2
Rayleigh x2
x    /2 (2   / 2) 2
R(), >0 2 2
e ,x  0
2
Laplace   x   2
L(,β), ,β>0 e ,  x    0 6 e t
2 2 / 2 2 2
t 

73
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.2.- VECTOR ALEATORIO

Tales aplicaciones deben representar el valor de diferentes características en cada


elemento del espacio muestral. Es en este sentido que se definen los siguientes conceptos.

Definición  
Una función X:  IRn es un vector aleatorio (vec.a.) asociado a (,IA) sii X:  IRn
Se adopta la notación X para diferenciarlas de las X v.a..
Ahora al disponer de un vec.a. tenemos:

 P
X 1  A   [0,1]


X
  P X

A IRn


donde PX , la (medida de) probabilidad asociada al vec.a. X , se construye de la siguiente manera:
  

PX  A  PX 1  A  P W   / X W   A : P X  A   
3.2.1.- Construcción de Medida de Probabilidad para un vec.a.

Definición

Se define el operador diferencial parcial de salto hi  0 y se denota por  h a


i

aquel operador que actúa sobre funciones F: IRn IR de la siguiente manera:
 h F x1,.., xi 1, xi , xi 1,..xn   F x1,.., xi 1, xi  hi , xi 1,..xn   F x1,.., xi 1, xi , xi 1,..xn 
i

Si h = (h1,.., hi ,.., hn ), el operador parcial  h se define como la composición de los


respectivos  hi , quedando entonces como:  h F   h1  h2 ... hn F .

Propiedades

1)  h F(x1 ,..., x n ) =
 F(x1 + h1,..., xn + hn ) -
 {F(x1, x2 + h2 ,..., xn + hn )+...+F(x1 + h1,..., xn-1 + hn-1, xn )} +
{F(x1, x 2 , x 3 + h 3 ,..., x n + h n ) + ... + F(x1 + h1 ,..., x n - 2 + h n - 2 , x n -1, x n )}+
 +...+ (-1) F(x1 ,..., xn ).
n

2) Los operadores  hi son conmutativos y lineales


 En efecto si i<j, entonces
  hi  h j F(x1 ,..., x n ) =
 = h i {F(x1,.., x i ,.., x j + h j ,.., x n ) - F(x1,..., x n )}
 = F(x1,.., xi + hi ,.., x j + h j ,.., xn ) - F(x1,.., xi + hi ,.., xn ) -
 F(x ,.., x ,.., x
1 i j + h j ,.., x n ) - F(x1,..., x n )
 = F(x1,.., xi + hi ,.., x j + h j ,.., xn ) - F(x1,.., xi ,.., x j + h j ,.., xn ) -
 F(x1 ,.., x i + h i ,.., x n ) - F(x 1 ,..., x n )
74
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 = h j {F(x1,.., x i + h i ,.., x n ) - F(x1,..., x n )}


 =  h j  h i F(x1 ,..., x n )

Finalmente es evidente que hi F  G   hi F  hi G, lo que también nos conduce a la
linealidad de h .

Definición
Una función F: IRn IR se denomina función de distribución (de probabilidad en IRn ) sii:
F x1 ,..., xn   0, x1 ,..., xn   IR n ,
 
 ba F x1 ,..., xn  0, si a  a1 ,..., a n , b    b1 ,..., bn , ai  bi i ,
F continua por la derecha en cada componente,
F  , x2 ,..., xn   ...  F x1 ,..., xn1 ,  0 y F  ,...,  1 .
Al igual que en el caso real, existe una correspondencia bi-unívoca entre el espacio
IP = {P:(IRn ,  n ) IR / P es medida de probabilidad} y el espacio IF = {F: IRn  IR / F es función de
distribución}, que puede exponerse de la siguiente manera:

FX  x 1 ,..., x n   P , x i 


n
dada P IP  F :FX tal que
 i 1 

PX  a i , b i    b  a F a  si a i  b i i


n
dada FIF   P :PX tal que
 i 1 
Probabilidades sobre otro tipo de bloques se obtienen de forma análoga que en el caso
unidimensional, lo que basta para pretender la extensión de P a n .

Se repite entonces en este caso la relevancia de las funciones de distribución y por tal motivo es
conveniente disponer de algún método de construcción. Para ello basta con extender a IRn las
definiciones de función de cuantía y densidad reales, como veremos a continuación.

Definición
Se dice que una función f: :D IR IR, f(x)  0, x  D,
n
f  x  0x  D, es:
-cuantía sii D es numerable, y  f  x  1
x D

-densidad sii  f  xdx   f  x ,... x dx


D D
1 n 1 dx n  1
El conjunto D así considerado se denomina soporte de f.

Luego, podemos exponer el nexo entre estas funciones de cuantía o densidad con las funciones
de distribución de la siguiente manera:
para x = (x1,...,xn )  IR
n


  f t , f cuantía 

F x    t  t1 ,...,t n  A / t i  x i ,i
 :  dF (t )
 .... f x dx1...dxn
x1 xn
f densidad  n   , x 
 -    i
i 1

 F  x
n

Si f es densidad, cuando existe  f  x . Razón que motiva el denotar por  dF


x i .. x n
indistintamente a la suma o integral antes señalada, identificando a f por dF.
El método anterior nos conduce a diferentes tipos de distribuciones y por lo tanto de vectores de acuerdo
a si se utiliza una función de cuantía o bien una de densidad:
75
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

vec.a.discreto

f X cuantía

 FX
X
f X densidad

vec.a. contínuo


e.d. Si X es un vec.a. cuya función de distribución proviene de una función de cuantía o densidad,
respectivamente, diremos que tal vector es discreto o bien continuo.

Propiedad
1)Si f X es una función de cuantía o densidad con soporte en D Rn , que define una distribución FX
asociada a PX , entonces

 Para A IRn ; PX  A   dFX   dFX , B  IR n


AD A


  f X  x , si f X es cuantía
 x  A

f   x ,..., x n dx1 ... dx n , si f X es densidad


A X 1

2) Siendo f X densidad, ai  bi ; para cualquier intervalo desde ai hasta bi, , que denotaremos ai , bi ,
se verifica:
n 
PX   ai , bi    n dFX    f X x dx1  dx n
b1 bn

 i 1  i1 ai ,bi a1 an

3) Todo subespacio propio de IRn , tiene probabilidad igual a cero de ocurrir (salvo un milagro, ocurre).

3.2.2.- MODELOS

Nuestro concepto de modelo (probabilístico), definido en 3.1.2 fue general. Atendiendo a ello es
que nos referiremos en forma análoga a modelos discretos y continuos, e identificaremos a un
vec.a. X con su particular cuantía o densidad f, mediante la notación X ~ f X .

A continuación presentamos a modo de ilustración dos casos de vectores aleatorios muy


utilizadas en las aplicaciones.

a) DISCRETO

 X ~ Multinomial

f x   p1x1  pkxk , con p1  0,1i,


n!
p1  ...  pk  1
x1 ! xk !

x  ( x1, x2 ,..., xk ) {( x1, x2 ,.., xk ) t.q. xi  0,1,n i , x1    xk  n}
(representa la probabilidad de que en n intentos independientes, logremos xi sucesos de tipo i,
de entre k eventos mutuamente excluyentes de probabilidad pi respectivamente)

76
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa


 X ~ Hipergeométrica (dos variables)
 N  N  N3  N
f  x    1  2   / ; con n N= N1+N2+N3 ,
 x1  x2  n  x1  x2   n 

x  ( x1 , x2 ) {( x1 , x2 ) t.q. x1  0,.., min n, N1, x2  0,.., min n, N 2 ,0  n  x1  x2  N3}
(selección al azar sin reemplazo, de objetos provenientes de una agrupación de 3 tipos excluyentes)

b) CONTINUO:

N  ,V  Normal con vector de medias   1 ,...,  p  y matriz de var. covarianzas


 
X ~

 1  ,   
V  aij i , j 1,.., p ;
 
f x   2  V 1 exp   x    V 1 x   ,
p/2 1/ 2
x  IRp
 2 
En particular si aij  0, i  j , aij   2 , i  j , entonces V  2I ;


     
n
1
 (x
p/2
f X  2 2 exp     i ) 2 .
 2
2 i
i 1 

Para p=2, su expresión general contempla:


  ÉX 1   1 

EX   
  ,
 V (X1)

V 
cov( X 1 , X 2 )    12  12 
 :  
2 
 EX 2    2   cov( X 1 , X 2 ) V ( X 2 )   12   2 

  1   ,    
f x   2  V 1 exp   x    V 1 x   ,
 1/ 2
x IR2
 2 
Su gráfico, es similar al de la siguiente figura, la cual es una superficie (campana) que se acerca a cero en
todas las direcciones del plano (x,y), de secciones verticales campanas unidimensionales como las ya
abordadas y elipses en las secciones transversales paralelas al plano x,y, las cuales se reducen a
circunferencias en aquellas distribuciones donde  12   22 , y  12  0

77
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Como consecuencia de la definición N  ,V  , satisface las siguientes propiedades:

1.- X = SZ + ~ Np ( ,  ) si Z ~ Np( 0, Ip), donde SS´

2.- Si X ~ Np ( ,) ,  diagonal; entonces (x-)´ -1(x-) ~ χ2p

3.- Si X ~ Np (,yYX + C, donde B es una matriz de kxp, de rango r ≤ p

Y, C є  k entonces Y ~ Nk (BC , B´



4.- Si disponemos de una m.a.(n) de X ~ Np ( ,) entonces el vector de medias

X ~ Np ( , /n)

 X (1) 
5.- Si X =  ( 2)  donde X(1) , X (2) son una partición del vector X ~ Np ( ,) de
X 

dimensiones q y (p-q) con q ≤ prespectivamenteEntonces

  (1)   11 12 


5.1.- X~Np (  ,
( 2)     , ´
     21  22 

5.2.- X(1)| X (2) ~ Nq (1|2 , 1|2) , con 1|2 = (1) +X (2) - (2)) y 

 

X(1)| X (2)=x(2) , es vec.a. igual a : X1.2= X(1)+x (2) - (2)) ,


vec.a de componentes que representa al espacio de variación residual.

5.4.- Cov(X(1), X1.2) =  es decir la asociación del primer vector aletorio y el mismo bajo
restricción a otro vector es tanta como la variabilidad de su transformación dada por el
espacio residual.

5.5.- Cov(X(2), X1.2) = 0lo que sumado a la normalidad, nos indica que en base a esta
ortogonalidad, entonces existe independencia entre las variaciones residuales X 1.2 y fijas X(2).

78
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.2.3.- Distribuciones Marginales y Condicionales



Si f X es la función de cuantía o densidad asociada a un vector aleatorio X   X 1 ,..., X n  discreto o
continuo , p entero tal que 1  p<n; podemos determinar la ley de probabilidades asociada a un
1 
vec.a. X formado por p componentes de X , de la siguiente manera:

Reescribiendo X  X , X
1 2 

, donde en X
2 
 
hemos considerado las restantes componentes de X que
1 n p
A IR ,
p
no se encuentran en X , podemos decir que: adoptando A´=AxIR ,

  
P X 1  A  P X  A´) , lo que sabemos, puede obtenerse a partir de
F X 1 , X  2   x 1 , x 2    FX 1 x 1 , con x 2    ,..., en IRn  p 
por lo tanto

  x ( 2 ) IR n- p f  X 1 , X  2   x , x 
1  2 

dFX 1 x   f X 1 x   
1 1

 IR n- p  X 1 , X  2  
 f x 1 , x 2  dx 2
1 1 
es la función de cuantía o densidad asociada a X  de X respecto de X . En
y se denomina marginal
consecuencia este vector también es discreto o continuo según lo sea X . Concluimos entonces que un
vec.a. es discreto o continuo si y solo si todas sus componentes son v.a. discretas o continuas
respectivamente.
1
Ahora si nos interesamos en el comportamiento de este mismo vec.a. X discreto o continuo , pero
2 
condicionado a que el vec.a. discreto o continuo X formado por una parte o todas las componentes de
 1 2 
X que no se encuentran en X , asuma un particular valor x . Podemos pensar entonces en lograr
1
primero la función de distribución asociada que se denominará distribución condicional de X dado
2  2 
X =x ; siguiendo lo realizado en probabilidades, le denotaremos de la siguiente manera:


P X 1    , x i1  X 2   x 2  
P
 : F  1  
 i 1  X 1  X  2   x
 2  x 

donde x 1  x11 ,..., x p1  IRP


en el caso discreto,
FX 1 X  2   x  2   X 1    
P X 1  x 1 X 2   x 2  
 1 

1   
p
 X    , xi 
 i 1 

f  X 1 , X  2   x 1 , x 2  
PX  1
X 1
X 2 
x 2 
 f X  2  x 2 

, si f X  2  x 2   > 0

Corresponde entonces, para este caso, el asumir que cuando existe dFX 1 | X  2   x  2  x   , es dada mediante
1

 
f X 1 , X  2   x 1 , x2 
dFX 1 | X  2   x  2  x 1
f X 2  x   ,
2
la que denominaremos función de cuantía condicional de

X
1
dado X 2   x 2  y en lugar de  
dFX 1 | X  2   x  2  x1 , se denota f X 1 | X 2   x  2  x 1 .

79
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Para el caso continuo de igual manera definiremos su análoga y se denominará función de densidad
1 2  2 
condicional de X dado X =x .

Podemos concluir a este respecto que también en este caso de vec a. discreto o continuo condicional
podemos realizar la siguiente representación:
FX 1 |X 2  = x  2  X 1    p
 dFX   | X   x   x 
1
i 1

   , xi1 
1 2 2

donde dFX 1 |X 2  = x  2  x 1   f X 1 |X 2  = x  2  x 1 .

En el Capítulo anterior cuando hablamos de sucesos, decíamos que ellos ocurren en forma
independiente siempre y cuando la probabilidad de que ocurran simultáneamente coincide con el
producto de las probabilidades de cada uno de ellos. También ahora podremos hablar de esto al referirnos a
1 2 
los valores en  que son transformados tanto a través de X como por X , pues

PX 1 , X 2    AxB   PW   / X 1 W   B  P A  B



donde A  W   / X W   A , B  W  , X W   B
1
  2 

Luego diremos que tales vectores son independientes entre si siempre y cuando:
P
dados A IR , B IR ; P X , X
n P
 AxB  1 2 
   PX    APX    B , lo sean
1 2
sus respectivos
conjuntos en  asociados a sus transformaciones.

El lector puede verificar que en el caso de vec.a. (discretos o continuos), este


concepto de independencia es equivalente a que x 1 , x 2  :
f X 1 X  2   x 2  x 1   f X 1 x 1 , o bien , f X 1 , X  2   x 1 , x 2    f X 1 x 1  f X  2  x 2  .

A partir de este último resultado, haciendo referencia a sucesos conjuntamente independientes, permite
construir la siguiente definición

Definición:
Entenderemos por independencia conjunta de un grupo X 1 ,...,X n de v.a. , todas discretas (o continuas),
como el hecho en el cual toda combinación de ellas tiene una función de cuantía (o densidad)conjunta ,
expresable como el producto de las cuantías marginales de cada una de sus componentes. Así X 1 ,...,X
n conjuntamente independientes (variables independientes v.i.), entonces
 
  
n
f X X   f X i x i , donde X   X 1 ,, X n , x  x1 ,, x n .
i 1
Denotaremos X 1 ,...,X n m.a.(n), muestra aleatoria tamaño n de X (v.a. discreta o continua): variables

aleatorias independientes idénticamente distribuidas (v.a.i.i.d.). En tal caso f X X  f X x1 ....... f X xn .  

Ejemplo3.7
La respuesta conjunta o resultados que puede asumir una muestra aleatoria de tamaño n (m.a.(n)) de una

v.a.X, da forma al vector aleatorio X  ( X 1 , X 2 ,...., X n ) ). Para el caso X ̴ Exp(λ ), estas n realizaciones
a la vez, rigen su comportamiento a través de la función de densidad conjunta:


 
f X X   f X i xi   f X1 x1   f X 2 x2   f X 3 x3       f X n  xn 
n

i 1

80
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

x1 x2 x3 xn


  xi
 e  e  e  e  e i 1
 e n x , lográndose un resultado muy
simple y en función de la media de las observaciones; forma que en muchos casos se repite y el teorema al
finalizar este capítulo, nos muestra un aspecto central de la relevancia estadística de la media muestral.

3.2.4.- Cambio de Variable (Transformaciones de vec.a.)

3.2.4.2.- Distribución de la suma de dos v.a. independientes- Teorema de Convolución


Sea (X,Y), un vector aleatorio continuo en IR2, con distribución F:IRxIRIR. (x,y) 𝐹(𝑥, 𝑦), entonces la
función de densidad de la transformación Z=X+Y queda establecida mediante ( convolución de las
respectivas funciones de densidad):

𝑓𝑍 (𝑧) = ∫ 𝑓𝑋 (𝑡) 𝑓𝑌 (𝑧 − 𝑡)𝑑𝑡 = 𝑓𝑍 (𝑧) =: 𝑓𝑋 ∗ 𝑓𝑌 (𝑧)


−∞
Efectivamente, a partir de la distribución de Z, podemos llegar a este resultado:
Y

x+y≤z

z-t

| x
t

𝐹𝑍 (𝑧) = 𝑃(𝑋 + 𝑌 ≤ 𝑧) = ∬ 𝑑𝐹𝑋,𝑌 (𝑡, 𝑦) = ∬ 𝑑𝐹𝑋 (𝑡)𝑑𝐹𝑌 (𝑦)


𝑡+𝑦≤𝑧 𝑡+𝑦≤𝑧
∞ 𝑧−𝑡 ∞ 𝑧−𝑡
=∫ ∫ 𝑓𝑋 (𝑡)𝑓𝑌 (𝑦) 𝑑𝑡𝑑𝑦 = ∫ 𝑓𝑋 (𝑡) ∫ 𝑓𝑌 (𝑦) 𝑑𝑦𝑑𝑡
−∞ −∞ −∞ −∞

𝑑 𝑑 𝑧−𝑡 ∞
𝑓𝑍 (𝑧) = 𝑑𝐹𝑍 (𝑧) = 𝐹𝑍 (𝑧) = ∫ 𝑓𝑋 (𝑥) ∫ 𝑓𝑌 (𝑦) 𝑑𝑦 = ∫ 𝑓𝑋 (𝑡)𝑓𝑌 (𝑧 − 𝑡)𝑑𝑡
𝑑𝑧 −∞ 𝑑𝑧 −∞ −∞

Ejemplo3.8:
a)Consideremos Z=X+Y, donde X,Y son v.a. U(a,b) e independientes. Entonces:

∞ ∞
1 1 1
𝑓𝑍 (𝑧) = ∫ 𝑓𝑋 (𝑡)𝑓𝑌 (𝑧 − 𝑡)𝑑𝑡 = ∫ 𝐼(𝑎,𝑏) (𝑡) 𝐼 (𝑧 − 𝑡)𝑑𝑡 = ∫ 𝐼(𝑎,𝑏) (𝑡) 𝐼(𝑎,𝑏) (𝑧 − 𝑡)𝑑𝑡
−∞ −∞ 𝑏 − 𝑎 𝑏 − 𝑎 (𝑎,𝑏) (𝑏 − 𝑎)2
−∞

Apreciando en el plano (z,t) las restricciones del integrando: 𝑎 < 𝑧 − 𝑡 < 𝑏; a<t<b, 𝑎 + 𝑡 < 𝑧 < 𝑏 + 𝑡
entonces:
a<t; 𝑎 + 𝑡 < 𝑧 < 𝑏 + 𝑡 implica: 2a<z<a+b, en tal caso
𝐼(𝑎,𝑏) (𝑡) 𝐼(𝑎,𝑏) (𝑧 − 𝑡) = 𝐼(2𝑎,𝑧) (𝑡)
t<b; 𝑎 + 𝑡 < 𝑧 < 𝑏 + 𝑡 implica a+b<z<2b
𝐼(𝑎,𝑏) (𝑡) 𝐼(𝑎,𝑏) (𝑧 − 𝑡) = 𝐼(𝑧,2𝑏) (𝑡)

𝐼(2𝑎,𝑧) (𝑡), 2𝑎 < 𝑧 ≤ 𝑎 + 𝑏


𝐼(𝑎,𝑏)(𝑡)𝐼(𝑎,𝑏) (𝑧 − 𝑡) = {𝐼(𝑧,2𝑏) (𝑡), 𝑎 + 𝑏 < 𝑧 < 2𝑏
0, 𝑜. 𝑐

81
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Dependiendo de los valores de z obtenemos:


∞ 𝑧
1 1 𝑧 − 2𝑎
2𝑎 < 𝑧 ≤ 𝑎 + 𝑏; 𝑓𝑍 (𝑧) = ∫ 𝐼(2𝑎,𝑧) (𝑡) 𝑑𝑡 = ∫ 𝑑𝑡 =
(𝑏 − 𝑎)2 (𝑏 − 𝑎)2 (𝑏 − 𝑎)2
−∞ 2𝑎
∞ 2𝑏
1 1 2𝑏 − 𝑧
𝑎 + 𝑏 < 𝑧 < 2𝑏; 𝑓𝑍 (𝑧) = ∫ 𝐼(𝑧,2𝑏) (𝑡) 𝑑𝑡 = ∫ 𝑑𝑡 =
(𝑏 − 𝑎)2 (𝑏 − 𝑎)2 (𝑏 − 𝑎)2
−∞ 𝑧

Así, finalmente:
𝑧 − 2𝑎
, 2𝑎 < 𝑧 ≤ 𝑎 + 𝑏
(𝑏 − 𝑎)2
𝑓𝑍 (𝑧) = 2𝑏 − 𝑧
, 𝑎 + 𝑏 < 𝑧 < 2𝑏
(𝑏 − 𝑎)2
{ 0, 𝑜. 𝑐
Como se aprecia, la suma de dos v.a. uniformes e incluso idénticas; deja de ser uniforme.

b) Sea: Z=X+Y, donde X~Exp(λ),Y ~U(a,b) e independientes.


∞ ∞ ∞
1 1
𝑓𝑍 (𝑧) = ∫ 𝑓𝑋 (𝑡)𝑓𝑌 (𝑧 − 𝑡)𝑑𝑡 = ∫ 𝐼(0,+∞)(𝑡)λ𝑒 −λt 𝐼(𝑎,𝑏)(𝑧 − 𝑡)𝑑𝑡 = ∫ λ𝑒 −λt 𝐼(0,+∞) (𝑡) 𝐼(𝑎,𝑏)(𝑧 − 𝑡)𝑑𝑡
−∞ −∞ 𝑏−𝑎 𝑏 − 𝑎 −∞

𝐼(0,𝑧−𝑎)(𝑡), 𝑎 < 𝑧 < 𝑏


𝐼(0,+∞) (𝑡) 𝐼(𝑎,𝑏)(𝑡) = {𝐼(𝑧−𝑏,𝑧−𝑎)(𝑡), 𝑧>𝑏
0, 𝑜. 𝑐.
para:
∞ 𝑧−𝑎
1 1 −1
𝑎 < 𝑧 < 𝑏, 𝑓𝑍 (𝑧) = ∫ λ𝑒 −λt 𝐼(0,𝑧−𝑎) (𝑡)𝑑𝑡 = ∫ λ𝑒 −λt 𝑑𝑡 = (𝑒 −λ(𝑧−𝑎) − 1)
𝑏 − 𝑎 −∞ 𝑏−𝑎 0 𝑏−𝑎
∞ 𝑧−𝑎
1 1 −1
𝑧 > 𝑏, 𝑓𝑍 (𝑧) = ∫ λ𝑒 −λt 𝐼(𝑧−𝑏,𝑧−𝑎)(𝑡)𝑑𝑡 = ∫ λ𝑒 −λt 𝑑𝑡 = (𝑒 −λ(𝑧−𝑎) − 𝑒 −λ(𝑧−𝑏) )
𝑏 − 𝑎 −∞ 𝑏 − 𝑎 𝑧−𝑏 𝑏−𝑎

lográndose:
0, 𝑧<𝑎
−1 −λ (𝑧−𝑎)
(𝑒 − 1), 𝑎<𝑧<𝑏
𝑓𝑍 (𝑧) = 𝑏−𝑎
−1 −λ(𝑧−𝑎) − 𝑒 −λ(𝑧−𝑏) ),
{𝑏 − 𝑎 (𝑒 𝑧>𝑏

Naturalmente, salvo dificultades de integración; son más sencillos los casos en que las funciones de densidad utilizadas al
aplicar convolución, no requieren funciones indicadoras para su formulación.

3.2.4.2.- Distribución para el Máximo y, Mínimo en muestras aleatorias


Al considerar: Y=máx Xi , o Z=mín Xi, en X 1 ,…,X n m.a.(n); es posible determinar directamente, tanto FY ,
como FZ ; resultando directamente lo sgte.:
FY  y   P(Y  y)  P( X 1  y, X 2  y......., X  y n )  FX  y,
n

FZ z   P(Z  z )  1  P(Z  z )  1  P( X 1  z, X 2  z,...., X n  z, )  1  1  FX z  .


n

Además en el caso continuo:


f Y  y   nFX  y  f X ( y) ,
n 1

f Z z   n1  FX ( z ) f X ( z ).
n 1

82
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo3.9:
Consideremos una m.a.( n) de una v.a. X ̴ Exp(λ ), que bien puede corresponder al tiempo entre llegadas de
clientes a un cierto servicio, bajo los principios de un Proceso Poisson:
 0, x0
e x , x  0 x  0, x0
f ( x)   F ( x)   
0
f ( x)dx, x  0 1  e , x  0
  x
 0, 0.c.

Y=tiempo máximo entre n llegadas consecutivas
Z=tiempo mínimo ( menor tiempo) entre estas n llegadas
y0
 y   
0,
FY  y   FX
n


 1 e
y n

, y0
,

y0
 y  f X ( y)  
0,
f Y  y   nFX
n 1

n 1  e 
e , 
y n 1 y
y0
 0, z  0  0, z0
FZ z   1  1  FX z    
1  e
z n
  nz
, z  0 1  e , z  0
 0, z  0  0, z0
f Z z   n1  FX ( z ) 
n 1
f X ( z)    ( n 1) z z
 nz
ne e , z  0  ne , z  0
por lo tanto: Z es v.a. Exp (n)
Tabla de percentiles para X, Y,Z, se acompaña percentiles que representa X=1,para X,Y ,Z
Para el caso: λ=1, n=10
v.a. 0.1 0.2 Q1 Q2 0.6321 Q3 0.8 0.9 0.95
X~Exp(1) 0.1054 0.2231 0.2877 0.6931 1 1.3863 1.6094 2.3026 2.9957
Y 1.515 1.9061 2.0445 2.7036 0.0102 3.5628 3.8137 4.5582 5.2753
Z~Exp(10) 0.0105 0.0223 0.0288 0.0693 0.0952 0.1386 0.1609 0.2303 0.2996

83
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Entonces, es interesante disponer también, de algún método similar al de v.a. para determinar el
comportamiento de una alteración (transformación) de un vec.a., más arbitraria. A continuación
presentamos un resultado que se basa en el Teorema de Cálculo para garantizar función inversa y que en este
ámbito es conocido como “teorema del cambio de variable”, en su versión n dimensional.

3.2.4.3.- Teorema del cambio de variable


   
Sean, X : (, IA , P)( IR , n , PX ) vec.a. discreto o contínuo con D soporte de dFX  fX , Y  goX donde g es
n


una función g: D  IR  IR , entonces
n m

  
a) Si X es vec.a.discreto; Y es vec.a.discreto de soporte g D
       
 fY  y  


x  y
f X x , y  g  D  con  y  x   / g x   y

  
b) Si X es vec.a. continuo; m=n, Y es vec.a.continuo de soporte g  D  . Además para g diferenciable con
diferencial no nulo en D

fY  y   f X g 1  y  g  1  y  , y  g  D 
     


 Se ha denotado por g  1  y  , al valor absoluto del jacobiano (determinante de la matriz de
 
derivadas parciales) de g 1 evaluada en y .

Corolario
 
 
No podemos aplicar directamente este teorema cuando Y  g1 X , con g1 : IR  IR, X es vec.a. continuo.
 n
n

Sin embargo podemos hacerlo si estructuramos una aplicación g : IR  IR , que satisfaga las
n

hipótesis del teorema e incluya entre sus componentes a g1 , como puede ser algo de la forma,

g  g1 ,...., g n  y cada gi : IRn IRi  2, así podemos lograr dF Y como el comportamiento marginal

de g1 respecto de g .

De este teorema, se desprenden los siguientes ejemplos teóricos de enorme relevancia en aplicaciones

Ejemplo3.10

Sean X e Y v.a. contínuas independientes tales que:

 2 n  
X
1) X ~ N(0,1), Y ~ ~ t n  Student de parámetro n
Y /n
2) X ~  n , Y ~  m  
2 2 X /n
~ F(n,m) Fischer (o Snedecor) de parámetros n,m.
Y /m
2

 X  X
n

(n  1) s
 
i
N  ,  2 entonces : ~ (n  1)
i 1 2
3) Todas normales
 2
 2

84
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.2.5.- OPERADOR ESPERANZA

En lo principal, el valor esperado de v .a. es un operador lineal. Ahora su análogo para este caso también
debe serlo. Extenderemos este concepto de la siguiente manera: entenderemos por valor esperado de un
vector aleatorio X   X 1 ,...., X n  , como el vector formado por los valores esperados de sus
componentes, es decir
EX   EX 1 ,...., EX n  .

Restándonos entonces el determinar sólo el valor esperado de una variable aleatoria originada como
transformación de un vec.a., que es a lo que se refiere la siguiente definición.

Definición

Sea X una vec.a.discreto o contínuo, definimos el valor esperado de una transformación (v.a.) Y  goX ,

donde g: IR IR y se denotará por E[Y], al número real
n
 n
g x dFX , cuando este exista.
IR

Observación

Para un vec.a. discreto o continuo X  X  1
, X 2  , podemos realizar el siguiente comentario de
verificación muy simple:
Cuando X 1 , X 2  vec.a. independientes, entonces:
    
E g1 X 1 g 2 X 2    E g1 X 1  E g 2 X 2   , g1 , g 2 .

3.2.5.1.- Distribución para la suma de v.a. procedentes de muestras aleatorias:


De manera evidente, se aprecia que en presencia de independencia conjunta de v.a. como es el caso de
m.a.(n), dF del vec.a. admite una descomposición en producto de sus respectivas componentes, lo que
permite reducir las complejidades del cálculo de esperanzas, transformando las que involucran a múltiples
variables en una simple descomposición de casos univariados y una situación relevante de estas, es que
Y  X1 ...  Xn para X i i 1 conjuntamente
n
también permite determinar el comportamiento de
independientes ( o proceden de una m.a.(n)); cuando conocemos  Xi , i. En tales ocasiones,

85
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

n n
 𝑌 (𝑡) =   X i  t  , además Y  t  se reduce a Y  t    Xi  t . Aun más, en muestras
i 1 i 1

aleatorias , X1 ,..., X n son v.a.i.i.d de una v.a.X, entonces  X i (t )   X (t ), para todo i; concluyéndose

Y  t     X  t     X  t   . Restándonos reconocer F Y a partir esta Y  t  así obtenida; lo


n n
con
i 1
que en muchos casos es factible como en el ejemplo de a continuación, , pero no siempre es posible de lograr.

Ejemplo3.11
Sean X i ik1 v.a. independientes,
1. Y  X1  ...  X k tal que:
X1  ...  X k 2
1.1) E[ X i ]= , V ( X i ) = , Xk   E[ X k ]   , V [ X k ] 
2

k k
1.2) X i ~ N  i , i   Y ~ N  , ,   1  .... k ,   1  ...   k
2 2 2 2 2

1.3) X i ~ ( i ,  )  Y ~ ( ,  ) ,   1  ...   k .


En particular si  i  1, i  1,.., k ; X i ~ (1,  )  Exp (1/  ) entonces Y ~ k - Erlang.
2. Y  X 1  ...  X k tal que c/u: X i ~  (ni )
2
 Y ~  2 n, n  n1  ...nk ,
3. Y  X 12  ...  X k2 , tal que c/u: X i ~ N(0,1)  Y ~  2 k  ,

Los tres primeros casos de este ejemplo, se desprenden directamente del comentario previo, al apreciar lo
siguiente:
 1 2 2  1 22   1 2 2 2
 i1t  1 t   int   k t x   i ( 1 .... k ) t  (1 ...... k ) t 
e  2 
 e  2 
 e  2 

1  t /   1
......(1  t /  )  k
 (1  t /  )(1 ..... k )
El cuarto caso requiere del teorema del cambio de variable.

En los casos  2n  , tn  , F(n,m), , por razones prácticas, se hace referencia a los respectivos parámetros
como grados de libertad de tales densidades. Las aplicaciones de los resultados obtenidos son enormes,
primeramente lo apreciaremos en el siguiente ejemplo y veremos más adelante, que la importancia de estas
distribuciones radica en que, representan el comportamiento de diferentes transformaciones de v.a.,
frecuentemente utilizadas en la toma de decisiones:
.

Ejemplo3.12
Si X 1 ,..., X n es una m.a.(n) ( v.a. indep, del mismo modelo) de una población normal N  x , x2 . Al  
2

s x2   X i  X  /( n  1) se obtiene:
n
considerar su media X y varianza muestral
i 1

1) T  n X    /  ~ N 0,1;
2) T  n X   x / sx ~ t n  1
s x2 / x2 s x  y
2 2

3) T  2  2 2 ~ F(n-1,m-1), al considerar otra m.a.(m) Y1,.., Ym también normal N  y , y2  , e


s y / y s y  x
2

independiente de la anterior.
86
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Estos tres resultados, prácticamente por si solos, son el eje principal para la obtención de los resultados que se
abordan en la Parte II del presente texto.

3.2.5.2.- Matriz de varianzas covarianzas


Notación

De las recientes definiciones resulta que:


 
E{ X ' X }  E{ X i X j }i1,...,n luego al calcular
j 1,...,n

  ,   
  
V  E{ X  E{ X } X  E{ X } }  E{ X i  E{ X i }X j  E{ X j }}i1,...,n : V X
j 1,...,n

es una matriz, que se conoce como matriz de varianzas covarianzas; debido a que sus elementos de la,
 diagonal son E[(Xi - E[Xi ])(Xi - E[Xi ])] = V(Xi ), varianza de X i , i .
 antidiagonal corresponden a la medición del vínculo entre dos variables diferentes que componen a dicho
vector aleatorio.
 E[(X i - E[X i ])(X j - E[X j ])] =: cov(X i , X j ), y se denomina covarianza entre Xi , X j .

De ello se desprende también una matriz de gran importancia, denominada de correlaciones; y es aquella
cov  X i , X j 
 ij  ;    ij 
V  X i V  X j 
cuyos elementos son de la forma , y que anotaremos por es

entonces una matriz de n líneas por n columnas cuyos elementos de la diagonal son todos unos.

3.2.5.3.- Esperanza Condicional

X 1 , X 2  ) es vec.a,d. o c., para una aplicación g: IR p IR, de la definición de valor esperado:
Si (
 
E g X 1   X 2   x 2    g X 1 dFX 1 X  2   x  2  x 1 
IR p
1 2  2  1 1
también conocida como función de regresión de g(X ) en X =x , y en el caso en que g(X )=X
2  2 
se llama simplemente función de regresión en X =x , y en la literatura habitualmente se denota como
 x 2 
,
(no tiene relación alguna con otro concepto definido y denotado en forma similar a lo
anteriormente realizado en este texto).
Además es evidente que:
 
    2
 X  p
1
 
E  E  g X    X    x     E( 2)   g X   dFX 1  X 2  x 2 x    E  g X   
1 2 1

1
    
 IR 
Notación

 1 2 

Sean X un vec.a. discreto o continuo X = X , X , una aplicación g: IR  IR . Se denota por
p q

V g X 1  X 2   x 2   a la matriz de varianzas covarianzas condicional de g(X 1 ) dado X 2  = x 2  , que
se obtiene como:

 
V g X 1   X 2   x 2    E g X 1   E g X 1   X 2   x 2  
2

 X 2   x 2  , donde
87
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

g ( X   )  Eg ( X   )  X    x    g ( X   )  Eg ( X   )  X    x  
1 1 2 2 2 1 1 2 2 ´

g ( X   )  Eg ( X   )  X    x  .
1 1 2 2

En particular, si g: IR  IR , g x   x , esta matriz de varianzas covarianzas condicional, se denota


p p (1) (1)

 x   , en consecuencia
2

 x     V X    X    x   
2 1 2 2

= E  X    E X    X    x     X    E X    X     X    x   
1 1 2 2 , 1 1 2 2 2

Observación
1) Como ilustración, si consideramos X   X 1 , X 2 ,
1
entonces en términos condicionales la
correspondiente matriz de varianzas covarianzas es:
 V  X 1 | X 2   x 2   cov  X 1 , X 2  | X 2   x 2  
 x 2     
 cov  X 1 , X 2  | X  x  V  X 2 | X 2   x 2   
2  2 

además si X1 , X2 son independientes , esto se reduce a :


V ( X 1 ) 0 
 x 2     
 0 V  X 2 
2) Puede verificarse también de manera muy simple que:
X 1 , X 2 son independientes entonces 12  0 ; y que el recíproco es falso.

Sin embargo como podremos apreciar en el siguiente ejemplo, el recíproco también es cierto en el
caso gaussiano.

Ejemplo3.13
 
Consideremos X   X 1 , X 2  un vec.a., con dF dada por N  ,V  según el modelo contínuo presentado en

  1, 2 ,
a
3.2.2: n=2, V  (aij ), aii   i2 , 12  12 :  ; en cuyo caso
 1 2
1
a)   x 2   E  X 1  X 2  x 2   1   ( x2   2 ) , es de la forma A  Bx2 , un “modelo lineal”; es
2
decir en términos de resultados esperados, la v.a. X1 depende de X2 a través de una recta, alterando su
media, que cambia permanentemente respecto a los valores de X2= x2 , excepto cuando x2  2 .

X1   x 2   E X 1  X 2  x 2 

1

X2
2

88
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Tal dependencia, expresa que X2 tiene su mayor impacto en X1 cuando la relación entre ambas según
Pearson ρ=1. Por otra parte cuando ρ=0, no se espera que X2 afecte a X1 a través de una asociación lineal.

b)  x2   V  X1  X 2  x2   12 1   2  .

Entonces, cuando  : 12  0 ;  x2   1 , no depende (es independiente ) de x2 .


c) Para variables con distribución conjunta normal: no correlacionadas es sinónimo de independientes.
V  X 1  0 
12  0 ; V   , por lo cual
V  X 2 
Al asumir cov( X1 , X2 ) =0 o su equivalente
 0
fX1 , X2  fX1 fX2 y por lo tanto X1 , X2 son v.a. independientes. Además

f Xi ~ N i , , i
2
   V  X i , i  1,2.
i
2

Ejemplo 3.14.

Sea X una variable aleatoria Gaussiana de media nula y varianza unitaria, definimos otra variable aleatoria Y
tal que,

Y = X si |X| > c , Y=−X si |X| ≤ c


Es claro que Y es Gaussiana debido a la simetríıa de la f.d.p. alrededor de 0.
Sin embargo, como puede apreciarse en la siguiente figura:

La densidad conjunta tiene como soporte un sub-conjunto de dimensión1 en IR2 , por ende la distribución
conjunta no se origina mediante un vec a c. y menos una densidad Gaussiana multivariable.
Incluso, se puede demostrar que las variables X e Y se encuentran no-correlacionadas. Sin embargo, esto no
implica que las variables sean independientes ya que no son conjuntamente Gaussianas.

89
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo3.15.

Sea X una variable aleatoria Gaussiana de media nula y varianza unitaria. Sea W una variable aleatoria
Bernoulli equiprobable e independiente de X, W = 1 con probabilidad p = 0,5 , W=−1 con probabilidad p =
0,5 . Definimos una nueva variable aleatoria Y = W X.
De manera similar al caso anterior y debido a la simetría de la f.d.p. Gaussiana, Y es Gaussiana. Sin
embargo, como puede apreciarse en el gráfico de 500 realizaciones o m.a.de (X,Y):

También, al igual que en el caso anterior, debido a que todas las realizaciones se encuentran en un sub-
conjunto de dimensión 1 en IR2, la distribución conjunta no procede como Gaussiana multivariable.
Además, X e Y no correlacionadas, no es garantía de independencia, ya que en este caso son dependientes:

E[W]=1*p+(-1)*(1-p)=1*0.5-1*0.5=0, E[Y]=E[WX]=E[W]E[X]=0
Cov(X,Y)=E[(X-E[X])(Y-E[Y])]=E[XY]=E[WX2]=E[W] E[X2]=0 ya que E[W]=0

3.2.5.4.- Suma de un número aleatorio de variables aleatorias


Como más adelante veremos, se hace necesario disponer de algún resultado respecto de la expectativa de un
número aleatorio de variables aleatorias i.i.d.;es decir de la acumulación de respuestas en muestras aleatorias
de tamaño aleatorio. Como sería el caso del tiempo total de servicio de una cantidad aleatoria de clientes que
concurren a un sistema de atención.

Consideremos:
N una v.a.d. con valores en {1,2,3,…,n,…}, independiente de X v.a.d o c

X 1 ,..., X n ,…… muestra de tamaño N=n de X; es decir v.a.i.i.d


𝑁

𝑆𝑁 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑁 = ∑ 𝑋𝑖
𝑖=1
3.2.5.4.1.-Valor de Expectativa:
A partir de 3.2.5.3, considerando se tiene que:

𝐸[𝑆𝑁 ] = E [𝐸[𝑆𝑁 |𝑁 = 𝑛]] = E [𝐸[∑𝑛𝑖=1 𝑋𝑖 |𝑁 = 𝑛]] = E 𝐸[∑𝑛𝑖=1 𝑋𝑖 ] = E [𝐸[𝑛𝑋]] = E [𝑛𝐸[𝑋]],


N N N N N
por independencia entre N y X
= 𝐸 [𝑋] E [n|N = n] = 𝐸 [𝑋] E [N] = 𝐸 [N]𝐸[𝑋]
N N
Queda entonces establecido, para este caso que la expectativa de tal tipo de suma es el producto de las
expectativas de tamaño muestral y valor de la respuesta en estudio.

90
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.2.5.4.2.-Distribución
Por 3.2.5.3 y 3.2.51. al aplicar funciones características:
 SN (t )  E  SN (t ) | N  n   E  Sn (t )   E   X (t )    E  z N  , z   X (t )
N

N N N   N
siendo:
E  z N    N ( z ), función generadora de momentos factoriales, centrada en cero (véase 3.1.4.2)
N

 SN (t )   N ( X (t ))
es decir:la función característica de 𝑆𝑁 , queda determinada mediante la generadora de momentos factoriales
(centrada en t=0) de la cantidad de clientes N , evaluada en la función característica de cada servicio.

Ejemplo 3.16
Considerando:
La cantidad de llegadas a requerir servicio como una v.a. 𝑁~𝐵𝑛𝑒𝑔(1, 𝑝) , geométrica de parámetro p.
Tiempos de atención X 1 ,..., X n ,…… para N=n clientes, i.i.d.(o muestra de) 𝑋~𝐸𝑥𝑝(𝜆), exponencial de
parámetro 𝜆; determinemos la distribución de
𝑁

𝑆𝑁 = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑁 = ∑ 𝑋𝑖
𝑖=1
En base a la Proposición de 3.1.4.3:
peit pt
 𝑋 (𝑒 𝑖𝑡 ) =  X  t  =  X  it  = ;  𝑋 (𝑡 ) =
1  qeit 1  qt
1
Por su parte:  X (t )  , t 
it
1

  p
 1     p p
   it 
1
 S N (t )   N ( X (t ))   N    N    
 1  it     it  1   q   it   q  p  it 1  it
    it p
𝑆𝑁 ~𝐸𝑥𝑝(  p ), además entre otros aspectos, podemos corroborar el resultado garantizado en 3.2.5.4.1:
1 1 11
 p    E[ X ]     E  N  E  X   E[ S N ]
 p p 
Por lo tanto, si bien la distribución de los tiempos acumulados se mantiene dentro de su misma clase de
distribución exponencial, su expectativa aumenta directamente con la probabilidad p de que ocurra una
llegada.
(lo cual discrepa del ejemplo 5.7, pag. 275 de A.León García, Probability and Random Processes for
Electrical Engineering, Second Edition 1994)

3.2.6.- Sucesiones de variables aleatorias


Al considerar {𝑋𝑛 : Ω → _IR, 𝑛 ≥ 1} 𝑠𝑒𝑐𝑢𝑒𝑛𝑐𝑖𝑎 𝑑𝑒 𝑣. 𝑎. , asociadas al mismo espacio de probabilidad (Ω,P);
podemos analizar distintas situaciones límites o tipos de convergencia:

Convergencia Puntual y anota 𝑋𝑛 → 𝑋 ssi para todo 𝑤 ∈ Ω , lim𝑛→∞ 𝑋𝑛 (𝑤) = 𝑋 (𝑤)


Es decir: dado 𝜀 > 0, 𝑒𝑥𝑖𝑠𝑡𝑒 𝑁 ∈ 𝐼𝑁, 𝑡. 𝑞. 𝑛 ≥ 𝑁 ; |𝑋𝑛 (𝑤) − 𝑋(𝑤)| < 𝜀
𝑢
Convergencia Uniforme y anota 𝑋𝑛 → 𝑋 ssi dado 𝜀 > 0, 𝑒𝑥𝑖𝑠𝑡𝑒 𝑁 ∈ 𝐼𝑁;
para todo 𝑤 ∈ Ω , 𝑛 ≥ 𝑁 ; |𝑋𝑛 (𝑤) − 𝑋 (𝑤)| < 𝜀

91
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑐.𝑠
Convergencia Casi Segura y anota 𝑋𝑛 → 𝑋 ssi 𝑋𝑛 → 𝑋 salvo para un subconjunto A de Ω, P(A)=0
𝑃
Convergencia en Probabilidad y anota 𝑋𝑛 → 𝑋 ssi dado 𝜀 > 0, lim𝑛→∞ 𝑃 ({𝑤 ∈ Ω, t. q|𝑋𝑛 (𝑤) − 𝑋 (𝑤)| >
𝜀 }) = 0
𝐷
Convergencia en Distribución y anota 𝑋𝑛 → 𝑋 𝑠𝑖𝑖 lim 𝐹𝑋𝑛 = 𝐹𝑋 , la convergencia que conocemos del
𝑛→∞
cálculo infinitesimal.

Ejemplo 3.17

Consideremos (Ω,P)=( [0,1], 𝑃),


𝑃: 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑢𝑛𝑖𝑓𝑜𝑟𝑚𝑒 ; 𝑒𝑠𝑡𝑜 𝑒𝑠 𝑃(𝐴) = 𝑙𝑜𝑛𝑔𝑖𝑡𝑢𝑑 𝑑𝑒 𝐴, ∀𝐴 𝑠𝑢𝑏𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑑𝑒 Ω=[0,1]
𝑋1 (𝑤) = 𝐼[0,1] (𝑤)
𝑋2 (𝑤) = 𝐼[0,1[ (𝑤) , 𝑋3 (𝑤) = 𝐼[1,1] (𝑤)
2 2
𝑋4 (𝑤) = 𝐼[0,1[ (𝑤) , 𝑋5 (𝑤) = 𝐼[1,2[ (𝑤) , 𝑋6 (𝑤) = 𝐼[2,1] (𝑤)
3 33 3
𝑋7 (𝑤) = 𝐼[0,1[ (𝑤) , 𝑋8 (𝑤) = 𝐼[1,2[ (𝑤) , 𝑋9 (𝑤) = 𝐼[2,3[ (𝑤) , 𝑋10 (𝑤) = 𝐼[3,1] (𝑤)……………..
4 44 44 4
Constituye una sucesión 𝑋𝑛 de v.a. , cada una de ellas definida como:
1, 𝑤 ∈ 𝐴𝑛
𝑋𝑛 (𝑤) = { , donde
0, 𝑜. 𝑐.
lim 𝑃 ({𝑤 𝑡. 𝑞. |𝑋𝑛 (𝑤) − 0| > 𝜀 }) = lim 𝑃({𝑤 𝑡. 𝑞. 𝑋𝑛 (𝑤) = 1})
𝑛→∞ 𝑛→∞
= lim 𝑃(𝐴𝑛 ) = lim 𝑙𝑜𝑛𝑔𝑖𝑡𝑢𝑑 𝑑𝑒 𝐴𝑛 = 0,
𝑛→∞ 𝑛→∞
𝑃
Por lo tanto: 𝑋𝑛 → 𝑋 = 0; esta secuencia converge en probabilidad a la función nula,
𝑋(𝑤) = 0, 𝑤 ∈ Ω = [0,1]

Por otra parte:


Para cada 𝑤 ∈ Ω = [0,1], 𝑎 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒 𝑢𝑛 𝑐𝑖𝑒𝑟𝑡𝑜 𝑛 𝑒𝑛 𝑎𝑑𝑒𝑙𝑎𝑛𝑡𝑒 ( 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜𝑠 𝑡é𝑟𝑚𝑖𝑛𝑜𝑠),
𝑋𝑛 (𝑤) = 0 , 𝑜 𝑏𝑖é𝑛 𝑋𝑛 (𝑤) = 1

La siguiente observación, formaliza esta apreciación.

Observación:
𝑐.𝑠 𝑃
𝑋𝑛 → 𝑋 ⟾ 𝑋𝑛 → 𝑋

Efectivamente:
𝑐.𝑠
Si 𝑋𝑛 → 𝑋 , 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑃 (𝑋𝑛 → 𝑋 ) = 1; 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝜀 > 0
1 = 𝑃({𝑤 𝑡. 𝑞. |𝑋𝑛 (𝑤) − 𝑋 (𝑤)| < 𝜀}, 𝑝𝑎𝑟𝑎 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜𝑠 𝑛 𝑎 𝑝𝑎𝑟𝑡𝑖𝑟 𝑑𝑒 𝑎𝑙𝑔ú𝑛 𝑁),

0 = 𝑃(lim sup{𝑤 𝑡. 𝑞. |𝑋𝑛 (𝑤) − 𝑋(𝑤)| > 𝜀})


𝑃
= lim 𝑃(⋃𝑘≥𝑛{𝑤 𝑡. 𝑞. |𝑋𝑛 (𝑤) − 𝑋 (𝑤)| > 𝜀}) ≥ lim 𝑃({𝑤 𝑡. 𝑞. |𝑋𝑛 (𝑤) − 𝑋 (𝑤)| > 𝜀}, 𝑒. 𝑑. 𝑋𝑛 → 𝑋
𝑛→∞ 𝑛→∞

Debido a este resultado, el cual garantiza que la convergencia c.s. implica convergencia en Probabilidad; esta
última se denomina convergencia débil y se hace referencia a convergencia c.s. como convergencia fuerte

En Estadística al referirnos a estos conceptos, en vez de convergencia, se habla de consistencia de estadísticas


o estimadores, como veremos en el capítulo siguiente.

92
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.2.7.- Convergencia en muestras grandes

En particular, ante la presencia de muestras aleatorias de gran tamaño, es decir {𝑿𝒏 , 𝒏 ≥ 𝟏}𝒅𝒆 𝒗. 𝒂. 𝒊. 𝒊. 𝒅. es
posible obtener resultados que destacan la importancia de la correspondiente media muestral y de la
distribución normal. Los cuales se encuentran principalmente reflejados en los criterios de a continuación.

Convergencia en Probabilidad de la media muestral hacia la poblacional


Siendo X 1 ,..., X n una colección de v.a.i.i.d ( es decir una m.a.(n) ( v.a.d. o c. , independientes e
idénticamente distribuídas, es decir una m.a.(n) de X para cada n); con medias  y varianzas  2 ; es sabido
que:
X1  ...  X n 2
E[ X i ]= , V ( X i ) = 2 , Xn   E[ X n ]   , V[ Xn ] 
n n
Por complementos y utilizando Tchebychev:
V[Xn ] 2
1  P( X n  E[ X n ]   )  P( X n  E[ X n ]   )   , es decir:
2 n 2

2
P( X n     )  1 
n 2
Lo cual significa, que conociendo el valor de σ2, al considerar una certeza ( o valor de probabilidad) 1-α, y
proximidad ,  pre-establecidas; es posible disponer de un número de observaciones ( o tamaño muestral n)
que de garantías que la media se encuentre a distancia menor que  de la media poblacional:

2 2 2
1  1 2   2  n 2
n n 

Ejemplo3.18
Para una población:
1
1.- En que consideramos ε=σ2 ; entonces, basta considerar n

1
2.- Bernoulli ; σ2= p(1-p)/2, lo cual es máximo cuando p=1/2, entonces es apropiado un tamaño n
4 2

2
Además P( X n     )  1   1, si n  
n 2
El resultado conocido como Ley Débil de los Grandes Números, garantiza este resultado, para el caso en que
la varianza poblacional es desconocida e incluso cuando esta no existe.

3.2.7.1.- Ley Débil de los Grandes Números (LDGN)


Siendo X 1 ,..., X n ,…. una colección de v.a.i.i.d con medias  ; entonces para todo ε>0:
P( X n     )  1, si n  

93
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

3.2.7.2.- Ley Fuerte de los Grandes Números (LFGN)


Siendo X 1 ,..., X n una colección de v.a.i.i.d ( es decir una m.a.(n) ( v.a.d. o c. , independientes e
idénticamente distribuídas, es decir una m.a.(n) para cada n); con medias  y varianzas  2 ; entonces
P(lim X n   )  1
x 

Es decir: casi seguramente lim X n   (esto es válido, salvo para un sub- conjunto de Ω con probabilidad
x 

cero).Lo cual también se denota Xn  .


c.s .

3.2.7.3.- Teorema del Tiempo Medio al largo plazo


Para procesos de ingeniería que involucran renovación de elementos, es relevante poner atención a lo
siguiente:
Supongamos que en particular, la secuencia de v.a.i.i.d. que se estudia corresponde una colección X 1 ,..., X n
,…, donde c/u de ellas registra el tiempo de duración de un cierto elemento (que siempre es reemplazado de
inmediato a medida que falla), E[ X ]  E[ X i ]= .
Entonces:
Wt 1
P(lim  )  1, con Wt : número de componentes reemplazadas en el lapso [0,t]
t  t 
1
Es decir: c.s. a la larga, la cantidad de reemplazos por unidad de tiempo es tanta como . Lo cual parece

natural y en particular según ya abordamos, se cumple en un Proceso Poisson.
dem.
Efectivamente, se desprende de lo sgte.:

Para Sn: el tiempo transcurrido hasta que la n-ésima componente falla, entonces Sn  X1  ...  X n

𝑆𝑊𝑡 ≤ 𝑡 < 𝑆𝑊𝑡 +1


𝑆𝑊𝑡 𝑡 𝑆𝑊 +1
≤ < 𝑡
𝑊𝑡 𝑊𝑡 𝑊𝑡
𝑆𝑊𝑡
∶ es el promedio (o media muestral) de los tiempos entre reemplazos para los primeros 𝑊𝑡 reemplazos
𝑊𝑡
SWt 𝑆𝑊𝑡+1 𝑆𝑊𝑡 +1 𝑊𝑡+1 𝑆𝑊𝑡+1
Lo cual por LFGN: P(lim   )  1 , además: 𝑊𝑡
=
𝑊𝑡+1 𝑊𝑡
→ lim𝑡→∞
𝑊𝑡 +1
x  Wt
SWt
entonces: P(lim  )  1
x  Wt  1
𝑆𝑊𝑡 𝑡 𝑆𝑊𝑡+1
Así, en probabilidad: : ≤𝑊 <
𝑊𝑡 𝑡 𝑊𝑡


𝑊𝑡 𝑊𝑡 𝑊𝑡
Por lo tanto, en término de convergencia ( o límite) en probabilidad : 𝑆 < ≤𝑆
𝑊𝑡+1 𝑡 𝑊𝑡

1
𝜇

94
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Corolario1
Para una secuencia de v.a.i.i.d. que se estudia corresponde una colección X 1 ,..., X n ,…, donde c/u de ellas
registra el tiempo de duración de un cierto elemento (que secuencialmente es reemplazado a medida que
falla), E[ X ]  E[ X i ]= X y los correspondientes costos Y1 ,..., Yn ,… de cada reemplazo tales que
E[Y ]  E[Yi ]=Y . Entonces
 Wt

  Yi
 
P  lim i 1  Y   1
 t  t X 
 
 
e.d. a la larga el costo por unidad de tiempo es tanto como la razón de las expectativas de costo y tiempos de
duración por unidad reemplazada
dem.
Disponemos de una secuencia bi-dimensional ( X1 , Y1 ),...,( X n , Yn ),.... i.i.d, E[( X i ,Yi )]=( X , Y ) .
Pudiéndose reescribir:
Wt Wt

Y Y i i
Wt Y
i 1
 i 1

t Wt t X

1
y
X
Puesto que:
Wt 1
P(lim  )  1 , es resultado del reciente teorema
t  t X
Wt

Y
i 1
i
: es el costo promedio de los primeros Wt reemplazos, es decir la media muestral de los primeros Wt
Wt
costos; por tanto al aplicar LFGN:

 Wt

  Yi 

P lim i 1
 y   1
 x  Wt 
 
 

Corolario2
Sean:
X 1 ,..., X n ,... secuencia de v.a. i.i.d que marca tiempos entre llegadas de clientes para requerir un servicio
r(t):la v.a. que contabiliza el tiempo residual a partir del instante t , hasta que ocurre la próxima llegada
Entonces
La proporción del tiempo en que el tiempo residual es una demora superior a ε unidades, a la larga está dada
por:

95
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa


1
∫(1 − 𝐹𝑋 (𝑥))𝑑𝑥
𝐸[𝑋]
𝜀

dem.
Wt
𝑋 − 𝜀, 𝑠𝑖 𝑋𝑖 > 𝜀
Sean: 𝑌𝑖 = { 𝑖
0, 𝑜. 𝑐
} = 𝑚á𝑥{0, 𝑋𝑖 − 𝜀}, entonces r  t    Yi , en probabilidad al
i 1
aplicar Corolario1, se obtiene:
Wt

r t  
Yi
Y
 i 1 
t t X
con:
Y  E[Y ]  E[máx 0, X   ] , al recordar 3.1.4.1 propiedades de la esperanza
    
=  P(Y  x)dx   P( X    x)dx   P( X  x   )dx = 1  FX ( x   )dx  1  FX ( x)dx
0 0 0 0 

3.2.7.4.- Teorema Central del Limite

El resultado que vamos a presentar constituyó la atención central de los probabilistas por mucho tiempo
(se comenta que mas de cincuenta años). Lapso en el cuál se dedicó bastante tiempo a estructurar las
condiciones que muchos problemas prácticos satisfacían y que tan curioso resultado originaban. Al
aumentar las variables (o mediciones de ensayos en ciertos experimentos) la acumulación de resultados se
comportaba empíricamente muy próxima a la de una distribución Normal.

Teorema

Para un espacio de probabilidad (,IA, P), y una colección Xni v.a.discretas o contínuas sobre , i  1,.., kn ;
independientes n IN tq   0; lim bn    0 1*
( )
n 

entonces lim FYn  FY tal que dFY  N ( 0,1), con


n 

Sn  ESn 
 
kn
1 kn
, Sn   X ni , bn     
2
Yn  xni  E X ni . dFX n
V ( Sn ) i 1 V Sn  i 1 Ani i


 
xni  E X ni .
2

Ani  xni IR, tales que   2}


V S n 

Este resultado, también es válido para muestras aleatorias muy grandes, ya que en tal caso, se satisface la
condición de Lindeberg. Hecho común de encontrar en la literatura básica con el nombre de este
Teorema Central del Límite y que presentamos a continuación.

*
se conoce como la condición de Lindeberg

96
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo3.19
Se presenta, una ilustración, mediante simulación 1000 m.a.(n) de v.a. Exp(λ).

Script: k=[30 80];histfit(sum(exprnd(1,10,1000)))

Corolario

Sean: (,IA, P) un espacio de probabilidad, Xi v.a.discretas o contínuas sobre , independientes e


n
idénticamente distribuidas, con EX i    ,V  X i    2 i IN. Considerando Sn   X i ,
i 1

Sn  n n ( X  )
Yn   , n  IN, entonces lim FYn  FY , donde dFY  N ( 0,1)
n  n 

Ejemplo3.20 (Aproximación Normal de la Binomial)

Sea X1,..., Xn m.a.(n) de una población X ~ B(1,p). Entonces S n  X 1  ...  X n ~ Bn, p , además
S n  np Xp
para Yn   entonces lim FYn  FY tal que dFY  N ( 0,1).
np1  p  p1  p  / n n 

Para a {0,1,2,...,n} , un elemento del soporte de esta Binomial:

 1
PS n  a   P a   S n  a    Pa*  Y  b *, con Y , v.a.N(0,1) para n suficientemente grande,
1
 2 2
donde : a*  (a  1 / 2  np) / npq , b*  (a  1 / 2  np) / npq , PS n  a   FY (b*)  FY (a*).

En particular para una v.a. Z ~ Bn, p : p=1/6, n=10:

97
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

PZ  a   P(Z  5)  P4,5  Z  5,5  F ((5,5  10 / 6) / 10 * 5 / 36 )  FY ((4,5  10 / 6) / 10 * 5 / 36 )


 FY (1,3279)  FY (0,9875)  0,0357 , resultado lejano del correcto dado por:

PZ  a   P(Z  5)  f Z (5)  0,013

Sin embargo, habrá ocasiones donde esta sea una buena aproximación como por ejemplo en este caso para
n=50 o 60:

n a b F(a) F(b) F(b)-F(a) P(z=5)


10.0000 0.9815 1.3279 0.8368 0.9079 0.0711 0.0130
30.0000 -0.1000 0.1000 0.4602 0.5398 0.0797 0.1921
50.0000 -0.5939 -0.4389 0.2763 0.3304 0.0540 0.0745
60.0000 -0.7778 -0.6364 0.2183 0.2623 0.0439 0.0310
70.0000 -0.9383 -0.8074 0.1740 0.2097 0.0357 0.0111

Script:
n=10.10:70;a=(4.5-n/6)/sqrt(n*5/6);b=(5.5-n/6)/sqrt(n*5/6);probde5=normcdf(b)- normcdf(a);
salida=[ n a b normcdf(a) normcdf(b) probde5 binopdf(5,n,1/6)];
disp(' n a b F(a) F(b) F(b)-F(a) P(z=5)');disp(salida)

98
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

PARTE II

INFERENCIA ESTADÍSTICA

Basándonos en información  X 1 ,..., X n m.a.(n extraída de una población (o universo en estudio)


de comportamiento modelado por f  x , para algún   ,  f  x  corresponde a una función de
densidad discreta o continua según la presentamos en el Capitulo 3). Nuestro objetivo es estudiar
algunas peculiaridades de tal universo:
a) valor representativo del parámetro desconocido
b) rangos de valores de tal parámetro desconocido
c) análisis de conjeturas

Ejemplos
Si disponemos de una muestra aleatoria de una población que identificamos como:
Binomial  f  x   Bx, n, p ,   p,   0,1
Exponencial  f  x   Exp x,  ,   ,   IR
Normal  f  x   N x,  ,  2 ,    ,  2 ,   IRxIR

Podemos apreciar entonces que el espacio paramétrico es siempre un subconjunto de IRk , donde k es
el número de componentes de . En este contexto, para dilucidar las inquietudes arriba mencionadas
podemos proceder mediante las correspondientes metodologías que a continuación mencionamos:
a) estimación puntual: consiste en seleccionar  un representante para  a partir de una adecuada
transformación de la m.a.(n) con valores en .
b) estimación por conjuntos confidenciales: decidir una asignación 1- de confianza en la afirmación de
que tal parámetro este en un recinto, que puede ser de la forma a <  < b.
c) docimasia de hipótesis: es el analizar conjeturas como H0 :  0 vs . H1:  1 minimizando los
errores TIPO I Y TIPO II:
decidir
Realidad  0  1
 0 ACIERTO ERROR TIPO I
 1 ERROR TIPO II ACIERTO
Basando nuestra decisión en un subconjunto C, denominado región crítica tal que:
c
{todas las m.a.(n) de la población en estudio} = C + C .
Adoptamos nuestra decisión de la siguiente manera: una muestra  X 1 ,..., X n   C indica que existe
evidencia significativa para rechazar H0 ; en caso contrario se puede afirmar que no hay evidencia suficiente
para rechazar significativamente a H0 .
Tal determinación no puede ser escueta y debe contemplar los riesgos de tomar una decisión incorrecta o
cometer algún tipo de error I o II, ocasionado por la particular muestra escogida.
La información que admitimos disponer debe satisfacer los requerimientos de ser una
m.a.(n). en el sentido formal que se expuso en el Capítulo 3. Es decir, observaciones representativas,
seleccionadas totalmente al azar y no vinculadas entre si, mas que por el sólo hecho de provenir de una
misma población. Debemos precisar que si alguno de estos supuestos no se satisface, los resultados que se
exponen a continuación pueden no seguir siendo válidos.

99
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CAPITULO IV

ESTIMACIÓN PUNTUAL

El representante de  que determinemos debe satisfacer ciertas condiciones mínimas, como la de


proporcionarnos un valor dentro del rango admisible, señalado por el espacio paramétrico IR p . A este
respecto se orientan las siguientes definiciones.

Definición

Si designamos por,
*   X1 ,..., X n m.a.n de una población con densidad f x .

Se denomina estadística para ; a toda transformación


 
T:*  IR , x  T x  .
k

que no dependa del parámetro .

Definición

Si una estadística T satisface que:


 
ImT   T x  / x  *   ,
la denominaremos estimador de , y se denotará por  .

Ejemplo4.1

Sea X1 ,..., X n m.a.n , de una población:

a) Bernoulli  f x   Bx,1, p,  p,   0,1


X1  X2  Xn es estadística, y no estimador de p
X  p es estimador de p

b) Normal  f x   N x,  , 2 ,   , 2 ,  IR x IR


X   no es estadística
X1  Xn   1 es estimador de 
X   2 es estimador de 

S 2 : X  X    12 , es estimador de  2
2


s 2  nS 2 / n  1   22 es estimador de 2 .

100
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

4.1.- OBTENCIÓN DE ESTIMADORES

Existen diversos métodos para obtener un estimador de  el parámetro desconocido asociado al supuesto
modelo del comportamiento de la población en estudio. A continuación
presentamos dos de los métodos más utilizados para tal propósito y posteriormente analizaremos sus
propiedades.

4.1.1.- MÉTODO DE MÁXIMA VEROSIMILITUD (M.M.V.)

Consiste en determinar un valor  de  para el cual la función de densidad (discreta o continua) de la


muestra,

f x    f xi 
n

  i 1
alcance su valor máximo, es decir fˆ x   máx f x .
 

Por lo tanto el valor así determinado por construcción es un estimador y hace que sea más factible o

verosímil la presente muestra de tal población. Esto motivó a denominar a f x  función de verosimilitud, y
al valor  que éste método entrega como estimador de máxima verosimilitud (E.M.V.).

Para la obtención de dicho valor podemos recurrir a su búsqueda mediante la aplicación de una función
monótona creciente como es ln(.), así transformamos los productos en suma, exponentes en términos más
simples y mantenemos el mismo valor de  con el que se logra el máximo anterior.

Recurriendo a las condiciones para la determinación de extremos de funciones reales, podemos decir que
si existe tal  , se puede obtener de la ecuación:
L   n
 0, donde L = Lx ,   ln f x    ln f xi 
 i 1

Ejemplo4.2

A seguir presentaremos el estimador de máxima verosimilitud que se obtiene a partir de una


X1 ,..., X n m.a.n de una población del tipo:

a) Bernoulli de parámetro p;
n 1 x 

L  ln   p xi 1  p  i   ln p nX 1  p 
 i 1 
n 1 X 

L  n X ln p  n1  X ln 1  p 
L nX n1  X 
   1  0  nX 1  p   npX  1  0
p p 1 p
L
 0  X  X p  X p  p  0  pˆ  X
p

101
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

b) Exponencial de parámetro ;

L  ln    exp  xi   ln n exp  nX   n ln   nX


n 
 i 1 
L n 1
  nX  0   X  0  ˆ = 1/X
  

c) Normal de parámetros ,  2 ;
 1   x   2  n  1  x   2 
 
n
L   ln  exp   i 2       ln 2 2  i
  i 1  2


 2 2 2 2 2
i 1     
 1  x i   2 
 
n
=    ln 2   ln  
 1 2

i 1  2 2 2 2 

1 n x   
 
2

=  ln 2   ln  2   i 2
n n
2 2 2 i 1 
 L 1 n  xi   
    2  1 0
 2 i 1  2
 L n
 x   2
 2   n 2  1  i 2  1  0
  2 2 i 1  2  
n

 x i    0   ˆ  X
   2
i 1
n
n 2    xi     0   S
2 2

i 1 

4.1.2.- MÉTODO DE LOS MOMENTOS

Plantea la búsqueda de un estimador, a través de un sistema de ecuaciones, formado por la identificación de


los momentos centrales respecto del origen teóricos con los empíricos, con tantas ecuaciones como la
dimensión del espacio paramétrico. Es decir si dim  = k entonces el sistema a considerar es
 X , r  1,..., k
r r
E X

Ejemplo4.3

Como veremos ahora, en el caso de una población Normal, el método de los momentos nos entrega los
mismos resultado que M.M.V.; el lector puede verificar que esto no siempre es cierto.

Siendo X1 ,..., X n m.a.n de una población Normal, entonces E X  , y E X 2  2   2 . Por lo


tanto el sistema a considerar en el método de los momentos es:

ˆ  X 

 , entonces ˆ  X , 2  X 2  X 2  S 2
  ˆ  X
 2 2 2

102
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

4.2.- PROPIEDADES DE LOS ESTIMADORES

Con el objeto de clasificar y comparar diferentes estimadores para un mismo parámetro, definimos
algunos conceptos que nos indiquen de que manera es que se aproximan al parámetro en estudio.

Definición

Se define como sesgo de un estimador  del parámetro  y anotaremos sesgo (  ) al número real dado
por el valor absoluto de, la diferencia en media entre este estimador y su parámetro, es decir sesgo
ˆ  Eˆ    .
Como E     E   , entonces sesgo (  ) = 0 siempre y cuando E    , en tal caso se dice que 
es un estimador insesgado de .

A continuación presentamos un concepto diferente pero también orientado a medir discrepancia entre
estimador y parámetro.

Definición
Entenderemos por error cuadrático medio de un estimador  y anotaremos E.C.M.  , al número real

E ˆ    .
2

Ahora veamos como se relacionan ambos conceptos con la variabilidad propia del estimador al recorrer todas
las muestra posibles.

Propiedad
Sea  un estimador del parámetro , obtenido a partir de X1 ,..., X n m.a.n de una población
caracterizada por f x , para algún , entonces
E.M.C.ˆ  V ˆ  sesgo 2 ˆ.
Por lo tanto E.M.C.ˆ    V ˆ es una condición necesaria y suficiente para que  sea un estimador
insesgado de .

dem.
  
E.C.M .ˆ  E ˆ     E ˆ  E ˆ  E ˆ   
2 2

= E ˆ  E ˆ  2ˆ  E ˆ E ˆ      E ˆ    
2 2

= E ˆ  E ˆ   2 E ˆ  E ˆ E ˆ      E ˆ   


.
2 2

= E ˆ  E ˆ    E ˆ    , obteniéndose la tesis.


2 2

103
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Podemos advertir entonces que el E.C.M. está formado por dos tipos de variabilidad respecto de valores
que pueden ser diferentes. En efecto pues la varianza indica variabilidad respecto de su propia media y el
sesgo lo hace respecto del parámetro en estudio. El problema entonces de seleccionar estimadores no es
simple pues se puede dar el caso como veremos en el siguiente caso de estimador insesgado pero con varianza
mayor que otro sesgado dando origen a un error cuadrático medio menor en el segundo caso.

Ejemplo4.4

Disponiendo de X1 ,..., X n m.a.n de una población Normal, podemos construir

Z   X i  X  /  2    
n
E S 2   2 1  1 / n , E s 2   2
2
v.a. x2n1 , y como
i 1
 
Por lo cual los estimadores 2  S2 , 2  s2 , son sesgado e insesgado respectivamente, sin embargo
1 2

 
  
E.C.M.    V  2  , como veremos a continuación:
2

 1   2 
 2   2  4 2 4
V    V  Z   V Z  
 2   n  1  n  1
2
n  1
    2   4
V  2   V  Z   2 V Z   2n  1 4 / n2
 
1
 n  
   2n  1 4  2  1  4  2n  1
  1  
2
2
2

E.C.M . 2     
  n
1    
     1   1 
 1  n2      n2  n  

   2n  1 4 2n 4 2 2  2 
 E.C.M . 2    4       4
 V  .
 1  n2 n2 n n 1  2 

El teorema que presentamos a continuación nos permite determinar la cota mínima que puede asumir la
varianza de un estimador insesgado arbitrario. Así entonces la comparación anterior nos permitirá descartar
los insesgados o buscar uno cuya varianza sea inferior a la del sesgado.

Teorema

Sea  un estimador insesgado de  para una población caracterizada por una f  x ,  , L la
función logaritmo de la función de verosimilitud citada en la presentación del M.M.V. ; entonces bajo
 L  2 
V ˆ    
1
ciertas condiciones de regularidad , donde    E   , se denomina cantidad de
   
información de Fisher.

El lector puede verificar fácilmente que:

104
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 L  2   l  2   2 L    2l 
E     nE      E  2   nE  2  , l  l x,   ln f x  .
             

Disponiéndose así, de 4 formas alternativas para obtener  

Ejemplo4.5

Determinemos la cota de Cramer-Rao para el caso de estimadores insesgados del parámetro de una población
normal.

Debemos disponer de X1 ,..., X n m.a.n , de una población Normal, con nuestra


f x   N x,  , 2 ,   , 2 ,  IR xIR+, así entonces

  2l  2  1   X   2  
   nE  2   nE  2 ln  exp    
   2 2 
    2   
2

2
= nE  2
 1

  ln 2 2 
 X   2
    X   
  nE  
 2  
  2 2     
2
 
 1  n
= nE  2   2
   
2
si  es estimador insesgado  de  entonces V ˆ   , y de igual manera
n

  1  X   
  2l    2 
  2  nE     
2 
nE
 
   2     2 2
 22  
2 

 1
= nE  4 
 X   2   n 1  V  X    = n 1  1   n
  4 
 2  
2
3
  2 4  2 3 
    2  4  2 4
  2  2 4 
Se concluye V     para cualquier estimador insesgado 2 de 2 .
  ,
  n

Definición
Un estimador insesgado  de  que satisface la cota de Cramer-Rao (e.d. V ˆ   1 ) lo denominaremos
eficiente. Denominación que se ajusta a los hechos ya que en éste aspecto no podemos lograr uno mejor.
En el caso de disponer de 1 ,  2 , dos estimadores cualesquiera de , se denomina eficiencia relativa de
 1 , respecto de  2 al valor E.C.M. ˆ1  / E.C.M. ˆ2  . Es decir en términos de la media cuadrática nos dice
en cuanto más discrepa del parámetro en estudio, un estimador en relación a otro.
Además se dispone de resultados conducentes a saber cuando y mediante qué procedimiento podemos
obtener un estimador eficiente (insesgado y cuya varianza alcance la cota de Cramer-Rao).

105
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Teorema

Bajo las condiciones de regularidad requeridas en el teorema anterior, entonces


L
 es estimador eficiente de  sii   ˆ   


Corolario

Bajo las hipótesis del teorema, entonces


L
a)   ˆ         

b)  estimador eficiente de    es un E.M.V.

En resumen si existe estimador eficiente, lo podemos obtener por el método de máxima verosimilitud.
De no existir estimador eficiente; cabe ahora el preguntarnos en que casos podemos darnos cuenta de estar
en presencia del estimador insesgado de varianza mínima (no eficiente). Condiciones suficientes para
tal caso proporcionamos en la siguiente sección.
En la literatura podemos encontrar otras interesantes propiedades de los estimadores, que también
miden pero en otro sentido un grado de aproximación al parámetro en estudio.

Mostramos a continuación algunas de estas ideas , que formalmente se basan en los conceptos de
convergencia (límite de sucesiones de v.a.) abordados en el Capítulo 3, mediante los cuales se estudia lo que
ocurriría en distintos aspectos a medida que la muestra crezca indefinidamente, acercándose a la población
misma.

Tipos de convergencia

Si  es el parámetro de una población X, basado en una m.a.(n). Un estimador de  lo podemos exponer como

ˆ  ˆn  ˆX   ˆ X1 ,..., X n  , entonces se dice que  es
asintóticamente insesgado sii: ˆn  converge a 0.
consistente en error cuadrático medio (media cuadrática) sii ˆn   2  converge a 0.
Para  de dimensión superior ˆn   2
: ˆn   ' ˆn   
consistente (simple) sii   0, Pˆn     converge a 0.

4.3.- OBTENCIÓN DE UN ESTIMADOR INSESGADO A PARTIR DE OTRO

Dado un estimador insesgado no eficiente de , presentamos a continuación las herramientas conducentes a


determinar otro estimador también insesgado (quizás no eficiente) pero de varianza mínima.

Primeramente debemos determinar que elementos o transformaciones de la muestra son suficientes de


considerar para no perder información. La idea básica se basa en lograr una división totalmente disjunta de
, originada por  y la medida de probabilidad asociada.

106
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Definición

Una partición IH de  se dice minimal sii dada H'  IH , partición de      IH tal que H'  H, (es
decir toda otra partición es más fina que ella).

Una partición IH de  se dice:


suficiente para la familia f   x , P H  : IRn 0,1 no depende de ,  IH,,
  sii

donde P es la función de probabilidad condicional inducida por f X .  
Observación

Sea X:,   IR una v.a. modelada por f   x ,   , entonces


a) IH ={{w}/w} es la partición suficiente más fina de 
 
b) la relación x R y sii f   x  / f   y  .no depende de ; es una relación equivalencia y nos origina la
 

partición suficiente minimal de .

Definición

Una estadística T para un parámetro , se dice suficiente (para la familia f   x ,   ) sii la partición
del espacio * originada por T es suficiente (e.d. t, la distribución condicional originada por P    t  no
depende de ).

Así entonces diremos que una estadística T es suficiente minimal sii su correspondiente partición es
suficiente minimal. Por lo tanto una estadística suficiente minimal es función de cualquier otra
estadística suficiente. Además si existe es "única" salvo biyecciones..

El siguiente resultado nos dice como reconocer una estadística suficiente.

Teorema (Factorización)

Sea T una estadística para  de una población caracterizada por f   x ,   entonces,


  
T suficiente  f  x   g   x  h x , h no depende de .

Dado un estimador insesgado, el siguiente resultado de carácter general nos destaca la importancia de poseer
una estadística suficiente para determinar otro estimador insesgado de menor varianza.

Teorema (Rao-Blackwell)

Sean X1,..., Xn m.a.(n) de una población, f   x ,   , g1 estimador insesgado de g(t) y T estadística
suficiente para , entonces
a) g2   g1  , es estimador insesgado de g()
b) V gˆ 2   V gˆ 1 

107
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

En efecto todo esto es posible gracias a una propiedad adicional de T denominada completitud que a
continuación abordamos.

Definición

Sea X1,..., Xn m.a.(n) de una población f   x ,   , denotemos por



ID =  f   x  /   ,
IP = {P medida de probabilidad inducida por f  ID }, entonces ID se dice completa sii
  
 
  
 h X  0, f  ID  P h X  0  0, P  IP .

    
Además P h X  0  0 se dice h( X )=0 casi seguramente bajo P y se abrevia: h( X )=0, P c.s.

Definición

Se dice que ID =  f   x  /   , es una familia exponencial sii
  k

f   x   a  b x  exp  Qi  i  x , para Qi , i funciones con valores reales.
i 1

Observación

  
a) Sean ID =  f   x  /    : ID X , familia exponencial con b( X )=1, T( X )= 1  x ,...k  x  , entonces
 contiene bloque k-dimensional ID es completa

b) Sea T una estadística suficiente para  en ID , entonces ID  es completa  ! gˆ  gˆ  , P c.s.


estimador insesgado de g  , P  IP  (por Rao-Blackwell tenemos la existencia, y la unicidad P c.s.
es directa de la completitud de ID ).

Nota
Ahora entonces sabemos cuando existe solo un P c.s. estimador insesgado que sea función de una
determinada estadística suficiente.
En consecuencia a partir de cualquier estimador insesgado y una estadística T suficiente con ID 
completa; mediante el Teorema de Rao-Blackwell, lograremos C. el mismo estimador insesgado (que sea
función de T). Por lo tanto el estimador así obtenido es E.I.V.M..

Ejemplo4.6

Consideremos una m.a.(n) X1,..., Xn de una población (2,1/):


a) Determinación de estadística suficiente

f   x    2 n exp    x1  ...  x n   x i ,     0,  
n

i 1
 
 g   x  h x , con
  
 g   x    2 n exp    x1  ...  x n ,  x   x1  ...  x n

h x     x i , no depende de  .
n

i 1
 entonces T es estadística suficiente para 
108
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa


 
b) ID   f  x  /    0,  : ID X f   x  es exponencial con k=1

f x    2 n  P  xi  exp   x1  ...  xn  
n

 i 1 
 
  a bx exp Q1  1 x , donde
 
a    2 n , bx   hx , Q1     , 1  .
c) ID es completa Pues   0,  , contiene a un intervalo o bloque k=1 dimensional.
d) Disponemos de un estimador insesgado de 
 Siendo X v.a. (2,1/) entonces
 X  1
  IR x dF x    IR exp  x dx    IR x,1,1/  dx  
1 2

 por lo cual toda componente de la muestra aleatoria es un estimador insesgado de  entonces adoptaremos
  X11 .
e) A partir del teorema de Rao-Blackwell, como disponemos de una estadística suficiente

 
 X  X1  ...  X n , con ID  completa y un estimador insesgado 1  X11 de  , logramos
ˆ2  ˆ2   ˆ1  el estimador función de T, insesgado de varianza mínima :
 
 Sea Y: IR  IR , x    x1 ,..., x n   y tal que
n n

   
      
 X  1 X ,..., n X   X 1 ,..., X n 1 ,  ,
 
y   y1 ,..., y n    x1 ,..., x n 1 , t ,  x   t
    n 1
 
f   y   f X  x  y   f X  y1 ,..., y n 1 , t   y i  J  1  x  ,
 i 1 
n 1
t   y i  0, y i  0i  1,..., n  1
i 1

   n 1 0
 J  1  x   det    1,  n 1 matriz identidad de (n-1) x (n-1)
11 1 1


  n 1  
 f  y    2 n exp  t x1 y 2


y n 1  t   y i , pues J  1  x   1,
 i 1 
j 1
y i , j  2,..., n  1
con 0  x1  t , 0  y j  t  
i 1
 n 3 n2
t  x1 t  x1  y 2 t   yi t   yi  n 1 
f  x1 , t    x1 exp  t 
2n
y2  y3  i 1
y n2  i 1
y n 1  t   y i dy n 1 dy n  2 ..dy 3 dy 2
y2 0 y3  0 yn  2 0 y n 1  0
 i 1 
n 3
 n 3  1
3
t  x1 t  x1  y 2 t   yi
f  x1 , t    x1 exp  t 
2n
y2  y 3 ........ i 1
y n2  t   yi  dy n  2 dy 3 dy 2
y2 0 y3  0 yn  2 0
 i 1  3!


109
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

a n2
xa  x  dx 
a

n
 debido a que , podemos obtener
0 n  1n  2
n4
 n 3  1
5
tx t  x1  x 2 t   yi
f  x1 , t    2 n x1 exp  t  y2  y3  i 1
y n 3  t   y i  dy n 3 dy 3 dy 2
y2 0 y3  0 yn 3 0
 i 1  5!
tx
f  x1 , t    2 n x1 exp  t  y 2 t  x1  y 2 
2  n  2 1 1
dy
y2 0 2n  2   1 2

  2 n x1 exp  t  t  x 1 
2 n 11 1
2n  1  1!
 
  2 n x1 exp  t  t  x 1 2 n 3 1
2n  3!
 f  t    2 n exp  t t 2 n 1
1
2n  1!
 2 x1 exp  t t  x1 2 n 3
1

 f X1   t
 x1 

2n  3!
 2 n exp  t t 2 n 1
1
2n  1!


2 n 3
 x 
 2n  12n  2x1 1  1 
1
, 0  x1  t
  t  t2
X 1   t    f X 1   t
 x1 
dx1  2n  12n  2t 1 , 0  x1  t
t

0



 Finalmente podemos decir que el estimador buscado es
 
ˆ2  ˆ2 X   2n  12n  2X   2n  12n  2 /  X 1  ...  X n .
1

110
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CAPITULO V

REGIONES CONFIDENCIALES

La estimación puntual nos ha conducido a estimadores como una manera de determinar un valor del
parámetro en estudio que más se aproxime al verdadero valor según los criterios y propiedades estudiadas en
el capítulo anterior.

Sin embargo no nos ha permitido asignar una credibilidad o seguridad de que el particular valor encontrado
sea o no el verdadero.

En esta sección identificaremos regiones en las cuales se encontrará nuestro parámetro con un alto grado de
seguridad. Tal credibilidad debe estar relacionada con la ley de probabilidad de la población en estudio
independiente del particular valor que el parámetro asuma.

5.1.- OBTENCION DE REGIONES CONFIDENCIALES

Dada una m.a.(n) de una característica X en una población f x ,    IR p . El método general


para la obtención de regiones (o conjuntos) confidenciales se basa en considerar dos elementos:
 un número   0,1
 
 una aplicación  : *    IR x ,  T x ,  con distribución conocida e independiente de .

Por construcción T es entonces una variable aleatoria y tiene sentido el pretender determinar un conjunto A
talque: P(TA)=1-.

El valor 1- se denomina nivel de confianza y el conjunto A es precisamente quién nos originará la region

confidencial que estará dada por: RC=  / X ,   

Es decir para una m.a.(n) X1... Xn de la población  
f x  , la v.a.  X ,  H  puede ser observada
como una transformación de  que satisface lo siguiente:
1         H      /   H 1
  y nuestra región confidencial, RC = H
1
 .
El lector puede notar que la región confidencial RC resultante por este proceso no es única, más aún hay
innumerables de ellas para un mismo nivel de confianza 1-.

111
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Por lo tanto ante tan diversas soluciones ¿Cúal es entonces la utilidad de tal metodología?. La respuesta es
simple hay efectivamente innumerables RC para un mismo nivel de confianza y cada una es solución con una
certeza del (1-)% tan válido como cualquiera de las otras.

Por ello, para distribuciones simétricas, en la literatura se acostumbra considerar regiones que dejen /2 de
probabilidad hacia los extremos ( ambas colas), logrando así expresiones simples.

Efectivamente para la v.a. T con distribución F dada por una densidad D, y si se opta por considerar un
intervalo A=[a,b] entonces: 1    H  a, b   /   H 1 a, b para lo cuál
a  D / 2 y b  D1 / 2 es una de las alternativas, donde la notación D significa que H  D    . En
tal caso para D simétrica se tiene que a=-b.

5.2.- INTERVALOS CONFIDENCIALES

Cuando la región confidencial tiene la forma de intervalo ésta adopta el nombre de intervalo confidencial.

Al considerar A como un intervalo [a,b], en muchos casos (al menos en los cuales T es v.a.c.) al calcular
[a,b] obtendremos tambien intervalos.

Los siguientes ejemplos corresponden a esta situación.

5.2.1.- Una muestra aleatoria

Sea X1... Xn m.a.(n) de una población f x  .


Para cada una de las siguientes poblaciones, determinar un intervalo confidencial para el parámetro
poblacional a un mismo nivel de confianza 1-:

a) Bernoulli
 Intervalo para =p
 Para n grande, X  p  / pq / n  D  N 0,1, simétrica; pˆ  X
 considerando la aproximación H(p)= X  p/ pˆ 1  pˆ  / n  X  p/ X 1  X / n
 entonces 1-= H   a, a   a  H  p  a
  1 / 2 0,1  H  p   N1 / 2 0,1
 despejando p se obtiene,
 X  X 1  X / n N1 / 2 0,1  p  X  X 1  X / n N1 / 2 0,1
 El espacio paramétrico, obliga a que este intervalo debe ser considerado en su sección al interior del
espacio paramétrico , en este caso intervalo [0,1]. Además se reduce su extensión a medida que el tamaño
muestral crece. Comentario válido para este tipo de análisis en general.

Intervalo de Confianza
l l p
X  X 1  X  / n N1 / 2 0,1 X X  X 1  X  / n N1 / 2 0,1
Estimador

112
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo5.1
Determinemos intervalo del 95% de confianza para la proporción de respuestas afirmativas, en cierto
experimento ,al disponer de una m.a.(n=20) procedente de observar ( mediante simulación con p=0.3; a través
de sentencia x=binornd(1,0.3,20,1)), las siguientes respuestas afirmativas (1), o negativas (0), a
entrevistados respecto a un particular sondeo de opinión :
0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1
X =0.35, X 1  X  =0.4894 , 1-=0.95, entonces N1 / 2 0,1 = N 0.975 0,1  norminv(0.975)=1.96
X 1  X / n N1 / 2 0,1 =-0.2145, X 1  X / n N1 / 2 0,1  0.2145

Intervalo de Confianza
l l l l l p
0 0.1355 0.35 0.5645 1
Estimación
Intervalo de confianza= [0.1355, 0.5645]
Resultado, que se puede obtener directamente mediante la siguiente sentencia
Scrpt:
n=length(x); mean(x)+ norminv([0.025 0.975]) *((std(x))/sqrt(n))
% resultado aprox. Clopper-Pearson: media=0.35, intervaloconf=[ 0.1539 ; 0.5922] al usar [media, intervaloconf] = binofit(7,20,0.05)

Observemos que la simulación efectuada, no arroja respuestas con valor medio concordante a lo programado,
incluso para muestras de mayor tamaño, lo cual deja una duda respecto a la capacidad del software para este
tipo de simulación; incertidumbre resuelta en el capítulo siguiente.

b) Normal
b.1) Intervalo para ; ̂  X
b.1.1) varianza conocida;
X  X 
H     D   0,1, simétrica;  N1 / 2 0,1   N1 / 2 0,1
 
n n
 X   / n N1 / 2 0,1    X   / n N1 / 2 0,1

La siguiente imagen, muestra como aumenta la amplitud de estos intervalos en función de la desviación típica.

 X   / n N1 / 2 0,1

X   / n N1 / 2 0,1

113
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

b.1.2) varianza desconocida


X 
H     D  t n  1, simétrica
s
n
X 
 t1 / 2 n  1   t1 / 2 n  1
s
n
 X  s / n t1 / 2 n  1    X  s / n t1 / 2 n  1

Ejemplo5.2
Calculemos un intervalo del 95% de confianza para la media de la siguiente m.a.(n=40) normal procedente
de (simulación normrnd(85,3,40,1)), una medida de eficiencia de un cierto proceso de captura de
señales ( imagen, sonido,dato):
81.1721 86.8511 86.8381 85.8681 86.1859 82.3883 83.5069 84.6800 82.9365 85.9956
92.0957 83.5533 86.9423 81.8967 89.0187 82.0926 85.6261 83.1442 86.5360 85.0341
84.8680 93.8473 83.1099 84.8594 93.0491 81.5599 86.6590 81.7706 88.0919 85.9826
86.9564 84.1634 85.7356 89.4175 78.1747 80.1001 86.2464 83.0357 84.1110 80.5092

X = 85.1153 , s = 3,3508 , n=40, t1 / 2 n  1  t 0.975 (39) =tinv(0.975,n-1)= 2.0227


X  s / n t1 / 2 n  1 =64.0436 , X  s / n t1 / 2 n  1 =86.1869

Intervalo de Confianza

l l l l l 
0 64.0436 85.1153 86.1869 100
Estimación

Intervalo de confianza= [84.0436 86.1869 ]


Diretamente, MATLAB proporciona estimadores e intervalos de confianza, en este caso para:
Distribution Normal:
mu = 85.1152 [84.0436, 86.1869]
sigma = 3.35082 [2.74486, 4.30257]

Script:
n=length(x); mean(x)+ [-tinv(0.975,n-1) tinv(.975,n-1)]*std(x)/sqrt(n) ; pd=fitdist(x', 'Normal')
% sentencia diseñada para diversos modelos de distribución propuestos y niveles de confianza

b.2) Intervalo para    ,


2

b.2.1)media conocida

 
n
H  2   xi    /  2  D  x 2 n , no simétrica
2

i 1
n n n
x 2  / 2   xi    /  2  x12 / 2 n ,  xi    / x12 / 2 n   2   xi    / x2 / 2 n
n  2 2 2

i 1 i 1 i 1

114
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

b.2.2)media desconocida; ˆ 2  s 2
 
H  2   xi  X  /  2  n  1s 2 /  2  D  x 2 n  1, no simétrica
n
2

i 1

 n  1s / x12 / 2 n  1   2  n  1s 2 / x2 / 2 n  1


2

Intervalo de Confianza
l l σ2
n  1s 2 / x12 / 2 n  1 n 1s 2 / x2 / 2 n 1

Para los datos del caso reciente, a este respecto podemos decir lo siguiente:
var(x)=11.228, x02.97539 =58.1201 , x02.025 39 =23.6543
n  1s 2 / x12 / 2 n  1  39s 2 / x02.97539 =7.5342
n  1s 2 / x2 / 2 n  1  39s 2 / x02.02539 =18.5121
Intervalo confidencial para la varianza: [7.534, 18.5121], sacando raíz, obtenemos similar intervalo para la
desviación estándar [2.7449;4.3026] . Lo cual informa, que con una certeza del 955 , podemos afirmar que los
datos tienen una dispersión aprox. entre un 2,7% y 4,3%.

Intervalo de Confianza
l l l σ2
7.5342 11.228 18.5121
Estimación
Por cierto, intervalo no simétrico respecto a la estimación, ya que proviene de una densidad asimétrica.

Script:
[sqrt((n-1)*var(x)/chi2inv(0.975,39)) sqrt((n-1)*var(x)/chi2inv(0.025,39))]

5.2.2.- Dos muestras aleatorias independientes

En el caso de disponer, de dos muestras aleatorias de diferentes poblaciones, nos puede interesar
analizar entre si, sus comportamientos medios o desviaciones típicas; tales es el caso, de disponer de dos
muestras del mismo como las vistas en los ejemplos anteriores, que a continuación exponemos.

Sean X1... Xn m.a.(n) de una población f x x , x  x .


1... n m.a.(m) de una población f  y  x , y   y ; muestras independientes.
Para cada una de las siguientes poblaciones f, determinar un intervalo confidencial para las
transformaciones de parámetros poblacionales que se indica:

a) Bernoulli  x  px ,  y  py
 Intervalo para   px  py , diferencia de proporciones entre dos poblaciones Bernoulli
 Para n,m grandes
X    ( px  y y )
 ~ D = N0,1, simétrica; pˆ x  X , pˆ y  
px qx / n  p y q y / m
X    ( px  p y )
 consideramos la aproximación H   
 
X 1  X  / n  Y 1  Y / m

115
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

X    ( px  p y )
  N1 / 2 0,1   N1 / 2 0,1

X 1  X  / n  Y 1  Y / m 
 despejando p se obtiene,


 
X    X 1  X  / n  Y 1  Y / m  1 / 2 0,1  p x  p y 

   
X    X 1  X / n  Y 1  Y / m  1 / 2 0,1
Intervalo de Confianza
l l l px  p y
X 
Estimador

 
X    X 1  X  / n  Y 1  Y / m 1 / 2 0,1
X  X 1  X / n  Y 1  Y / m  1 / 2 0,1

Ejemplo5.3
Implementemos este procedimiento para comparar respuestas X e Y , basada en respectivos resultados
muestrales de una encuestas de sondeo de opinión realizada de manera independiente a hombres (n=20)
como a mujeres (m=15):
Hombres: 0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1
Mujeres: 0 0 1 1 1 1 0 0 0 0 1 0 0 1 0
pˆ x  X  0.35, p̂ y   =0.4, p̂ x - p̂ y = -0.0500 ,
var( x) var( y)
n

m

 X 1  X  / n  Y 1  Y / m  0.0291 
Intervalo Confidencial para px  p y : [-0.3844 0.2844]

Intervalo de Confianza
l l l px  p y
[-0.3844 -0.0500 0.2844
Estimación
Lo cual indica, que en cierto modo, con alta certeza, no se encuentran diferencias de opinión.

Script:
x=[0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1]; n=length(x); mean(x)
y=[0 0 1 1 1 1 0 0 0 0 1 0 0 1 0]; m=length(y); mean(y)
mean(x) - mean(y)+(norminv([0.025 0.975]))*sqrt((var(x))/n +(var(y))/m)

b) Normal
b.1) Intervalo para    x   y , diferencia entre las respectivas medias en poblacionales Normales indep.
b.1.1) varianzas conocidas

116
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

X    ( x   y )
H    ~ D   0,1, simétrica;
 x2 / n   y2 / m
X    ( x   y )
  1 / 2 0,1    1 / 2 0,1
 x2 / n   y2 / m

 despejando  se obtiene,
 X     x2 / n   y2 / m 1 / 2 0,1   x   y  X     x2 / n   y2 / m 1 / 2 0,1.

b.1.2) varianzas desconocidas

i) Si 2y  k2x para algún k conocido

X    ( x   y )
  0,1,
 1/ n  k / m
X    ( x   y )
H     t n  m  2,
s p 1/ n  k / m

de distribución t (simétrica) con s 2p  n  1s x2  m  1s y2 / n  m  2 
X    ( x   y )
 t1 / 2 n  m  2   t1 / 2 n  m  2
s p 1/ n  k / m

X    s p 1 / n  k / m t1 / 2 n  m  2   x   y  X    s p 1 / n  k / m t1 / 2 n  m  2

ii) No hay información

X    ( x   y )
H     t v ,
s x2 / n  s y2 / m

de distribución t (simétrica), con  grados de libertad, dados por: =[0], parte entera de

117
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

   
2
 
v0  s x2 / n  s y2 / m / s 2 x / n / n  1  s 2 y / m / m  1
2 2
 .

X    ( x   y )
 t1 / 2 v    t1 / 2 v 
s x2 / n  s y2 / m

X    s x2 / n  s y2 / m t1 / 2 v    x   y  X    s x2 / n  s y2 / m t1 / 2 v 

Intervalo de Confianza
l l l x   y
X 
Estimador

X    sx2 / n  s y2 / m t1 / 2 v 
X    s x2 / n  s y2 / m t1 / 2 v 
Ejemplo5.4
Calcular intervalo del 95% de confianza, que permita comparar la cantidad de paquetes computacionales
KB/seg que llega a determinado servidor durante la primera hora de trabajo del día (X), respecto a similar
hecho al cierre de la jornada laboral (Y). Por comodidad, salvo cambio de escala los datos son los
originales.

Mañana: 9.2202 11.1292 15.8082 13.6085 20.1604 20.3646 12.6768 18.5005 20.5818
16.2839 21.4935 19.2497 15.8564 18.5072 15.7776 13.3404 16.4338
Tarde: 25.3260 21.7183 40.9392 26.9915 49.5734 22.3345 30.0787 39.2436 49.5631
27.7321 17.8877 32.2304 13.1209 22.5354 27.4468 38.4060 37.9343 24.7519
33.3154 22.1085

mediaX varianzaX mediaY varianzaY n m nu t


16.4114 12.6034 30.1619 98.2664 17.0000 20.0000 24.5039 2.0617

Intervalo confidencial para  x   y : -8.8480 -18.6531

Intervalo de Confianza
l l l l x   y
-18.6531 -13.7505 -8.848 0
Estimador
Al parecer, la mayor parte del tiempo en observación, horario Tarde tiene una mayor demanda de servicio.

118
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Script:
x=[9.2202 11.1292 15.8082 13.6085 20.1604 20.3646 12.6768 18.5005 20.5818 16.2839 21.4935 19.2497 15.8564
18.5072 15.7776 13.3404 16.4338];
y=[ 25.3260 21.7183 40.9392 26.9915 49.5734 22.3345 30.0787 39.2436 49.5631 27.7321 17.8877 32.2304
13.1209 22.5354 27.4468 38.4060 37.9343 24.7519 33.3154 22.1085]
n=length(x); m= length(y);
nu=(((var(x))/n +(var(y))/m)^2)/((((var(x))/n )^2)/(n-1) +(((var(y))/m )^2)/(m-1));
disp(' mediaX varianzaX mediaY varianzaY n m nu t')
disp([mean(x) var(x) mean(y) var(y) n m nu tinv(0.975,nu)])
mean(x)-mean(y)+sqrt(var(x)/n +var(y)/m) * [tinv(0.025,nu) tinv(0.975,nu)]

b.2) Intervalo para   y / x

b.2.1) medias conocidas


n n

 xi   x  /  x2  x  x 
2 2
 y2 i
H    i 1
 2 i 1
 F n, m , no simétrica
x
 y   y /  y  y  y 
m m
2
i i
i 1 i 1
n

 x  x 
2
 2 i
F / 2 n, m   i 1
 F1 / 2 n, m 
y

 x2
 y  y 
m
2
i
i 1

 y  y   y  y 
m m
2 2
i
 2 i
 i 1
F / 2 n, m    i 1
F1 / 2 n, m 
y
m
 x2 m

 x  x   x  x 
2 2
i i
i 1 i 1

b.2.2) medias desconocidas

 x  X  /  x2
n
2
i
 y2 n  1s x2 1 /( n  1)
H    i 1
 2
 x m  1s y2 1 /( m  1)
 y    /  y2
m
2
i
i 1

 y2 s x2
así H    2 2  F n  1, m  1
 x sy

s y2  y2 s y2
F / 2 n  1, m  1  2  2 F1 / 2 n  1, m  1
s x2  x sx

119
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Intervalo de Confianza
 y2
l l l
 x2
s y2 s y2
F / 2 n  1, m  1 F1 / 2 n  1, m  1
s x2 s x2

5.2.3.-Muestra repetida

El siguiente ejemplo nos indica como estudiar los comportamientos medios para comparar de variables que
se miden simultáneamente para cada observación.
 
Dada (X1,Y1 ),...,(Xn ,Yn ), m.a.(n) de una población normal bivariada N  ,V , de vector de medias  y
matriz de varianzas covarianzas V de la forma:

  x    x2  xy 
   , V  :  (comúnmente también denotada, sigma mayúscula)
  y2 
y   xy

Podemos determinar un intervalo de confianza para   1   2 .

Al considerar Di = Xi - Yi entonces
Di es v.a. N(E[ Di ],V( Di )) con: E[ Di ]=,
V( Di ) =  x   y2  2 xy   2
2

.
Por lo cual , al disponer de una m.a. de v.a. D1,...,Dn Normal, podemos ver si es posible, el adaptar este
problema al primero de esta sección parte (b):

Efectivamente, ya que D  X  Y constituye entonces un estimador insesgado de  ., además

D  N  , 2 
s d2 , es estimador insesgado de V( Di ),
entonces,
2
(n-1) s d /  2  x2n1

D  ( x   y )
 H     t n  1
sd
n
así entonces, al igual que en el primer ejemplo ( b.1.2) de esta sección, se concluye que:

sd sd
X  t1 / 2 n  1   x   y  X    t1 / 2 n  1
n n

120
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Intervalo de Confianza

l l l x   y
X 
Estimador
sd
X  t1 / 2 n  1
n
t1 / 2 n  1
sd
X 
n

Ejemplo5.5
Construyamos intervalo de confianza del 95% para la diferencia en sondeo de opinión, entre Hombres y sus
correspondientes parejas :
Hombres: 0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1 ( simulada con p=0.3)
Mujeres: 0 0 0 0 1 0 0 0 1 0 1 1 1 1 0 0 1 1 0 0 (simulada con p=0.4)

En este caso disponemos de una m.a. de (X,Y) de tamaño n=20, respuestas de dimensión 2 . Así, nuestra
variable auxiliar d=X-Y, con valores observados:
d: 0 1 0 0 -1 0 0 0 -1 1 -1 0 0 0 1 0 -1 -1 0 1
mediaX mediaY media(d) var(d) std(d) tamaño muestra Tcrítico
0.3500 0.4000 -0.0500 0.4711 0.6863 20.0000 2.0930

Tcrítico= t1 / 2 n  1  t0.97519


Intervalo de confianza para  x   y : [-0.3712 0.2712]

Intervalo de Confianza

l l l x   y
-0.3712 -0.0500 0.2712
Estimación
Lo cual refleja, una escasa diferencia entre ambas respuestas

Script:
x=[0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1]; y=(binornd(1,0.4,20,1))'; d=x-y; n=length(d)
disp('mediaX mediaY media(d) var(d) std(d) tamaño muestra t')
disp([mean(x) mean(y) mean(d) var(d) std(d) n tinv(0.975,n-1)])
mean(d)+(std(d)/sqrt(n))*[tinv(0.025,n-1) tinv(0.975,n-1)]

Veamos también, otro caso pero procedente de datos contínuos.

121
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo5.6

Recordemos nuestra base de datos en anexo del capítulo I, y comparemos la capacidad o eficiencia de
reconocimiento de imágenes entre ambos sistemas ( X,Y) desarrollados mediante RNA y PCA y puestos a
prueba paralelamente, es decir para que cada observación sea la resultante de ambos métodos sobre una misma
figura, la cual va cambiando en cada nueva medición (pareada).

Se dispone entonces de la siguiente m.a.(n=60):


67.2000 79.6000 58.2000 83.5000 78.9000 65.5000 90.4000 84.0000 88.7000 92.0000 64.7000 57.4000 90.9000 88.4000
74.9000 80.1000 80.3000 74.4000 72.0000 83.1000 70.7000 62.4000 91.3000 82.2000 79.4000 81.2000 65.1000 89.2000

75.0000 65.1000 51.4000 69.9000 85.0000 54.9000 85.0000 86.0000 93.0000 66.9000 90.0000 90.0000 92.3000 65.8000
83.0000 82.0000 90.2000 73.0000 70.8000 83.1000 88.0000 88.0000 78.3000 92.0000 53.3000 57.0000 91.7000 62.7000

58.0000 92.7000 76.8000 63.9000 83.0000 86.0000 70.3000 94.0000 77.5000 89.2000 57.6000 62.3000 86.5000 81.8000
88.0000 85.8000 74.0000 88.0000 97.9000 80.6000 85.1000 58.4000 70.9000 85.3000 74.6000 74.0000 67.0000 63.7000

97.4000 65.8000 87.0000 69.7000 87.0000 88.0000 95.0000 93.0000 90.0000 91.0000 78.6000 76.8000 74.4000 75.1000
82.6000 75.0000 68.5000 91.6000 66.0000 56.3000 55.4000 99.9000 87.1000 61.6000 98.2000 79.0000 54.9000 57.7000

88.0000 55.3000 75.2000 88.0000


76.0000 88.0000 97.4000 56.7000

d: -7.7000 -0.5000 -22.1000 9.1000 6.9000 -17.6000 19.7000 21.6000 -2.6000 9.8000 -14.7000 -23.8000 25.8000
-0.8000 -8.0000 -16.9000 -38.8000 -3.1000 14.2000 -28.2000 -3.0000 -2.0000 14.7000 -25.1000 36.7000 33.0000
0.6000 3.1000 -30.0000 6.9000 2.8000 -24.1000 -14.9000 5.4000 -14.8000 35.6000 6.6000 3.9000 -17.0000
-11.7000 19.5000 18.1000 14.8000 -9.2000 18.5000 -21.9000 21.0000 31.7000 39.6000 -6.9000 2.9000 29.4000
-19.6000 -2.2000 19.5000 17.4000 12.0000 -32.7000 -22.2000 31.3000

mediaX mediaY media(d) var(d) std(d) tamaño muestra t


78.5767 77.0767 1.5000 384.9159 19.6193 60.0000 2.0010
Intervalo Confidencial: [-3.5682 6.5682], reflejo de una alta concordancia de resultados entre procedimientos
Intervalo de Confianza

l l l x   y
-3.5682 1.5 6.5682
Estimación

Script: sqrt((n-1)*var(x)/chi2inv(0.975,39))
sqrt((n-1)*var(x)/chi2inv(0.025,39))

n=length(A); d=(x5-x6)'
disp('mediaX mediaY media(d) var(d) std(d) tamaño muestra t')
disp([mean(x5) mean(x6) mean(d) var(d) std(d) n tinv(0.975,n-1)])
mean(d)+(std(d)/sqrt(n))*[tinv(0.025,n-1) tinv(0.975,n-1)]

122
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CAPITULO VI

DOCIMASIA DE HIPOTESIS

Presentamos a continuación los elementos que sirven de base para el análisis de conjeturas referentes a la
población en estudio presentadas como: Ho vs. H1 ( Hipótesis nula versus Hipótesis alternativa).

Sea C subconjunto del universo formado por *={todas las muestras tamaño n de la población en estudio},
según definimos al inicio de esta segunda parte, así *=C+Cc . Luego al disponer de una muestra aletoria que
pertenezca a:

C diremos que, existe evidencia significativa, para rechazar Ho

Cc diremos que, no hay evidencia significativa, para rechazar H o.

Considerando el caso de Dócimas (Test) paramétricos: Ho :   0 , H1 :  1

C    0  = P(rechazar H0  H0 es verdadera) = P(error tipo I) =

 
 C c   1 = P(aceptar H0  H0 es falsa) = P(error tipo II) =

C  1   1  

C  0   ,  0



Función de potencia  X   C   
    
  C  1 1   ,  1

Este conjunto C, también llamado región crítica; debe contemplar en lo posible que: ,  sean mínimos

posibles. Logrando con esto,  
 X mínimo en 0 y máximo en 1 .

Neyman & Pearson estudiaron el cuociente entre la función de verosimilitud según H1 y Ho , para abordar el
problema Ho :  0 =o, H1 :  1 =1 (Hipótesis simple versus simple), como una manera de generar
dócimas tales que tuvieran potencia máxima en 1 y potencia acotada por  (nivel  de significación) en

123
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 o , para un  arbitrario , 0<  <1, ( suficientemente pequeño, tanto como se desee la probabilidad de error
tipo I ); es decir

 C    ,   0 ,
 C   max  C ,   1.
C

Tal estrategia, se extendió a problemas con más de un elemento en las respectivas hipótesis, pudiéndose lograr
resultados óptimos (nivel  en la hipótesis nula , y potencia uniformemente máxima PUM en la hipótesis
alternativa), mientras el cuociente de las funciones de verosimilitud señalado fuese una función monótona. Las
ideas hasta aquí utilizadas sirvieron de base para elaborar la siguiente estrategia más general: para problemas
de la forma Ho :   0 , H1 :    1 =  oc , determinar

sup dF x 
  1
 
X   ,
sup dF x 
  0

donde dF es la densidad o cuantía poblacional, k constante por determinar en función de ; para así considerar
 
C= X /  ( X )  k , región crítica de tamaño , en el sentido de que
supP (C ) /    0   .
Luego al considerar la siguiente transformación, denominada dócima; se nos indica con qué probabilidad se
rechaza o no H0 :

  1 , si  X  k
D X     
0, o.c.
En consecuencia para resolver un problema de la forma H 0 :    0 vs. H 1 :   1 se puede adoptar
  
   
C  X tq.  X  k , donde el valor de k quede por determinar para que se satisfagan los
requisitos de potencia máxima en 1 y nivel  en 0 .

En muchos casos es posible dar la siguiente forma a la región crítica así obtenida:

  
  
C  X tal que  X  k ' y o  X  k" ,   
para alguna estadística T, donde k' y o k" también se determinan a partir de la solución del problema de
optimización:

 C    ,   0

 C   max  C ,   .

  C
 1

124
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Notación

Hemos visto, que dado un valor   0,1 para resolver un problema de docimasia, usualmente resulta
una región crítica C en términos de una estadística T asociada a una cierta distribución D, muy posiblemente
en términos de D1 , D , D1 / 2 ,o D / 2 .

Aprovechando esta curiosidad, los diversos softwares estadísticos, proporcionan resultados basados en un
particular valor de probabilidad de la estadística T observada, denominado p-valor o p-value ; concepto que
ahora se expone.

Si X 1  x1 ,..., X n  xn , son las observaciones obtenidas al considerar una m.a.(n) de la población en


estudio:

x  ( x1 ,..., xn ) es un de observaciones

x  : se dice que es el valor de T observado

p-value: es el valor de la significancia observada o probabilidad del conjunto asociado a la región crítica
originado al reemplazar el valor de la (tabla de) distribución por del valor T observado.

A continuación, citamos algunos casos de cálculo de significancia para la correspondiente región crítica:

a) {m.a.(n) tq.   D1 }=C ; p  value  P({m.a.(n) / T  T ( x )})  1  F (  x )


p-value <  la muestra C
p-value >  la muestra C.

b) {m.a.(n) tq.   D } =C ; p  value  P({m.a.(n) / T  T ( x )})  1  F (  x )


p-value >   la muestra C
p-value <   la muestra C.

c) {m.a.(n) tq.   D1 / 2 }=C ; p  value  P({m.a.(n) / T | T ( x ) |})  1  F (| T ( x ) |)



p-value >  la muestra  C
2

p-value <  la muestra  C.
2

Se alerta al lector, que para utilizar resultados efectuados mediante procedimientos computacionales, es
imprescindible interpretar adecuadamente el p-value según se ha indicado.

En la siguiente sección exponemos en su forma más sencilla (a un criterio) una importante herramienta
útil para detectar si una variable presenta alteraciones en presencia de dosificaciones de una u otras
variables. Por lo tanto conveniente de abordar previo a la modelación de una determinada característica.

125
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

6.1.- PROBLEMAS CLASICOS

Basándonos en estos argumentos a continuación presentamos diversos problemas con sus respectivas
regiones críticas C de nivel . El lector podrá verificar, la estrecha relación complementaria entre tales
regiones críticas y respectivos intervalos de confianza presentados en el capítulo anterior.

6.1.1.- Una muestra aleatoria; X1,..., Xn m.a.(n) de una población:


6.1.1a.- Bernoulli B(1,p)
Dócimas para p
H0 : p  p0 vs. H1 : p> p0 ; C={m.a.(n) / T>N1- (0,1)}
H0 : p  p0 vs. H1 : p< p0 ; C={m.a.(n) / T<N (0,1)}
H0 : p = p0 vs. H1 : p p0 ; C={m.a.(n) / T >N1-/2 (0,1)}
donde T= n X  p 0  / p 0 q 0  N(0,1), q0 =1- p0
A continuación, se ilustra las respectivas regiones crúiticas ,con 5% de significancia :

Ejemplo6.1
Para los datos del Ejemplo5.1, verifiquemos si efectivamente tal m.a.(n=20) procede de una B(1,0.3),
es decir de un experimento con 30% de tasa de respuestas afirmativas.
En este caso p0=0.3 y fijemos una significancia del 5%:
H0 : p = 0.3 vs. H1 : p 0.3 ; C={m.a.(n) / T >N1-/2 (0,1)},

126
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

N1-/2 (0,1)= N0.975 (0,1) =1.96


T  n  X  p 0 / p 0 q 0  20 0.35  0.3 / 0.3  0.7 =|0.48|=0.48; se encuentra en Cc
Por tanto, no existe evidencia significativa para dudar que la muestra proceda de una población
Bernoulli B(1,0.3)
n media T-observado Valor tabla p-value
20 0.3500 0.4880 1.96 0.6256
Script :
n=length(x); p0=0.3; T=sqrt(n)*(mediax-p0)/sqrt(p0*(1-p0))
disp(' n media T-observado Valor tabla p-value ')
disp([ n mean(x) T norminv(0.975) 2*(1-normcdf(T))])

Debido al resultado muestral X =0.35, n=20 , para los problemas :


H0 : p  0.3 vs. H1 : p> 0.3 ; p-value=P(T>0.4850)=0.3138>0.05
H0 : p  0.3 vs. H1 : p< 0.3 ; p-value=P(T<0.4850) =0.6861>0.05
O también vista la comparación de t=0.4850 con los valores de tabla: -1.96 -1.6449, 1.6449, 1.96, y
áreas achuradas que marcan las correspondientes regiones críticas en los gráficos que se acompaña; no
se hace posible rechazar alguna de estas hipótesis.
Resultado T Problema de Hipótesis Decisión: Valor p̂ crítico
p̂ = media observado Test Existe evidencia
Referentes a p=0.3 significativa para
muestral para
otras
m.a.(n=20)
0.55 2.4398 H0 : p = 0.3 vs. H1 : p 0.3 Rechazar 0.5008
0.48 1.7566 H0 : p  0.3 vs. H1 : p> 0.3 Rechazar 0.4686
0.1 -1.9518 H0 : p  0.3 vs. H1 : p< 0.3 Rechazar 0.1314
p̂ : Valor de p crítico, resultado muestral, que produce cambio de opinión para tal problema de hipótesis

También podemos efectuar una representación de las correspondientes funciones de potencia para cada
Test. Donde se aprecia: nivel  =0.05 y PUM en H1 , principios bajo los cuales se han resuelto los
respectivos problemas de optimización , para tales toma de decisiones:

La función de potencia  jp X  en H es la probabilidad que una muestra ϵ C para el respectivo caso j:
1

-H0 : p  0.3 vs. H1 : p> 0.3 ; C={m.a.(n) / T>1.6449},


C p  0.3  P(T  1.6449 p  0.3)  P( n X  p 0 / p 0 q 0  1.6449 p  0.3) =
P( X  p0  1.6449 p 0 q 0 / n p  0.3)  P( n X  p / p(1  p)  n b  p  / p(1  p)
con Z= n X  p  / p(1  p) es N(0,1) aprox. b  p0  1.6449 p 0 q 0 / n , entonces:

1 p  
X = P( Z  n b  p  / p(1  p) p  0.3)
a  p0  1.6449 p 0 q 0 / n
- H0 : p  0.3 vs. H1 : p<0.3 ; C={m.a.(n) / T<-1.6449},

2 p  
X  P(T  1.6449 p  0.3)  P(Z  n a  p  / p(1  p) p  0.3) ,
-H0 : p = 0.3 vs. H1 : p 0.3 ; C={m.a.(n) / T >1.96}
Siendo: a3  p0  1.96 p 0 q 0 / n , b3  p0  1.96 p 0 q 0 / n

3 p  
X  P(| T | 1.96 p  0.3)  P(T  1.96  T  1.96 p  0.3) ,
 P(T  1.96 p  0.3)  1  P(T  1.96 p  0.3)

127
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 P( Z  n a3  p  / p(1  p) p  0.3) 


1  P( Z  n b3  p  / p(1  p) p  0.3)

Tal discusión, se recomienda al lector que la efectúe de forma similar para los casos de comparaciones
de parámetros que a continuación se desarrollan.

Script:
valorcritico= [-1.6449, 1.6449, 1.96 ]; mediax=p0-(valorcritico/sqrt(n))*sqrt(p0*(1-p0))
p0=0.3; n=20; mediax=[0.1 0.48 0.55]; T=sqrt(n)*(mediax-p0)/sqrt(p0*(1-p0))
p=0.001:0.01:0.999999;b=p0+sqrt(p0*(1-p0))*1.6449/sqrt(n); a=p0-sqrt(p0*(1-p0))*1.6449/sqrt(n); z1=sqrt(p.*(1-p)).^(-1)
plot(p,normcdf(sqrt(n)*(a-p).*z1), p,1-normcdf(sqrt(n)*(b-p).*z1) );
c2=p0+sqrt(p0*(1-p0))*1.96/sqrt(n); c1=p0-sqrt(p0*(1-p0))*1.96/sqrt(n)
pdc= normcdf(sqrt(n)*(c1-p).*z1)+1-normcdf(sqrt(n)*(c2-p).*z1);plot(p,pdc)

6.1.1b.- Normal N  , 2



-Dócimas para la media
2.1.1)  conocido
H0 :   0 vs. H1 :  > 0 ; C={m.a.(n) / T> N1- (0,1)}
H0 :   0 vs. H1 :  < 0 ; C={m.a.(n) / T< N (0,1)}
H0 :  = 0 vs. H1 :   0 ; C={m.a.(n) / T>N1-/2 (0,1)}
donde T= n X   0  /   N(0,1)
Caso:  desconocido
H0 :   0 vs. H1 :  > 0 ; C={m.a.(n) / T > t 1- (n-1)}
H0 :   0 vs. H 1 :  < 0 ; C={m.a.(n) / T < t  (n-1)}
128
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

H0 :  = 0 vs. H1 :   0 ; C={m.a.(n) / T > t1-/2 (n-1)}


donde T= n X   0  / s  t (n-1)

Ejemplo6.2
Verifiquemos, si efectivamente los datos de Ejemplo5.2 al considerarlos que proceden de población
normal, esta es con media 85.
H0 :  = 0.3 vs. H1 :  0.3 ; C={m.a.(n) / T > t1-/2 (n-1)},
T= n X   0  / s = 0.2115 < 2.0227= t 0.975 (39) = t1-/2 (n-1) ; no hay evidencia para rechazar H0

media desv.std decisión intervalo confianza T g.l p-value


85.1152 3.3508 0 84.0436 86.1869 0.2175 39.0000 0.8289
Script :
n=length(x); mu=85; T=sqrt(n)*(mean(x)-mu)/std(x); [h,p,ci,stats]= ttest(x,85,0.05,'both')
disp('media desv.std decisión intervalo confianza T g.l p-value ')
disp([mean(x) stats.sd h ci stats.tstat stats.df p ])

- Dócimas para la varianza


Caso: conocido
H0 :   0 vs. H1 :  > 0 ; C={m.a.(n) / T >  12 (n)}
C={m.a.(n) / T <   (n)}
2
H0 :   0 vs. H1 :  < 0 ;
C={m.a.(n) / T >  1 / 2 (n)}
2
H0 :  = 0 vs. H1 :   0 ;
n

 X    /  02   2 n 
2
donde T= i
i 1
Caso:  desconocido

129
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

H0 :   0 vs. H1 :  > 0 ; C={m.a.(n) / T >  12 (n-1)}


C={m.a.(n) / T <   (n-1)}
2
H0 :   0 vs. H1 :  < 0 ;
C={m.a.(n) / T >  1 / 2 (n-1)}
2
H0 :  = 0 vs. H1 :   0 ;
donde T= (n-1) s 2 /  02   2 n  1

Ejemplo6.3
Verifiquemos, si los datos del Ejemplo5.2, asumidos de comportamiento normal; tienen una dispersión
igual a 3.
H0 :  = 3 vs. H1 :   3 ; C={m.a.(n) / T > 12 / 2 (n-1)}
Para este caso : n=40 ; T  (n -1)s 2 /  02  39s 2 /9   2 39
T=39 (3,3508)2/9 = 48.6541< 58.1201; por lo cual, no hay evidencia significativa a un nivel del 5%
para rechazar que 2 = 9

6.1.1c.- Caracterizada, presumiblemente por un miembro de la familia de (densidades o cuantías)

dF  f x ,    IRp, ante la conjetura:


H 0 : dF  f x  para algún     IRp H1 : dF  f x , 

130
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Para resolver este problema, se proponen las siguientes estrategias


Dócimas de Bondad de Ajuste:

6.1.1c.1.- Chi-cuadrado ( χ2)


Originalmente diseñada para una dF discreta totalmente especificada, se implementa a una base de datos
de una v.a. debidamente resumida en una tabla de frecuencias:

Clases frecuencias frecuencias


observadas esperadas
(absolutas) (absolutas)
1 1 1
:
i i i
:
k k k

Siendo  Estimador de Máx.Verosimilitud


de  bajo H0 ;
 i = número esperado de observaciones según H0
 n i H 0 ,  ˆ  n dFˆ
i

C={m.a.(n) tales que T >  2


1 (k-p-1)}
k
 i   i 2
con T=  i 1 i
  2 (k-p-1)

Ejemplo6.4

Consideremos la información pertinente, que se encuentra resumido a 7 categorías en la tabla de


frecuencias del Ejemplo1.3. La que verificaremos si efectivamente obedece a una conducta (o
comportamiento) normal .
H 0 : dF  Normal( , 2 ) , vs H1 : dF  Normal( , 2 ) ;   ( , 2 )
Para tal propósito, efectuamos las adecuaciones que se presentan en la nueva tabla, y agregamos una
columna de frecuencias esperadas dada por las respectivas probabilidades bajo supuesto de normalidad
con parámetros obtenidos por MMV ( Método de Máxima Verosimilitud):

Ei  n dFˆ  nP( X  Ai ), X ~ N(ˆ , ˆ 2 ), ˆ  78.5767, ˆ 2  156.1601 ,


i

Estimaciones, que fueron parte del cálculo en Ejemplo1.6 y Ejemplo1.7,

131
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

i Oi P(Ai)
i  i 2
i
]-∞ ; 51.4000] 0 0.0148 0
[51.4000 ; 57.9714] 5 0.0348 0.7092
[57.9714 ; 64.5429] 4 0.0811 0.1893
[64.5429 ; 71.1143] 10 0.1445 0.6723
[71.1143 ; 77.6857] 7 0.1964 0.2357
[77.6857 ; 84.2571] 7 0.2037 0.2267
[84.2571 ; 90.8286] 17 0.1613 1.7581
[90.8286 ; 97.4000] 10 0.0974 1.0064
[97.4 ; +∞[ 0 0.0660 0.0001
Total 60 1 T=17.1787

Como p=2; gl= k-p-1=9-3=6, debido a que : T> valor crítico=14.4494; entonces disponemos de
evidencia que la distribución se aparta significativamente de un comportamiento Normal.

Por otra parte, MATLAB directamente entrega una solución aproximada, al truncar la
distribución y por ende reducir gl.:
decisión T gl p-value
indica rechazo----------- 1.0000 16.0798 5 0.0066

Extremos de (k=8) intervalos:


[51.4000 65.2000 69.8000 74.4000 79.0000 83.6000 88.2000 92.8000 97.4000]
Valores observados. O: [11 6 3 8 4 11 12 5]
Valores esperados E: [8.5326 5.9415 7.6721 8.6645 8.5584 7.3935 5.5862 7.6512]
En ambos casos la estimación considerada para los parámetros es: mu = 78.5767 , sigma = 12.4964

Script:
n=length(x5)
x=[51.4 57.9714 64.5429 71.1143 77.6857 84.2571 90.8286 97.4], sqrt(156.1601)
F=normcdf(x,78.5767, sqrt(156.1601));
A=[ -1 1 0 0 0 0 0 0; 0 -1 1 0 0 0 0 0;0 0 -1 1 0 0 0 0;0 0 0 -1 1 0 0 0; 0 0 0 0 -1 1 0 0 ; 0 0 0 0 0 -1 1 0; 0 0 0 0 0 0 -1 1;]
E=n*A*F'; EE=[normcdf(51.4, 78.5767,sqrt(156.1601)); E; 1-normcdf(97.4,78.5767,sqrt(156.1601))]; sum(EE)
o=[0 5 4 10 7 7 17 10 0];h=((o'-EE).^2)./EE; T=sum(h)
[h,p,stats]=chi2gof(x5,'Alpha', 0.05);% cálculo directo sobre los datos originales x5; pd=fitdist(x, 'Normal')

6.1.1c.2.- Kolsmogorov-Smirnov(K-S)
Sea Fn la distribución empírica de una v.a. X ; distribución basada en una m.a.(n) de X.
0 , x  X (1)


r
Fn ( x)   , X ( r )  X  X ( r 1)
n

1 , X  X (n)

donde X (r ) , es la estadística de orden r en la m.a.(n)

Caso: Distribución Fn=F totalmente especificada ( modelo y parámetros conocidos)

132
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

C={m.a.(n) tales que T > D1 (n) }, donde T = sup Fn ( x)  F ( x) 


xIR
D distribución (K-S), la cual se transforma en D* mediante factor de corrección para respectivos casos de
distribución propuesta no totalmente especificada ( se conoce el modelo pero no los parámetros), se
identifican parámetros mediante EMV. Las siguientes son las respectivas correcciones para test de:
 0.85 
Normalidad: D1* (n)   n  0.01   D1 (n)
 n 
 0.5  0.2 
Exponencial: D1 (n)   n  0.26   D1 (n)   … entre otros.
*

 n  n

Ejemplo6.5
De manera alternativa, a lo desarrollado en Ejemplo6.4, realicemos ahora el test K-S

decisión p-value estadística K-S Valor Crítico


0 0.1464 0.1382 0.1723
No existe evidencia de discrepancia con distribución Normal a un 5%de significancia
El lector puede verificar; que es análisis se puede efectuar indistintamente con los datos originales o
estadarizados, puesto que al mencionar normalidad, esta ocurre para ambos casos, con valores de
distribución idénticos, salvo cambio de escala en eje de las absisas.

Script:
z=(mean(x5)-x5)/std(x5); % puntajes Z;[a,b,c]=ecdf(z); plot(b,normcdf(b),b,Fn)
[h,pvalue,estadKS,valorcriticotest] = kstest(z,[z normcdf(z)],0.05)
disp('decisión p-value estadística K-S Valor Crítico'); disp([h,estadKS,pvalue,valorcriticotest])

Ejemplo6.6
Mediante simulación, dispongamos de una muestra de n observaciones N(1,4) y verifiquemos si
efectivamente procede de una distribución Normal mediante test K-S.

Con lo cual se obtuvo una m.a. donde la estimación por método MV es:
Media muestral= 0.54
Desv.std.=4.16.46,
Se aprecia en la correspondiente figura que la mayor discrepancia , entre distribución empírica y teórica
ocurre en x=-2 aprox.

133
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Output de las pertinentes sentencias:

h=0: indica no rechazar H0


P= 0.9129: p-value
CV=0.2417: valor crítico aprox.
T=0.0973: valor Estadística K-S
Por tanto no tenemos evidencia para
descartar que la muestra proceda de
una v.a. Normal.

Script:
x=normrnd(1,4, 30,1); % simulación de una m.a.(30)N(1,16); [Fn , xestorden]=ecdf(x); % distribución empírica en azul
plot(xestorden,Fn,xestorden,normcdf(xestorden,mean(x),std(x))); [H,P,T,CV] = kstest(x,normcdf(x,mean(x),std(x)),0.05)

6.1.1c.3.- Dócima de independencia en tablas de contingencia


En este caso, es una aplicación del caso I.3.I (Bondad de Ajuste Chi-cuadrado), el cual opera de la
siguiente manera.
Las observaciones se han clasificado a dos criterios (en una tabla de frecuencias
bidimensional) en l lineas y c columnas. Observándose en cada celda las frecuencias observadas  ij ,
i=1,...,1; j=1,...,c.

1  j c
Si denotamos como:
A 11 1 j 1c ij  X h   i   j 
:
i i1  ij ic i.   X h   i 
:
l  l1  lj  lc . j  X h   j 

Se asume independencia en dicha clasificación siempre y cuando pi. p. j coincide con pij para todo i,j.
Para estudiar si tal propiedad se cumple en dicha población , se estudia el siguiente problema:

H0 : ij  i.. j , i, j. vs. H1 :  i, j tal que ij  i.. j

Siendo: pi. , p. j los respectivos estimadores de máxima verosimilitud para pi. , p. j , bajo H0 ; tenemos
1 c 1 l
pˆ i.    ij
n j 1
, pˆ . j    ij
n i 1

 ij = número esperado de observaciones en i   j según H0


 n p̂ i. p̂ .j
1 c  l 
    ij    ij 
 
n  j 1  i 1 
C={m.a.(n) tales que T >  1 (c-1)(l-1)}
2

134
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

l c    ij 
2

   2 ((c-1)(l-1)) en muestras grandes.


ij
con T=
i 1 j 1  ij

En el caso l=c=2 (Yates) se recomienda utilizar


l c    ij  0.5 2


ij

i 1 j 1  ij

Ejemplo6.7
Para la Tabla1 de frecuencias observadas (Oij) de clasificación del ejemplo 1.4, en tal oportunidad la Tabla3
contiene (Eij/n). Entonces para resolver aun 5% de significancia:
H 0 : ij  i.. j , i  1,2,3; j  1,2 vs. H1 :  i, j tal que ij  i.. j
H0: independencia entre jornada de trabajo y condiciones ambientales, vs H 1: situaciones probablemente
relacionadas
C={m.a.(n=60) tales que T >  0.95 ((1)(2))}={m.a.(n=60) tales que T >  0.95 (2)}
2 2

Disponemos entonces de: n=60 observaciones

Oij Eij
31 0 23.16 7.7502
0 15 11.25 3.75
14 0 10.5 3.5

T=58.9279> 5.0515=  02.95 (2)


Por ello, podemos afirmar que ambas situaciones dependen significativamente entre si; a un nivel del 5%

Script:
n=60;chi2inv(0.92,2)
O=[31 0;0 15;10 0]; Edivn=[0.386 0.12917; 0.1875 0.0625; 0.175 0.058333]
E=n*Edivn; sum(sum(((O-E).^2)./E))

6.1.2.- Dos muestras aleatorias independientes:


X1,..., Xn m.a.(n) de una población X,
 1 ,...,  m m.a.(m) de una población Y; muestras independientes:

6.1.2a.- X  1, px ,    1, p y  
Dócimas para diferencia de proporciones.

H 0 : x  y vs. H1 : x  y ; C = m.a.n, m /   1 0,1


H 0 : x  y vs. H1 : x  y ; C = m.a.n, m /    0,1

135
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

H 0 : x  y vs. H1 : x  y ; C = m.a.n, m /   1 / 2 0,1

X 
donde  1/ 2
 N(0,1)
X  
 1  X   1   
n m 

Ejemplo6.8
Retomemos los datos del Ejemplo5.3 y resolvamos a un nivel de significancia del 5%, la conjetura (
afirmación) que no hay diferencias de respuestas entre hombres y mujeres:
Como las respuestas para cada caso son del tipo {0,1}, formalmente nuestro problema es:
H 0 : x  y vs. H1 : x  y ; C = m.a.n  20, m  15 /    0.9750,1

X  0.35  0.4
 1/ 2
  - 0.2931  0.2931 <1.96=  0.9750,1
X  
 1  X   1   
0.0291
n m 
Pudiéndose afirmar, que no existe evidencia de diferencias significativas de respuestas entre hombre y mujeres.

Mediante sentencia MATLAB se dispone de un resultado muy aproximado ( ya que es una aplicación para
muestras normales, con varianzas conocidas)
diferencias entre medias desv.std decisión intervalo de confianza T gl p-value
-0.0500 0.4970 0 -0.3953 0.2953 -0.2946 33 0.7702

Script:
x=[0 1 0 0 0 0 0 0 0 1 0 1 1 1 1 0 0 0 0 1]; y=[0 0 1 1 1 1 0 0 0 0 1 0 0 1 0]; [h, p,iclim,stats]=ttest2(x,y)
disp('diferencias entre medias desv.std decisión intervalo de confianza T gl p-value]')
disp([mean(x)-mean(y) stats.sd h iclim stats.tstat stats.df p] )

6.1.2b.- X   x , x2 ,    y , y2 

Dócimas para diferencia de medias.

-varianzas conocidas
H0 : x   y vs. H1 :  x   y ; C = m.a.n, m /   1 0,1
H0 : x   y vs. H1 :  x   y ; C = m.a.n, m /    0,1
H0 : x   y vs. H1 :  x   y ; C = m.a.n, m /   1 / 2 0,1

X 
donde   1/ 2
 N(0,1)
  x2  y2 
  
 n m 
 

-varianzas desconocidas

Caso: k  x   y para algún k conocido.


2 2

136
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

H0 : x   y vs. H1 :  x   y ; C = m.a.n, m /   t1 n  m  2


H0 : x   y vs. H1 :  x   y ; C = m.a.n, m /   t  n  m  2
H0 : x   y vs. H1 :  x   y ; C = m.a.n, m /   t1 / 2 n  m  2

s 2p  n  1sx2  m  1s 2y  / n  m  2


X 
donde    t(n+m-2) con
sp 1 / n  k / m

Caso:No se dispone de información adicional


H0 : x   y vs. H1 :  x   y ; C = m.a.n, m /   t1 v
H0 : x   y vs. H1 :  x   y ; C = m.a.n, m /   t  v 
H0 : x   y vs. H1 :  x   y ; C = m.a.n, m /   t1 / 2 v 
X 
 t(v), distribución simétrica, con
sx2 / n  sy2 / m

  2

2
 
v  s x2 / n  s y2 / m / s x2 / n / n  1  s y2 / m / m  1 .
2

Ejemplo6.9
Consideremos la información proporcionada en Ejemplo5.4 y analicemos el tráfico es similar en ambas
jornadas.
Disponemos de n=17, m=20Asumiendo comportamiento normal en ambos horarios, disponemos de
H0 : x   y vs. H1 :  x   y ; C = m.a.n, m /   t1 / 2 v 

Diferencia desvsd n m T gl p-value Valor crítico


-13.7505 2.3780 17 20 5.7825 24.5040 0.0000 2.0617
Indica, que existe evidencia de discrepancia significativa (a un nivel del %5 de significancia).

El output que proporciona la sentencia ttest2 de MATLAB, para el Ejemplo6.8 es propicia, pero la
advertimos estándard, y no es apta para el presente caso, ya que utiliza grados de libertad glMlab=(n+m-2):
decisión desv.stdMlab intervalo de confianzaMlab TMlab glMlab p-valueMlab
señala rechazo -- 1.0000 7.6881 -18.8992 -8.6019 -5.4218 35 0.0000

Script:
x=[9.2202 11.1292 15.8082 13.6085 20.1604 20.3646 12.6768 18.5005 20.5818 16.2839 21.4935 19.2497 15.8564
18.5072 15.7776 13.3404 16.4338];
y=[ 25.3260 21.7183 40.9392 26.9915 49.5734 22.3345 30.0787 39.2436 49.5631 27.7321 17.8877 32.2304
13.1209 22.5354 27.4468 38.4060 37.9343 24.7519 33.3154 22.1085]
n=length(x); m=length(y);alpha=0.05;nu=(((var(x))/n +(var(y))/m)^2)/((((var(x))/n )^2)/(n-1) +(((var(y))/m )^2)/(m-1));
Tcritico=tinv(1-alpha/2,nu);diferencia=mean(x)-mean(y); desvsd=sqrt(var(x)/n +var(y)/m);
T=abs(diferencia/desvsd); pvalor=2*(1-tcdf(T,nu));
disp(' diferencia desvsd n m T gl p-value Valor crítico '); disp([ diferencia desvsd n m T nu pvalor Tcritico ])
% no utilizar para este tipo de problemas la sentencia ttest2
[h, p,iclim,stats]=ttest2(x,y); disp('decisión desv.stdMlab intervalo de confianzaMlab TMlab glMlab p-valueMlab ' )
disp([h stats.sd iclim stats.tstat stats.df p ] )

137
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

6.1.3.- Muestra repetida:


 X1 , 1 ,...,  X n , n  m.a.(n) de una población (X,Y), tal que (X, Y)  N  , V, con    x ,  y .

Dócimas para diferencia de medias

H o :  x   y vs. H1 :  x   y ; C  m.a.n  /   t1 n  1


H o :  x   y vs. H1 :  x   y ; C  m.a.n  /   t1 n  1
H o :  x   y vs. H1 :  x   y ; C  m.a.n  /   t1 / 2 n  1.


X  n
 t n  1 donde d i = X i  i , sd2   i
d d 
d  X  

2

sd i 1 n 1
n

(En los problemas de comparaciones de medias citados en II.2 y III nos puede interesar docimar
hipótesis referentes a comparación de medias respecto de un valor a fijo como las siguientes:

H o :  x   y  a vs. H1 :  x   y  a
H o :  x   y  a vs. H1 :  x   y  a
H o :  x   y = a vs. H1 :  x   y  a
en cuyo caso las regiones críticas respectivas mantienen su forma pero con un cambio en el numerador de
la estadística T, que consiste en considerar ahora X    a en lugar de X   ).

Ejemplo6.10
En referencia a la m.a.(n=20) del Ejemplo5.5 , analicemos la afirmación: no hay diferencia entre respuestas
H o : p x  p y vs. H1 : p x  p y ; C  m.a.n  /   t.97519.

 t n  1 donde d i = X i  i
d

sd
n
Con observaciones:
d: 0 1 0 0 -1 0 0 0 -1 1 -1 0 0 0 1 0 -1 -1 0 1

media desv.std decisión intervalo confianza T g.l p-value


-0.0500 0.6863 0 -0.3712 0.2712 -0.3258 19 0.7481
Siendo posible afirmar, que no se encuentran diferencias significativas entre respuestas de hombres y
respectivas parejas en estas entrevistas.

Script:
d=[0 1 0 0 -1 0 0 0 -1 1 -1 0 0 0 1 0 -1 -1 0 1]; [h,p,ci,stats]= ttest(d,0,0.05,'both')
disp('media desv.std decisión intervalo confianza T g.l p-value ')
disp([mean(d) stats.sd h ci stats.tstat stats.df p ]);

138
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo6.11
Analicemos, si en cierto modo, es posible afirmar, que no hay diferencia entre la capacidad de reconocimiento
de imágenes por los métodos RNA y PCA, en base a los datos utilizados en Ejemplo5.6 y bajo el supuesto de
normalidad de esta información.
Consideremos entonces la normalidad conjunta de las variables (X,Y), significancia del 5%:

H o :  x   y vs. H1 :  x   y ; C  m.a.n  /   t 0.97559.


X 
  t n  1 donde d i = X i  
sd
n

media desv.std decisión intervalo confianza T g.l p-value


1.5000 19.6193 0 -3.5682 6.5682 0.5922 59 0.5560
Así; se aprecia que no existen diferencias ostensibles (importantes o significativas) entre ambos
procedimientos, a un nivel de significancia del 5%.

Script:
[h,p,ci,stats]= ttest(d,0,0.05,'both'); disp('media desv.std decisión intervalo confianza T g.l p-value ')
disp([mean(d) stats.sd h ci' stats.tstat stats.df p ])

6.2.- ANALISIS DE VARIANZA DE EFECTOS FIJOS

Primeramente, abordaremos el análisis a un criterio, el cual surge de una necesidad muy frecuente en el análisis
donde se estudia la intervención de un factor ( entre otros u otras circunstancias) que afectan a una variable
denominada dependiente, por lo eventualmente dependiente de tales factores.

6.2.1.-ANÁLISIS A UN CRITERIO
Diversos problemas de decisión, requieren más de 2 parámetros a considerar. Como es el caso de analizar
cinco tipos de tratamientos se suelos (procesos de producción, modificaciones a un producto, etc.). Si
5
lo abordamos por dócimas de medias, tendremos    10 diferentes problemas de docimasia, lo que
 2
incurre en una modificación notoria del error tipo I en su conjunto.

Efectivamente, si =0.05 es error tipoI en cada uno de estos 10 problemas, entonces:


1-=0.95=P(aceptar Ho) en cada problema, suponiendo que tales dócimas son independientes en los 10
problemas tendremos que (0.95)10 = 0.6. Así el error tipo I para nuestro problema por tal método sería de
0.4.

Un adecuado procedimiento fue incialmente elaborado para resolver este tipo de problemas que se
denomina precisamente análisis de varianza y es el que exponemos en las siguientes líneas:

Suponga que:

 Se dispone de m niveles (tratamientos) de un factor simple que deseamos comparar. La respuesta a


observar en cada nivel es una v.a..

139
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 Designamos de la siguiente manera a nuestras variables, y ij representa j-ésima observación bajo el


tratamiento i,

 Consideremos las sgtes. observaciones yi1,..., yin de una m.a.(n) de la v.a. Y. Con lo cual estamos en
presencia de la siguiente disposición de la información muestral:

observaciones
1 y11 y12 ......... y1n1
Tratamientos 2 y21 y22 ......... y2n2
3 y31 y32 ......... y3n3
:
:
m ym1 ym2 ......... ymn m

Consideremos que las respuestas a los diversos tratamientos, están en términos de los efectos  i que
ellos provocan, de manera aditiva en cada unidad observada:

ij     i   ij , j  1,...., n i , i  1,2,...., m, .

Supongamos además que  ij ~ N(0,  2 ) independientes e idénticamente distribuidas. En tal caso:


Yij ~  
    i , 2 , j  1,..., n

Usualmente  i se define como desviaciones de su propia media, entonces: 1 ....  m  0

Notaciones:
ni m ni
yi   yij , y..   y ij
j 1 i 1 j 1

yi  yi / n, y..  y.. / N , N  n1  ...  ni  ...  nm  n

6.2.1.1.-Dócima de efectos de tratamientos

Ho : 1  2 ...  m  0 . i  0
vs

Para lo cual debemos considerar la suma de cuadrados total:

  y  y..     y  y..   yij  yi.  


m ni m ni
2 2
ij i.
i 1 j 1 i 1 j 1

  ni  yi.  y..    yij  yi.   2  yi.  y  yij  yi. 


m m ni m ni
2 2

i 1 i 1 i 1 i 1 j 1

140
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

  y  y..   ni  yi.  y..   yij  yi. 


m ni m m n
2 2 2
ij
i 1 j 1 i 1 i 1 j 1

Expresión que se interpreta como:

 SUMA DE CUADRADOS   SUMA DE CUADRADOS   SUMA DE CUADRADOS 


     
 TOTAL    ENTRE TRATAMIENTOS   DENTRO TRATAMIENTOS
 SST    SS MODELO    SS ERROR  
     

por lo tanto:

SST
=SSMODELO + SSERROR  SSERROR = SST SS
- MODELO

m(n-1)=mn-m=N-m
grados
de
libertad
} N-1 = m-1 + N-m

Además en términos operacionales resulta que:


m ni
y..2 m
y..2
SS    yij2  además SSMODELO   yi2. 
i 1 j 1  i 1 j

En lo que respecta al comportamiento de tales sumas de cuadrados, reemplazamos y por Y en cada término de
cada una de las expresiones anteriores; siendo entonces que podemos decir:

SS /  2  x2 1 , SS MODELO /  2  X 2m1 , SS ERROR /  2  x2 m 

En consecuencia si consideramos las respectivas sumas de cuadrados medios que denotamos por:
MSST=SST /(N-m), MSSM=SSMODELO / (m-1), MSSE=SSERROR /(N-m)= ˆ 2
pudiendo concluir entonces que la estadística:

T = MSSM / MSSE ~ F(m-1,N-m),


además define la región crítica,

C = {m.a.(N) tales que T > F1 (m-1,N-m)}


asociada al problema de docimasia propuesto.

Los pasos que hemos realizado para lograr la


región crítica C, se resumen en la siguiente
tabla, denominada de análisis de varianza
y referida como ANOVA:

141
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

TABLA ANOVA (ANDEVA)


FUENTE DE SUMA DE GRADOS CUADRADO ESTADÍSTIC DISTRIBUCIÓN
VARIACIÓN CUADRADOS DE MEDIO AT F
LIBERTAD
MODELO SSMODELO m-1 SS MODELO F(m-1,
MSSM 
m 1 MSSM F(m-1,N-m) p-value
ERROR SSerror N-m SSerror MSSE
MSSE 
N m
TOTAL SSTOTAL N-1 SSTotal
MSST 
N 1

p-value inferior a 0.05, ( indica evidencia para rechazar H0); deja en evidencia, la existencia de diferencias
significativas a un nivel del 5% (de significancia) entre tratamientos.

Ejemplo6.12
Basándonos en la información dispuesta en Anexo de Cap.1, ahora es técnicamente posible responder la
interrogante:
¿Podrá ser posible que la performance del procedimiento de reconocimiento de imágenes via RNA, esté afecta
a la jornada en que fue realizada?.

Tipo de Jornada: la forman 3 categorías (mañana,tarde ,noche) que dan objeto a tres grupos de respuestas de
performance RNA:
Tamaños de muestra Medias por tratamiento
ni medias p/grupo
31 80.4613
15 79.5400
14 73.3714
ANOVA Table
Source SS df MS F Prob>F
Groups 503.3492 2 251.6746 1.647 0.20166
Error 8710.0981 57 152.8087
Total 9213.4473 59

En base a p-value, podemos afirmar que: no se


aprecian diferencias significativas de resultados de
performance, entre las distintas jornadas en que se
efectuó el estudio.

El gráfico de cajas, ilustra la situación y a pesar de


destacarse los resultados del grupo noche, en este
caso no lo es significativamente.
El lector puede verificar que tampoco la condición clima afecta
esta performance y lo mismo ocurre con PCA.

Script:
[p,tbl,stats]=anova1(x5,x1); disp(' ni medias p/grupo');disp([stats.n' stats.means'])

142
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo6.13

Admitiendo que el peso promedio Y [kg.] de cosecha de producto por planta, tiene un comportamiento
Normal y considerando las siguientes observaciones:
5.275 5.745 4.549 4.453 5.334 5.732 4.593 4.444
Que se acompaña de respectivos antecedentes de riego, fertlizante, y tipo de suelo:
Tipo de riego : 1 2 1 2 1 2 1 2
Fertilizante: si si no no si si no no
Tipo de suelo: arenoso arenoso arenoso arenoso otro otro otro otro

Determinar si el peso Y está afectado por alguna de estos antecedentes y/o interacción de ellos.

La información proporcionada se debe almacenar de la sgte. forma:


Peso f1 f2 f3
5.275 1 si arenoso
5.745 2 si arenoso
4.549 1 no arenoso
4.453 2 no arenoso
5.334 1 si otro
5.732 2 si otro
4.593 1 no otro
4.444 2 no otro

Una vez analizadas c/u de las tablas ANOVA para detectar el aporte de los respectivos efectos por si
solos. La sgte., de efecto f2, es la única que detecta efectos significativos :

ANOVA
Source SS df MS F Prob>F
Groups 2.0473 1 2.0473 59.5728 0.0002481*
Error 0.2062 6 0.034366
Total 2.2535 7

Efectivamente , indica (*) que Tipo de fertilizante es


el efecto entre los tres en estudio, que presenta un aporte
significativo.

Script:
y = [5.275 5.745 4.549 4.453 5.334 5.732 4.593 4.444]';f1 = [1 2 1 2 1 2 1 2]; f2= {'si';'si';'no';'no';'si';'si';'no';'no'};f3= {'arenoso';
'arenoso'; 'arenoso'; 'arenoso'; 'otro'; 'otro'; 'otro'; 'otro'}; anova1(y,f2)

143
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

6.2.1.2.- Estimación de parámetros:

6.2.1.2.1.- Puntual

Siendo eij = yij --i los residuos del modelo en estudio; al aplicar el método de mínimos cuadrados
(M.M.C.), nos planteamos la minimización de:

L  L ,    eij2    yij     i 


m ni m ni
2

i 1 j 1 i 1 j 1

 m ni
   yij        0
L L  i 1 j 1
 0 m
u  i   y       o,   1,2,..m

j 1
ij i i

L L  m ni

u  i    yij        0
 i 1 j 1
0 m
 ,  ,   y       o,   1,2,..m

j 1
ij i i

Como el efecto de los tratamientos es una desviación de la media general, es plausible adicionar al sistema
m
anterior la restricción 
i 1
i  0. Obteniéndose como solución de éste a,

ˆ  y.., ˆi  yi.  y.., i  1,2,...m. Lˆ ,ˆ   Mín L , .
  , 
Además, si identificamos por: i      al efecto del tratamiento i entonces su estimación puntual
(M.M.C.) está dada por: ˆ i  ˆ  ˆ  yi.

6.2.2.2.-Intervalos para tratamientos

 2 
Se desprende fácilmente del modelo adoptado que: yi. ~  i , 
 ni 
Si  es conocido (situación que sabemos utópica), entonces
yi .   i
~  0,1;
2
ni
2 2
yi .  1 / 2 0,1  i.  yi.  1 / 2 0,1
ni ni
Cuando se desconoce el valor de ; entonces al reemplzarlo por su estimador:

144
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

yi.  i
~ t N - m ;
ˆ 2
ni
ˆ ˆ
yi.  t1-/2   m   i.  yi.  t1-/2   m 
ni ni

6.2.1.1.2.-Intervalos para diferencias entre tratamientos


Nuevamente, gracias a los supuestos del modelo, tenemos:
yi.  y j  i   j  yi.  y j  i   j 
Para  conocido:   N(0,1)
1 1 2 1 1
      
n n 
 i j   ni nj 

1 1 1 1
yi.  y j .      1 / 2 0,1  i   j  yi.  y j .      1 / 2 0,1
n n  n n 
 i j   i j 

yi.  y j  i   j 
Cuando  es desconocido:  t (N-m);
1 1
ˆ   
 ni n j 

1 1 1 1
yi.  y j .  ˆ    t1-/2   m  i   j  yi.  y j .  ˆ    t1-/2   m
n n  n n 
 i j   i j 

Ejemplo6.14

Estimemos con 95% de confianza, los resultados esperados por y entre tratamientos, basados en las n=60
observaciones abordadas en Ejemplo6.12.

n=60, m=3: número de tratamientos, ˆ 2  MSSE  152.8087 ; ˆ  12.3616 , 1   / 2  0.975

ˆ ˆ
yi .  t1-/2   m  i.  yi.  t1-/2   m
ni ni
Intervalo de confianza para i. :
limInf limSup
76.0154 84.9072
73.1486 85.9314
66.7557 79.9871
1 1 1 1
yi.  y j .  ˆ    t1-/2   m  i   j  yi.  y j .  ˆ    t1-/2   m
n n  n n 
 i j   i j 

145
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Intervalos confidenciales para la expectativa de la diferencia entre tratamientos :

i j limInf de confianza limSup de confianza


para i   j para i   j

1 2 -3.5246 5.3672

1 3 0.6985 13.4812

2 3 -0.4471 12.7843

De estos, no contiene al “0”el Intervalo de confianza para la diferencia entre tratamientos 1y 3; sin embargo
carecen de nivel de confianza global para las tres comparaciones, y por ende no puede ser interpretado como el
que induce a diferencias significativas, ya que ANOVA no la detectó. Estos, solo representan, para si mismos,
márgenes de respuestas confiables entre discrepancias. En cambio, si la ANOVA hubiera arrojado resultados
conducentes a rechazar su correspondiente hipótesis, entonces sabríamos que entre tratamientos 1 y 3 se
encuentra la discrepancia significativa entre los tres tratamientos.

Script:
N=60;m=3; alpha=0.05; sigma=12.3616;stats.n ;stats.means; tinv(1-alpha/2,N-m)
a=stats.means-sigma*((sqrt(stats.n)).^(-1))*tinv(1-alpha/2,N-m)
b=stats.means+sigma*((sqrt(stats.n)).^(-1))*tinv(1-alpha/2,N-m)
disp(' limInf limSup');disp([a' b'])
A=[1 -1 0;1 0 -1;0 1 -1];
a=A*(stats.means')- (sigma*((sqrt(stats.n)).^(-1))*tinv(1-alpha/2,N-m))'
b=A*(stats.means')+ (sigma*((sqrt(stats.n)).^(-1))*tinv(1-alpha/2,N-m))'
disp(' limInf limSup');disp([a b])

6.2.2.- ANÁLISIS A DOS CRITERIOS ( O FACTORES)

La situación más simple de este tipo de problemas es el caso de clasificación a dos factores, en la cual bajo dos
criterios o circunstancias cualitativas (o segmentadas) pre-establecidas, se efectúan mediciones de una variable
aleatoria Y, planteándose la disposición de la información que a continuación presentamos, cuando Criterio 1
dispone una clasificación en p grupos y Criterio2 en q grupos.

Y observada Criterio A
bajo dos
criterios
1 ………………… p
1 y111,.............. y11n11 ………………… y1p1,.............. y1 pn1 p
Criterio B ………………...
: : :
………………… yijk
: : :
q yq11,.............. yq1nq1 ………………… yqp1,.............. yqpnqp

Ante lo cual, se propone el siguiente modelo de efecto aditivo con interacciones, que permitirá decidir
respecto al efecto global de estas condiciones y/o su aporte conjunto sobre la variable Y; especificando que
cada observación obedece a una realización de una v.a. Y, de la siguiente manera:
146
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

ijk     i   j  ij   ijk , j  1,...., q, i  1,2,...., p, k  1,2,..., nij .

efectos i –ésimo de Criterio1


efecto j-ésimo de criterio2
interacción(ambos efectos simultáneos)

La forma más simple de explicar este tipo de diseño, es el experimento que consiste en evaluar la calidad de un
producto( o servicio) procesado (o realizado) bajo dos aspectos o criterios, uno con p y otro con q
condiciones.

Por ejemplo, Y es la medición del tamaño de una planta, estudiada en pxq almácigos , siendo p los diferentes
nutrientes y q las condiciones de riego.

Con el objeto, de poder disponer de elementos que permitan resolver el correspondiente problema de decisión
,supondremos que los componentes de error:  ijk ~ N(0,  2 ) son independientes e idénticamente distribuidos.
Para decidir si el modelo es pertinente significativo, se efectúa el sgte. planteamiento:

H 0 : i   j  ij  0, i, j, k vs H 0 : i, j, k  i  0   j  0  ij  0

p q p q
donde: 
i 1
 i    j   ij  ij  0 ,  i,j
j 1 i 1 j 1

Notación:
q nij p q nij

yi    y ijk , y     y ijk , y  y    y  / N


j 1 k 1 i 1 j 1 k 1
nij
yi  y ij 
yi   , yij    yijk , yij  
qnij k 1 nij
p nij p q
y j
y j   yijk , y j  , N   n ij
i 1 k 1 pnij i 1 j1

Descomponiendo la suma de cuadrados


De forma análoga al caso anterior, agregando y quitando términos, luego de descomponer el polinomio al
cuadrado y sumar, se obtiene la sgte. descomposición de suma de cuadrados:

p q nij p q nij

SS T   ( yijk  y )   ( yijk  yij   yij   yi  yi  y j  y j  y ) 2


2

i 1 j1 k i 1 j1 k

147
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

p q nij

  ( yi   y ) 2  ( y j   y ) 2  ( yij   yi  y j   y ) 2  ( yijk  yij  ) 2


i 1 j1 k
p q nij p q nij p q nij

  ( yi   y ) 2   ( y j   y ) 2   ( yij   yi  y j   y ) 2


i 1 j1 k 1 i 1 j 1 k 1 i 1 j 1 k 1

p q nij

  ( yijk  yij  ) 2


i 1 j 1 k 1

SST=:SScriterioA+SSCriterioB+SSInteracción +SSerror; denominaciones en el mismo orden de los sumandos de SST.

Además, cada uno de ellos, al dividirlos por  , y en su lugar considerar las v.a de donde proceden estos
2

datos, se puede verificar que son v.a.independientes que respectivamente tienen un comportamiento χ2 , con
grados de libertad correspondientes a la siguiente descomposición:

N-1= (p-1) + (q-1) + (p-1)(q-1)+ (N-pq)

p q nij
(Yi  Y ) 2 SSCriterioA p q nij
(Y j   Y ) 2 SSCriterioB

i 1 j1 k 1  2

 2
  2 ( p  1), 
i 1 j 1 k 1  2

 2
  2 (q  1),

p q nij
(Yij   Yi  Y j   Y ) 2 SS Interacción

i 1 j 1 k 1  2

 2
  2 (( p  1)(q  1),

p q nij
(Yijk  Yij  ) 2
SS error

i 1 j 1 k 1  2

 2
  2 ( N  pq)

TABLA ANOVA
FUENTE DE SUMA DE GRADOS DE CUADRADO MEDIO ESTADÍS- DISTRIBUCIÓN
VARIACIÓN CUADRADOS LIBERTAD TICA F
T
Criterio1 SSCriterio1 p-1 SSCriterio1 MSS A F(p-1,N-pq) p-value
MSS A 
p 1 MSSe
Criterio2 SSCriterio2 q-1 SSCriterio2 MSS B F(q-1,N-pq)
MSS B  p-value
q 1 MSSe
Interacción SSInteracción (p-1)(q-1) MSS AB
SSint eracción F((p-1)(q-1),N-pq)
MSS AB  MSS e p-value
( p  1)(q  1)

Error SSerror N-pq SSerror


MSSe 
N  pq
Total SSTotal N-1 SS
MSST  total
N 1

148
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Expresando los residuos en términos de los parámetros:


eijk  yijk     i   j  ij ,
Por M.M.C. podemos obtener los estimadores:
ˆ  y , ˆi  yi   y , ˆ j  y j   y , ˆij  yij   yi  y j   y

En consecuencia:
eijk  yijk  ˆ  ˆi  ˆ j  ˆij

De manera similar, se diseña y aborda el problema con más de dos factores fijos.

Este es el caso más simple de diseños experimentales, los cuales pueden contemplar más factores fijos, factores
aleatorios parciales o completos, anidados en parcelas, parcelas subdivididas, factorial en bloque, cuadrados
latinos, grecolatinos entre otras subdivisiones, y múltiples consideraciones, para lo cual recomendamos la
lectura de Manual Estadístico 2000, L.Figueroa et alii.

Ejemplo6.15
Utilizando la información del ejemplo6.13, estudiemos el aporte de todos los efectos e interacciones posibles.

Analysis of Variance
Source Sum Sq. d.f. Mean Sq. F Prob>F
X1 0.048516 1 0.048516 1.2372 0.32835
X2 2.0473 1 2.0473 52.2066 0.0019462 *
X3 0.00082013 1 0.00082013 0.020914 0.89201
Error 0.15686 4 0.039215
Total 2.2535 7
*de los tres factores por si solos, el fertilizante es el que tiene efecto significativo en el tamaño del producto

Analysis of Variance
Source Sum Sq. d.f. Mean Sq. F Prob>F
f1 0.048516 1 0.048516 1075.1496 0.019409 *
f2 2.0473 1 2.0473 45369 0.0029888 *
f3 0.00082013 1 0.00082013 18.1745 0.14668
f1*f2 0.15485 1 0.15485 3431.4931 0.010867 *
f1*f3 0.0019531 1 0.0019531 43.2825 0.096031
f2*f3 1.5125e-05 1 1.5125e-05 0.33518 0.6659
Error 4.5125e-05 1 4.5125e-05
Total 2.2535 7

De los tres factores e interacciones, se puede precisar (*) lo siguiente:

- no solo el fertilizante es importante en esta producción, sino que debe prestarse atención al tipo de riego

- en los diferentes niveles de interacciones de Tipo de riego y fertilizante se detectan diferencias significativas
en el peso del producto.

- tipo de suelo en estudio, no es relevante para este tipo de producción

Script:
anovan(y,{f1,f2,f3}); anovan(y,{f1 f2 f3},'model', 'interaction', 'varnames',{'f1','f2','f3'} )

149
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

PARTE III

LINEAS DE ESPERA

En diversos fenómenos de aglomeración, existen elementos comunes:

- Regreso a casa en una autopista (ruta). social (X)


- Solicitud de establecer líneas de comunicación lo común es la espera  costos
- Asistir a un evento. consumo (Y)
- Adquirir bienes de consumo

Tales costos X (referente el tiempo de espera de un servicio),Y (referente al consumo de recursos, humanos ,
financieros y materiales que requiere ese servicio), están inversamente correlacionados; es decir si X crece
entonces Y decrece, e inversamente.

La teoría de líneas de espera se ha llegado a utilizar con bastante éxito para determinar:

a) El número de médicos que deben atender el servicio de emergencia de un hospital variando ese número
en el tiempo y en el espacio.
b) El número de camas que debe tener el pabellón de ginecología-obstétrica de un hospital.
c) El número de cajas que deben esperar en una tienda o en un autoservicio, en función de la hora y el día
de la semana.
d) El número de transportes que deben distribuir productos perecibles en una zona.
e) El número de operadores de tráfico aéreo, que varían en el tiempo y el lugar.
f) La secuenciación de encendido de semáforos a lo largo de una avenida.
g) El número de grupos de mantenimiento de algunas líneas aéreas.

Una línea de espera en su concepto más simple, se origina por la llegada aleatoria de clientes que entran en
un establecimiento a recibir un servicio proporcionado por un servidor. La naturaleza de los clientes, el
establecimiento y los servicios varían con la respectiva organización:

151
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Cliente Establecimiento Servicio Servidor


Paciente Servicio de emergencia Tratamiento médico Médicos y/o enfermeras
Ciudadano Central telefónica Larga distancia Operadora telefónica
“ Banco Bancario Cajero
“ Supermercado Pago de mercadería Cajera
Barco Muelle Carga/descarga Grúas
Avión Pista de aterrizaje Permiso e instrucciones Operador de tráfico aéreo
Avión Taller de mantenimiento Revisión y mantenimiento Mecánicos expertos
Embarazada Sala de partos Parto Ginecólogo
Paciente Quirófano Cirugía Cirujano

Si el tiempo que se utiliza para servir a un cliente es mayor al que transcurre entre la llegada consecutiva de 2
clientes; se formarán líneas de espera. En caso contrario no se formarán líneas de espera.

La teoría de líneas de espera tiene los siguientes objetivos:


a) Caracterizar cuantitativa y cualitativamente una fila.
b) Determinar los niveles adecuados de ciertos parámetros del sistema que balancean el costo social de la
espera con el costo asociado al consumo de recursos.

La cuantificación de una línea de espera se puede hacer a través de un “análisis matemático” o de un


“proceso de simulación”.

Análisis matemático: de poder aplicarse produce resultados óptimos. Sin embargo requiere de suposiciones
muy estrictas en cuanto ala naturaleza de:
las llegadas de clientes.
tipo de servicio.
número de servidores.
estructura del sistema.

Proceso de simulación: tiene una aplicación más general que el análisis matemático ya que prácticamente se
puede utilizar para cualquier sistema. Su desventaja entre otros aspectos es que no
origina valores óptimos.

Procederemos a analizar líneas de espera con un enfoque matemático, exponiendo interesantes aplicaciones,
dejando la discusión de los procesos de simulación para una etapa posterior.

152
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CAPITULO VII

ESTRUCTURA
Y
CARACTERIZACIÓN DE LINEAS DE ESPERA

7.1.- ESTRUCTURA BÁSICA DE UNA LÍNEA DE ESPERA

Toda línea de espera, está constituida por un “cliente” que requiere un “servicio”, proporcionado por un
“servidor” en un determinado período.

Los clientes entran aleatoriamente al sistema y forman una o varias filas de acuerdo a ciertas reglas pre –
establecidas, conocidas como “disciplina” del servicio, bajo las cuales se proporciona el servicio a los
elementos de la fila.

El cliente será atendido en un período determinado de tiempo, llamado, ”tiempo de servicio”. Al finalizar,
este lapso, abandona el sistema. Los clientes que se forman en una fila lo hacen en una “área de espera”.

Las líneas de espera se pueden clasificar en términos de:

a) El número de clientes que pueden esperar en la fila. Esta pueden ser finitos o infinitos. En la realidad
sólo existen los primeros; matemáticamente se facilitan los cálculos si se supone el segundo caso.
b) La fuente que genera la población de clientes. Esta fuente puede tener una producción finita o infinita
(no confundir con la población que espera que también puede ser finita o infinita).
c) La modalidad de espera de los clientes (en una fila o en varias, con o sin opción a cambiarse de fila).
d) El tiempo entre la llegada de un cliente y el inmediatamente anterior. Este lapso (intervalo) puede ser
constante
o una v.a.i., con distribución conocida o no.
El enfoque matemático está desarrollado para constante o v.a.Poisson; para otras distribuciones se
utiliza el enfoque de simulación, o también, cuando las llegadas no son independientes (por ejemplo
cuando pacientes originados por un mismo accidente son trasladados a un centro de emergencia).
e) El tiempo se servicio. Puede ser constante o v.a. dependiente o independiente con distribución conocida
o no.
El enfoque matemático ha proporcionado resultados de las líneas de espera cuando el tiempo de servicio
es: constante, se distribuye exponencial o Erlang. Para otras distribuciones se utiliza el enfoque de
simulación.
Se dice que el tiempo de servicio es dependiente, cuando varía (se alarga o se acorta) por factores de
presión del sistema (por ej. las quejas de la gente que espera) ; es independiente cuando la duración del
servicio no se afecta por este tipo de presiones.
f) La disciplina de la fila. Se puede utilizar una política en la cual el primero que llega a la fila es el
primero al que se le proporciona el servicio; existen políticas de prioridad (prelación), como es el caso
de los servicios médicos de emergencia, en donde las características del cliente indican en que orden se
le proporciona el servicio.
La disciplina también puede ser: último que entra, primero que sale (como es el caso de inventario
acumulado en columnas) o bien una disciplina aleatoria.
153
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

g) El número de servidores uno o más.


h) La estructura de las estaciones de servicio. (Serie, paralelo o mixtos).
i) La estabilidad del sistema (estable o transitoria).

Aquí abordamos sólo la condición de estable y específicamente aquellos casos donde en un período
determinado solo se puede abrir una entrada al sistema (nacimiento) y una salida del mismo (muerte). Por
ello estos procesos estables se conocen como nacimiento y muerte.
Como presentaremos a continuación, los elementos básicos de un modelo de espera dependen de los
siguientes factores:
- Distribución de llegadas (llegadas individuales o masivas en grupo).
- Distribución del tiempo de servicio (servicio individual o masivo).
- Diseño de la instalación de servicio (estaciones en serie, paralelo o red).
- Disciplina de servicio (FCFS, LCFS, SIRO) y prioridad de servicio.
- Tamaño de la línea de espera (finito o infinito).
- Fuente de llamadas (finita o infinita).
- Conducta humana (cambios, elusión y renuncia).

7.2.- NOTACIÓN EN LA TEORIA DE LINEAS DE ESPERA

7.2.1.- Nomenclatura para componentes de un sistema

Consideremos la secuencia de v.a. {Nt} que dan forma a un proceso estocástico, mediante lo cual en cada instante t,
lleva el conteo de quienes concurren (clientes) a un sistema para requerir servicio
λn: número esperado ( promedio) de llegadas por unidd de tiempo cundo hay n entes en el sistema
: nº promedio de llegadas al sistema por unidad de tiempo (minuto, hora, día, etc.); independiente de
los elementos en el sistema y del tiempo.

Lo cual ante un sistema de llegadas y esperar en fila por atención de servicios mediante S servidores,
origina otro proceso estocástico {𝑋𝑡 } que registra la cantidad de clientes en el sistema (cantidad de llegadas
que no han salido del sistema), cuyo espacio de estados denotaremos por E . Siendo nϵ E , (entero no
negativo ):
Pn (t) = 𝑃{𝑋𝑡 = 𝑛}: probabilidad de que en el momento t de llegada a la fila haya n personas
(entes o clientes) en el sistema; s recibiendo servicio, s  1,
n -s esperando en la fila.
Así P0(t): probabilidad de que en el momento t de arribo a la fila, el sistema esté vacío.

n: número esperado ( promedio) de atenciones (servicios), por unidad de tiempo cundo hay n entes en el
sistema e independiente del tiempo
: promedio de servicios del sistema, por unidad de tiempo (minuto, hora, día, etc.); independiente de
los elementos en el sistema y del tiempo.
=  /: factor de utilización o intensidad de tráfico del sistema (cuando las llegadas y servicios son
constantes).
Si >1, se forma una fila (llegan más de los que se le puede dar servicio en esa unidad de tiempo), e
indica la necesidad de añadir al sistema más servidores, S; hasta que se logre que el factor de
utilización del sistema con servidores múltiples ( en paralelo) s=  /(s)  1. Lo que querrá decir
que el sistema con tales servidores múltiples podrá dar servicio por unidad de tiempo a todas las
llegadas en dicho intervalo de tiempo.

Tq: esperanza del tiempo de espera para que reciba el servicio la última llegada a la fila, (tiempo
de espera).
Tw: esperanza del tiempo de espera para que la última llegada a la fila abandone el sistema una vez
atendida, (tiempo demora):
TW=Ts + (Tiempo esperado de servicio una vez que comienza a ser atendido)
1/  : tiempo promedio entre dos llegadas consecutivas.
1/: tiempo promedio de servicio a un cliente.
154
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 n: número esperado de llegadas, de nuevos clientes por unidad de tiempo cuando hay “n” en el
sistema.
n: numero esperado de servicios por unidad de tiempo, cuando existen n clientes en el sistema.
Representa la tasa combinada de servicios a la cual trabajan todos los servidores ocupados.

{l(t)}: el proceso estocástico que registra en todo momento t, el conteo de entes en la fila; l(t)= 𝑋𝑡 − 1
L(t)=E[l(t)]: valor esperado del número de entes formadas en la fila (esperan ser atendidos) en el instante t;
cuando L(t) es independiente del tiempo, anotaremos L(t)=L
W(t)=  [𝑋𝑡 ] : Valor esperado del número de entes (clientes) en el sistema en el instante t; cuando W(t) es
independiente de t , anotaremos W(t)=W.

Cs: número esperado de clientes que no requieren de servicio en el momento de arribar al sistema; lo cual
tiene sentido sólo en población finita
s: utilización promedio de c/u de los S servidores (S  1), dada en porcentaje de tiempo.
𝑐̅: cantidad esperada de servidores ocupados

7.2.2.-Nomenclatura de las diferentes líneas de espera

Kendall D. (1953) Introdujo una notación para las diferentes líneas de espera.
Lee A. (1966) Complementó lo anterior; configurándose así la siguiente nomenclatura:
(a/b/c): (d/e/f), donde
a: Distribución de llegada
b: Distribución de servicio
c: Número de servidores en paralelo en el sistema
d: disciplina e servicios
e: máximo número de clientes que pueden estar en el sistema (esperando y recibiendo servicio)
f: Fuente de generación de clientes
Los siguientes códigos corresponden a los símbolos:
a y b:
M: llegada con distribución de Poisson y servicio distribuido exponencialmente.
D: llegada o servicio determinístico.
E: llegada y servicios distribuidos respectivamente con distribución de Erlang y Gama.
GI: llegadas con distribución general e independiente.
G: servicios con una distribución general independiente.
d:
FCFS: primero que llega, primero que se le proporciona el servicio.
LCFS: último que llega, primero que se le proporciona el servicio.
SIRO: servicio en orden aleatorio.
GD: disciplina general de servicio.
NPRP: servicio prioritario no abortivo.
PRP: servicio prioritario abortivo.

7.3.- Caracterización

Consideremos el caso en que los clientes que concurren al sistema mediante un proceso {N t} , obedecen a un
comportamiento Poisson homogéneo con parámetro λ, como el descrito en el capítulo III, y que de igual
manera actúan los servidores con un promedio de atenciones .
Recordemos que en tal tipo de procesos Poisson, el valor medio de ocurrencias por unidad de tiempo es la
inversa del tiempo medio entre ( o por ocurrencias). 155
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

7.3.1.- Una fila - un servidor - población infinita (M/M/1):( FCFS/∞ /∞)

Suponga una línea de espera y un servidor tales que :

La disciplina de la fila es, “primero que llega, primero a que se le proporciona el servicio”.
Población infinita y sala de espera de capacidad ilimitada.
T tiempo entre llegadas ( también se acostumbra decir, tiempo de llegada) con distribución exponencial
exp(), media 1/  .
(Por ejemplo: Si llegan 5 clientes en promedio c/minuto,  =5, entonces la medida de la distribución es 0.2
minutos o cada 12 segundos se espera que alguien llegue).
Y: Tiempo de servicio exponencial exp() = e-X, con media de servicio 1/.

A continuación calcularemos Pn (t), P0(t) y los parámetros de efectividad del sistema: W, L, Ts, Tw.

7.3.1.1.- Obtención de Pm(t))


Pn (t): probabilidad de que al llegar a la fila (en el instante t) hayan n personas (n  o)
en el sistema (1 recibiendo servicio y n-1 esperando).
Sea t>o un lapso pequeño de tiempo, la probabilidad de más de una llegada en t es 0.
Entonces:
a) Probabilidad de que no lleguen clientes en t : 1-  t = P(B)
 P(B ) =  t
C

C
b) Probabilidad de no requerir servicio en t: 1-t = P(C) P(C ) = t
Así:
Pn (t +t): La probabilidad de tener m personas en el sistema en cualquier tiempo t + t es
Pn (t + t ) = [(  n personas en el sistema en el tiempo t, una recibiendo servicio, m-1 esperan) 
(no llegan clientes en t)  (no se culmina el servicio en t )] o
[  n personas en el sistema en el tiempo t, una recibiendo servicio, m-1 esperan)  (una
llegada en el tiempo t)  (un servicio en t)]}o
[(  (n+1) en el sistema en el tiempo t, una recibiendo servicio y m esperan)  (no
llegan clientes t)  (se culmina un servicio en t )]o
[(  (n-1) personas en el sistema en tiempo t, una recibiendo servicio, m-2 esperan)  (una
llegada en t)  (no requiere servicio en t)]
= P((A  B  C)  (A  G  E)  (D  B  E)  (F  G  C))

n+1 Donde:
A= m clientes en el sistema en el instante t
n D= (m+1) clientes en el sistema en el instante t
F= (m-1) personas en el sistema en tiempo t
n-1 B= nadie llega en t
t t+ t C= nadie sale en t
E= salida en t = Cc
t G= llegada en t = Bc
Pm (t+ t) = P(A)P(B)P(C) + P(A)P(G)P(E) + P(D)P(B)P(E) + P(F)P(G)P(C) .
nadie sale salida salida nadie sale
nadie llega llegada nadie llega llegada

llegada salida
tiempo t en t en t P m (t+t ) = P(A) [P(B) P(C) + P(G) P(E)] +
m+1 0 1 + P(D) P(B) P(E)
m 0 0 + P(F) P(G) P(C)
m-1 1 1
1 0

156
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Pm (t+t) = Pm (t) [(1-m t ) (1- 𝜇𝑚 ∆t ) + mt 𝜇𝑚 ∆t ]+ Pm+1 (t) (1-m+1 t ) ( 𝜇𝑚+1 ∆t )+Pm-1 (t)(m-1t )
(1− 𝜇𝑚 ∆t )

P m (t +t) = P m (t) ((1-  t )(1 –  t )+  t t )+P m1 (t) (1-  t ) (t )+Pm-1(t)  t(1- t )
= P m (t) (1–t-  t+  (t) +  (t ) )+P m1 (t) (t-  (t ) )+Pm-1 (t)  t –
2 2 2

P m1 (t)  (t ) 2 .

(P m (t+t)–P m (t))/ t = P m1 (t)( -  t ) + P m (t)(-(  +  )+ 2   t )+ P m1 (t)(  -   t )


= P m1 (t)-P m (t)(u+  )+P m1 (t)  +t (-P m1 (t)  +2  P m (t)-   P m1 (t))
= P m1 (t)-( +  )P m (t)+  P m1 (t)+  t(-P m1 (t)+2P m (t)-P m1 (t))
dPm(t )
Si t o  = P m1 (t) – (+  )P m (t)+  P m1 (t)
dt

dPm
En serie de Taylor: P m (t+t) = P m (t)+ (t) t,
dt
si t o Pm (t+t ) = P m (t); P m (t +t ) - P m (t) =0  dPm (t) t =o, entonces
dt

P m1 (t) – (+  )P m (t) +  P m1 (t) = 0  (+  ) P m (t)=  P m1 (t)+  P m1 (t)

para m =o  P 1 (t) – (+  ) P o (t) =0 ya que P 1 =0


tPo (t )
P o (t) = =
t
1
= P((requiere servicio en t )  nadie está en el servicio en t)
t
P()
= =o
t
 P 1 (t) -  P o (t) = o  P 1 (t) =  P o (t) y


Obteniéndose las ecuaciones de equilibrio: P 1 (t) = λP o (t) ,

(+  ) P m (t)=  P m1 (t)+  P m1 (t)


Sistema de ecuaciones , de las cuales se obtiene:

Pn (t)= (  )𝑛 P o (t)

Por ser P medida de probabilidad, , :
1  ( /  ) r
1= ∑∞
𝑛=0 𝑃𝑛 (𝑡) = P o (t)(1+  +(  ) 2 +…+(  )𝑛 +…) = P o (t) lim  P o (t) (1-  )-1
   r   1  ( /  ) 
 
P o (t) = 1-  =
 
𝜆 𝑛 𝜇−𝜆 𝑛
Pn (t) = (𝜇) = 𝜌 (1 − 𝜌) Pn (t) =𝜌𝑛 (1 − 𝜌) , n ϵ E={0,1,2,…,n,…}
𝜇

157
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Probabilidades, que dan forma a 𝑓𝑋𝑡 (𝑛) = 𝑃 {𝑋𝑡 = 𝑛} = (1 − 𝜌)𝜌𝑛 , 𝑛 = 0,1, … , función de cuantía de cada
v.a. 𝑋𝑡 .
Siendo Zt=𝑋𝑡 + 1 ,entonces
𝑓𝑍𝑡 (𝑛) = 𝑓𝑋𝑡 (𝑛 − 1) = (1 − 𝜌)𝜌𝑛−1 , 𝑛 − 1 = 0,1, …

𝑓𝑍𝑡 (𝑛) = (1 − 𝜌)𝜌𝑛−1 , 𝑛 = 1, …

conocida como geométrica de parámetro p=ρ, con q=1- ρ . La cual no depende de t y por ello, todo procedimiento
que involucre cálculo de probabilidad, tendrá resultado independiente de t.

7.3.1.2.- Número esperado de clientes en el sistema


W(t) =  [𝑋𝑡 ] : Valor esperado del número de clientes en el sistema, el cual corresponde al de una v.a.
geométrica de razón 𝑞 = 𝜌; entonces
∞ ∞
1
𝐸 [𝑋𝑡 ] = ∑ 𝑛 𝑓𝑋𝑡 (𝑛) = ∑ 𝑛 (1 − 𝜌)𝜌𝑛−1 =
1−𝜌
𝑛=1 𝑛=1

1 𝜌
𝑊(𝑡) = 𝑊 = 𝐸 [𝑋𝑡 − 1] = 𝐸 [𝑌𝑡 ] − 1 = −1 =
1−𝜌 1−𝜌

𝜌
𝑊=
1−𝜌
7.3.1.3.- Número esperado de clientes en la fila
Siendo lt=𝑋𝑡 − 1 ,entonces
L (t) = E(nº de personas (esperando) en la fila) = 𝐸 [𝑙𝑡 ]=L
∞ ∞

𝐿 = 𝐸 [𝑋𝑡 − 1] = ∑ 𝑛 𝑃(𝑙𝑡 = 𝑛) = 𝐸 [𝑋𝑡 − 1] = ∑(𝑛 − 1) 𝑃(𝑋𝑡 = 𝑛)


𝑛=−1 𝑛=0
∞ ∞

𝑊 − 𝐿 = ∑ 𝑛𝑃(𝑋𝑡 = 𝑛) − ∑(𝑛 − 1) 𝑃(𝑋𝑡 = 𝑛)


𝑛=0 𝑛=2
∞ ∞

= 𝑃(𝑋𝑡 = 1) + ∑ 𝑛𝑃(𝑋𝑡 = 𝑛) − ∑(𝑛 − 1) 𝑃(𝑋𝑡 = 𝑛)


𝑛=2 𝑛=2

= 𝑃(𝑋𝑡 = 1) + ∑(𝑛 − (𝑛 − 1))𝑃(𝑋𝑡 = 𝑛)


𝑛=2
∞ ∞

= 𝑃(𝑋𝑡 = 1) + ∑ 𝑃(𝑋𝑡 = 𝑛) + 𝑃(𝑋𝑡 = 0) − 𝑃(𝑋𝑡 = 0) = ∑ 𝑃(𝑋𝑡 = 𝑛) − 𝑃(𝑋𝑡 = 0)


𝑛=2 𝑛=0

=1 − 𝑃(𝑋𝑡 = 0) = 1 − (1 − 𝜌) = 𝜌

𝜌 𝜌2
𝐿 =𝑊−𝜌 = −𝜌=
1−𝜌 1−𝜌

𝐿 = 𝜌𝑊

158
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

7.3.1.4.- Media de Tiempo de Espera


Tq: tiempo de espera promedio para ser atendido (en la fila).
P o (t) =1-ρ : probabilidad de que nadie esté en el sistema en el tiempo t.
1- P o (t) : probabilidad de que alguien esté en el sistema recibiendo servicio.
Entonces, B S = 1 - P o (t) =ρ, representa el “nº esperado de personas” a las cuales, se les proporciona
servicio por unidad de tiempo.
En consecuencia si el tamaño esperado de la fila es L;
L/ L L L  L,
Tq=    
BS BS   
𝜌2

Además: Tq=
L = 1−𝜌
𝜌
= 𝜇(1−𝜌) ,entonces: Tq  L   W
𝜇𝜌 
 (1  Po (t ))   (1   ) 

7.3.1.5.- Media de Tiempo en el Sistema

TW = Tq +E[Y]= Tq +
1 =  +
1 1
= (1+
 ) , por consiguiente
  (1   )   1 
1   L  𝑊 𝑇𝑞
TW     = =
 (1   )  (1   )   (1   )  λ 𝜌

de esta manera: 𝑇𝑞 = 𝜌 𝑇𝑊 ;

𝑊
𝑇𝑊 = λ

Definición:
La probabilidad que todos los servidores del sistema se encuentren ocupados se denomina Función de Pérdida
Erlang B ( o simplemente Función Erlang B)y se denota B(s, ρ)=P(Xt=s), donde s es el número de servidores. Por
cierto es una pérdida por bloqueo de servicio al encontrarse copados los servidores, momento en que el cliente bien
puede no esperar ( no hacer fila) y desistir del servicio salir del sistema).
La probabilidad que alguien al llegar a la fila deba esperar para ser atendido, se denomina Función de Erlang C
del sistema con s servidores y denota por C(s,ρ)= P(Xt≥s).
Siendo pcop la probabilidad que el sistema esté copado (por ejemplo el sistema ha superado la capacidad del recinto
de espera o no hay recinto de espera). En general todas las situaciones en que un cliente debe abandonar el sistema
por no alcanzar a ser incluido en él. Se define la tasa de llegadas perdidas o tasa de pérdida de un sistema como la
tasa de llegadas por la tasa de pérdida: 𝝀𝒑é𝒓𝒅𝒊𝒅𝒂 = 𝝀𝒑𝒄𝒐𝒑 . Es decir, la proporción de llegadas que ha de esperarse
perder por unidad de tiempo, ya que los clientes seguirían llegando a un sistema que ha dejado de atender por copar
su capacidad.
Se considera como tasa de efectividad del sistema y denota 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 ; al margen entre tasa de llegadas y tasa de
pérdida. De esta manera 𝝀𝒆𝒇𝒆𝒄𝒕𝒊𝒗𝒊𝒅𝒂𝒅 = 𝝀 − 𝝀𝒑é𝒓𝒅𝒊𝒅𝒂 = 𝝀 − 𝝀𝒑𝒄𝒐𝒑 = 𝝀(𝟏 − 𝒑𝒄𝒐𝒑 ). Consecuente con ello, se definen
las siguientes medidas de demanda del sistema:
- Carga ofrecida o intensidad de tráfico: 𝝀 𝑬[𝒀]
- Carga efectiva (o transportada): 𝝀𝒆𝒇𝒆𝒄𝒕𝒊𝒗𝒊𝒅𝒂𝒅 𝑬[𝒀]

7.3.1.6.- Propiedades
7.3.1.6a.-Distribución de Cantidad de Clientes en el Sistema y Función Erlang C
Siendo Xt: la v.a. número de clientes en el sistema
La distribución de Xt está dada por:
P(Xt≤m)=∑𝑚 𝑚
𝑛=0 𝑃(𝑋𝑡 = 𝑛 ) = (1 − 𝜌)(1 + 𝜌 + ⋯ + 𝜌 ) = 1 − 𝜌
𝑚+1

P(Xt > m) =1- P(Xt  m) = 1-(1- ) =


m+1 m+1

La probabilidad de que haya alguien en el sistema (al menos un cliente)=P(Xt >0)=ρ=: C(1,ρ), proporción de
tiempo del sistema en funcionamiento en que el único servidor estará ocupado.
159
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Por ello, también se puede escribir:


𝜌2 𝜌
𝐿= = 𝐶(1, 𝜌)
1−𝜌 1−𝜌

7.3.1.6b.- Fórmulas de 𝐋𝐢𝐭𝐭𝐥𝐞

Tasas de pérdida y efectividad, respectivamente están dadas por: λpérdida=0, λefectividad = λ


𝑊 𝐿 𝐿 𝐿
𝑇𝑞 = = 𝜇𝜌 = 𝜆 = 𝜆 ; por lo cual 𝐿 = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑇𝑞
𝜇 𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
𝑊 𝑊
𝑇𝑊 = =𝜆 entonces 𝑊 = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑇𝑊
𝜆 𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
Las relaciones establecidas para parámetros de un sistema, en términos de la tasa de efectividad que se conocen
como Fórmulas de 𝑳𝒊𝒕𝒕𝒍𝒆, extensivas a la generalidad de sistemas de filas de espera con disciplina FIFO,
llegadas y servicios Poisson. También forman parte de ellas , expresiones equivalentes tales como:
Al referirnos a la relación : TW = Tq +
1 , y multiplicar ambos lados por la tasa de efectividad del sistema; es

equivalente a: λ TW = λTq +λ
1 , lo que también establece: 𝑊 = 𝐿 + 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 , que en
 𝜇

nuestro caso se reduce a: 𝑊 = 𝐿 + 𝜌

Tales formulas también comprenden a la cantidad esperada de servidores ocupados


̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅
c ( o cantidad esperada de personas siendo atendidas), dada por la diferencia entre la cantidad
esperada de sujetos en la fila menos los que están siendo atendidos:
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
𝑐̅ = 𝑊 − 𝐿 = = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝐸[𝑌] = 𝜌
𝜇

7.3.1.6c.- Tasas de Flujos esperados del Sistema:


Teniendo presente que en este sistema la cantidad presente de clientes que en él transita lo hace en o
desde 0,1,2,3,……n-1,n,n+1,…..denominados estados de transición ( que conforman el espacio de
estados) del proceso estocástico{𝑋𝑡 }, el cual en c/instante solo puede mantenerse, incrementarse o
disminuir en un cliente. Esta conducta, también es estudiada en términos más generales como proceso
de nacimiento (por las llegadas) y muerte (debido a que contempla salidas del sistema). En particular
un proceso de llegadas Poisson así como aquel mediante el cual se lleva el conteo de salidas,
respectivamente se identifican con tales denominaciones.
Para las respectivas tasas de llegadas( nacimientos) y salidas(muerte) en el estado n del presente sistema
( cuando Xt=n) ,cuando estas son no constantes; el diagrama de tasas de flujos es el siguiente:
λ0 λ1 λ2 λ3 λn-1 λn λn+1

0 1 ……………....n-1 n n+1 …
2 3

1 2 3 n-1 n n+1
El reciente desarrollo infinitesimal, a partir de este diagrama, permite plantearnos directamente las
ecuaciones de balance ( o equilibrios) en términos instantáneos de tiempo ( cuando t  0):
Siendo n un elemento del espacio de estados:
λ0P o (t) =1P 1 (t),
(n+  n) Pn (t)=  n-1Pn-1 (t)+  Pn+1 (t)
Sistema que es válido para todo tipo de sistemas de filas sin limitantes de capacidad de servicio.
Al considerar un proceso en el cual: Pn (t)=pn , ( independientes del tiempo o Xt v.a.
160
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

idénticamente distribuidas ):

𝜆0 𝑝0 = 𝜇1 𝑝1
𝜆𝑛−1 𝑝𝑛−1 + 𝜇𝑛+1 𝑝𝑛+1 = (𝜇𝑛 + 𝜆𝑛 )𝑝𝑛 , 𝑛≥1
𝜆0
De la primera ecuación se desprende: 𝑝1 = 𝑝0 𝜇1
(𝜇𝑛 +𝜆𝑛 )𝑝𝑛 −𝜆𝑛−1 𝑝𝑛−1
Procediendo por recurrencia en la segunda ecuación: 𝑝𝑛+1 = 𝜇𝑛+1
𝜆0
(𝜇1 + 𝜆1 )𝑝1 − 𝜆0 𝑝0 (𝜇1 + 𝜆1 )𝑝0 𝜇1 − 𝜆0 𝑝0 𝜆0 𝜆1
𝑝2 = = = 𝑝0
𝜇2 𝜇2 𝜇1 𝜇2

(𝜇2 + 𝜆2 )𝑝2 − 𝜆1 𝑝1 𝜆1 𝜆2 𝜆0 𝜆1 𝜆2
𝑝3 = = 𝑝1 = 𝑝0
𝜇3 𝜇2 𝜇3 𝜇1 𝜇2 𝜇3
…………
𝑛
𝜆𝑖−1
𝑝𝑛 = 𝑝0 ∏
𝜇𝑖
𝑖=1
Reduciéndonos a la situación abordada en la presente sección, por el momento, es de nuestro interés
resolver el caso en que, para todo n:
λn = λ , n= , (independientes del estado)
Por tal motivo, las ecuaciones de balance entre tasa de flujo esperada de entrada ( destacada
con verde) y salida ( marcada con rojo) al estado n, que corresponde considerar son:
𝜆0 𝑝0 = 𝜇𝑝1
{
𝜆𝑝𝑛−1 + 𝜇𝑝𝑛+1 = (𝜇 + 𝜆)𝑝𝑛 , 𝑛≥1

7.3.1.6d.- Distribución del Tiempo de Espera en la Fila


Consideremos la v.a. tq: tiempo de espera en fila
Para la obtención de 𝑑𝐹𝑡𝑞 = 𝑓𝑡𝑞 se procede de la siguiente manera:
Al considerar considerar t1,...,tn v.a.i.i.d. con distribución exponencial de parámetro 1/, con respectivas
funciones:
- de densidad: 𝑓𝑡𝑗 (𝑡) = 𝜇𝑒 −𝜇𝑡 , 𝑡 ≥ 0 , para cada j=1,…,n ; y también
𝜇
- características Ф𝑡𝑗 (𝑖𝜏) = 𝐸[𝑒 𝑖𝜏𝑡𝑗 ] = 𝜇−𝜏 , 𝜏 ∈ 𝐼𝑅
Al llegar un cliente, se puede encontrar ante dos situaciones:
- No requiere espera, Tq=0 , atención inmediata, tiene como única opción que nadie espere o el sistema
esté vacío:
P(tq=0)= P(Xt=0)=P0(t)=1-ρ

- Debe esperar , porque en el instante t de su llegada, ya hay n clientes en el sistema ( n-1 en la fila y uno
siendo antendido); con el consecuente tiempo de espera tq>0 :
𝑛

(𝑡𝑞 | 𝑋𝑡 = 𝑛) = 𝑟𝑛 = ∑ 𝑡𝑗 , 𝑛 ≥ 1
𝑗=1
𝜇 𝑛 𝜇−𝜏 −𝑛 𝜏 −𝑛
con función característica: Ф𝑟𝑛 (𝜏) = ∏𝑛𝑗=1 Ф𝑡𝑗 (𝜏 ) = ( ) =( ) = (1 − 𝜇) . Lo cual indica, que
𝜇−𝜏 𝜇
1
el comportamiento de 𝑟𝑛 , obedece a una densidad gamma de parámetros (𝑛, 1/𝜇), 𝑟𝑛  γ (n, 𝜇):

161
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑡 𝑛−1 1 −𝑛 −𝜇𝑡 𝑡 𝑛−1 1 −𝑛 𝜇(𝜇𝑡)𝑛−1 −𝜇𝑡


𝑓𝑟𝑛 (𝑟) = ( ) 𝑒 = ( ) 𝑒 −𝜇𝑡 = 𝑒 = 𝑑𝐹𝑟𝑛 (𝑡)
Γ ( n) 𝜇 (𝑛 − 1)! 𝜇 (𝑛 − 1)!
𝑛
con expectativa: 𝐸[𝑇𝑞 | 𝑙(𝑡) = 𝑛] = 𝐸 [𝑟𝑛 ] = 𝜇 , para cada n≥1.

Como la probabilidad de que al llegar un cliente, lo antecedan n (en el sistema) es:


Pn(t) con Pn(t)= n (1-), n0 ; para el que recién llega, n1; aplicamos el “Teorema de Probabilidad
Total”, para calcular la función de densidad de tq :tiempo total no sabiendo cuantos esperan en la fila, al
considerar todas las opciones:
∞ ∞

𝐹𝑡𝑞 (𝑡) = 𝑃(𝑡𝑞 ≤ 𝑡) = ∑ 𝑃𝑛 (𝑡)𝑃(𝑡𝑞 ≤ 𝑡| 𝑋𝑡 = 𝑛) = ∑ 𝑃𝑛 (𝑡)𝐹𝑟𝑛 (𝑡)


𝑛=0 𝑛=0
derivando se obtiene:
∞ ∞
(𝜇𝑡)𝑛−1 −𝜇𝑡
𝑡𝑞 ~ 𝑓𝑡𝑞 (𝑡) = ∑ 𝑃𝑛 (𝑡)𝑓𝑟𝑛 (𝑡) = ∑ 𝜌𝑛 (1 − 𝜌) 𝜇 𝑒
(𝑛 − 1 )!
𝑛=1 𝑛=1

(𝜌𝜇𝑡)𝑛−1 −𝜌𝜇𝑡
= 𝜇𝜌(1 − 𝜌)𝑒 −𝜇𝑡 𝑒 𝜌𝜇𝑡 ∑ 𝑒 = 𝜇𝜌(1 − 𝜌)𝑒 −𝜇𝑡 𝑒 𝜌𝜇𝑡 = 𝜇𝜌(1 − 𝜌)𝑒 −(1−𝜌)𝜇𝑡
(𝑛 − 1)!
𝑛=1
𝑡 𝑡 𝑡
𝐹𝑡𝑞 (𝑡) = 𝑃(𝑡𝑞 ≤ 𝑡) = ∫0 𝑓𝑡𝑞 (𝑡)𝑑𝑡 = ∫0 𝜇𝜌 (1 − 𝜌)𝑒 −(1−𝜌)𝜇𝑡 𝑑𝑡 = −𝜌𝑒 −(1−𝜌)𝜇𝑡 |0 = 1 − 𝜌𝑒 −(1−𝜌)𝜇𝑡 , t>0

𝑡
Por lo cual : P(tq> t) = 1- P(Tq  t) =1 − ∫0 𝑓𝑇𝑞 (𝑡)𝑑𝑡 = 𝜌𝑒 −𝜇(1−𝜌)𝑡 , 𝑡≥0
𝜇𝜌 (1 − 𝜌)𝑒 −𝜇(1−𝜌)𝑡 , 𝑡 > 0
𝑑𝐹𝑡𝑞 (𝑡) = 𝑓𝑇𝑞 (𝑡) = {
1 − 𝜌, 𝑡=0
Así, siendo tq una v.a. mixta, finalmente podemos expresar su distribución mediante:
1 − 𝜌𝑒 −𝜇(1−𝜌)𝑡 , 𝑡 > 0
𝐹𝑡𝑞 (𝑡) = 𝑃(𝑡𝑞 ≤ 𝑡) = { ,
1 − 𝜌, 𝑡=0

𝑑𝐹𝑡𝑞 (𝑡) = (1 − 𝜌)𝐼𝑡=0 − 𝜇𝜌 (1 − 𝜌)𝑒 −𝜇(1−𝜌)𝑡 𝐼𝑡>0

Ahora, más fácilmente que el cálculo ya realizado de su valor esperado, lo podemos efectuar de diversas
formas:
∞ ∞ ∞
−𝜇(1−𝜌)𝑡 ∞
𝐸[𝑡𝑞 ] = ∫ 𝑡 𝑑𝐹𝑡𝑞 (𝑡) = 0(1 − 𝜌) + ∫ 𝑡𝜇𝜌(1 − 𝜌)𝑒 𝑑𝑡 = 𝜌 (−𝑡𝑒 −𝜇(1−𝜌)𝑡 |0 + ∫ 𝑒 −𝜇(1−𝜌)𝑡 )
0 0 0
−1 ∞ 𝜌
−𝜇(1−𝜌)𝑡 |
= 𝜌 𝜇(1−𝜌) 𝑒 = 𝜇(1−𝜌), como también:
0
∞ ∞ ∞
𝑛 1
𝐸 [𝐸[𝑡𝑞 | 𝑙(𝑡) = 𝑛]] = ∑(𝐸[𝑡𝑞 | 𝑙(𝑡) = 𝑛]) 𝑃𝑛 (𝑡) = ∑ 𝑃𝑛 (𝑡) = ∑ 𝑛𝑃𝑛 (𝑡) = 𝐸 [𝑋𝑡 ]
𝜇 𝜇
𝑛=0 𝑛=0 𝑛=0
1 𝜌
=
𝜇 1−𝜌

7.3.1.6e.-Distribución del Tiempo de Demora en el Sistema.


Tengamos presente, que Tw el tiempo de demora (del sistema) corresponde a la expectativa de la v.a.
Tw: tiempo de espera (desde la llegada hasta su salida) del sistema
Cuando al llegar a la fila se encuentran n+1 clientes en el sistema, n en la fila y uno más (ante el servidor)
siendo atendido o bien nadie en la fila y la reciente llegada accede directamente al servidor; el tiempo de
demora corresponde a:
𝑛+1

(𝑇𝑊 | 𝑋𝑡 = 𝑛 + 1) = 𝑟𝑛+1 = ∑ 𝑡𝑗 ~ 𝑓𝑟𝑛+1 (𝑟) ,


𝑗=0

162
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑡𝑛 1 −𝑛−1 −𝜇𝑡 𝑡 𝑛 1 −𝑛−1 −𝜇𝑡


𝑓𝑟𝑛+1 (𝑟) = ( ) 𝑒 = ( ) 𝑒 = 𝑑𝐹𝑟𝑛+1 (𝑡)
Γ(n + 1 ) 𝜇 𝑛! 𝜇

con expectativa de demora habiendo n+1 en el sistema (con reciente llegada ya incluída). Para cada n≥1:

𝑛+1
𝐸 [𝑡𝑊 | 𝑋𝑡 = 𝑛 + 1] = 𝐸 [𝑟𝑛+1 ] =
𝜇
,
∞ ∞

𝐹𝑡𝑊 (𝑡) = 𝑃(𝑡𝑊 ≤ 𝑡) = ∑ 𝑃𝑛 (𝑡)𝑃(𝑡𝑊 ≤ 𝑡| 𝑋𝑡 = 𝑛 + 1) = ∑ 𝑃𝑛 (𝑡)𝐹𝑟𝑛+1 (𝑡)


𝑛=0 𝑛=0
derivando
∞ ∞
(𝜇𝑡)𝑛 −𝜇𝑡
𝑡𝑊 ~ 𝑓𝑡𝑊 (𝑡) = ∑ 𝑃𝑛 (𝑡)𝑓𝑟𝑛+1 (𝑡) = ∑ 𝜌𝑛 (1 − 𝜌) 𝜇 𝑒
𝑛!
𝑛=0 𝑛=0

(𝜇𝜌𝑡)𝑛
= 𝜇(1 − 𝜌)𝑒 −𝜇𝑡 ∑ = (1 − 𝜌)𝜇𝑒 −𝜇𝑡 𝑒 𝜇𝜌𝑡 = (1 − 𝜌)𝜇𝑒 −(1−𝜌)𝜇𝑡
𝑛!
𝑛=0
𝑡 𝑡

𝐹𝑡𝑊 (𝑡) = 𝑃(𝑡𝑊 ≤ 𝑡) = ∫ 𝑓𝑡𝑊 (𝑡)𝑑𝑡 = ∫ −(1 − 𝜌)𝜇𝑒 −(1−𝜌)𝜇𝑡 𝑑𝑡 = 1 − 𝑒 −(1−𝜌)𝜇𝑡


0 0
De manera muy similar al caso anterior, también es posible obtener valor del tiempo de demora ya deducido.

7.3.1.6f.-Tamaño de la fila cuando hay demanda de servicio


Esta situación en términos cuantitativos, se refiere al tamaño ( largo ) de la fila que espera ser atendida
(cuando la fila se encuentra no vacía).
Ahora, estamos en presencia de la v.a. l condicionada, la cual denotaremos:
l*=: (𝑋𝑡 − 1| 𝑋𝑡 > 1) = (𝑋𝑡 | 𝑋𝑡 > 1) − 1
con función de cuantía dada por:
𝑃(𝑋𝑡=𝑛) 𝑃𝑛 (𝑡) 𝑃𝑛 (𝑡)
, 𝑛≥2 , 𝑛≥2 , 𝑛≥2
𝑓𝑙 ∗ (𝑛 − 1) = 𝑃(𝑋𝑡 = 𝑛| 𝑋𝑡 > 1) = {𝑃( 𝑋𝑡>1) = {1−𝑃( 𝑋𝑡≤1) = {1−{𝑃0 (𝑡)+𝑃1 (𝑡)}
0, 𝑛<2 0, 𝑛<2 0, 𝑛<2
𝑃𝑛 (𝑡) 𝑃𝑛 (𝑡)
, 𝑛≥2 , 𝑛≥2 (1 − 𝜌)𝜌𝑛−2 , 𝑛≥2
= {1−{1−𝜌 +(1−𝜌)𝜌} ={ 𝜌2 ={
0, 𝑛<2 0, 𝑛<2 0, 𝑛<2

∞ ∞ ∞ ∞
∗]
𝑃𝑛 (𝑡) 1
E[ 𝑙 = ∑ (𝑛 − 1)𝑓𝑙 ∗ (𝑛 − 1) = ∑ (𝑛 − 1) 2 = 2 (∑ 𝑛 𝑃𝑛 (𝑡) − ∑ 𝑃𝑛 (𝑡))
𝜌 𝜌
𝑛=2 𝑛=2 𝑛=2 𝑛=2
1 1 𝜌 1 1
= 2 (𝐸 [𝑊] − 𝑃1 (𝑡) − 𝑃(𝑋𝑡 > 1)) = 2 ( − 𝑃1 (𝑡) − (1 − 𝑃0 (𝑡) − 𝑃1 (𝑡))) = =
𝜌 𝜌 1−𝜌 1 − 𝜌 𝑃0 (𝑡)

7.3.1.6g.- Sistema de Capacidad Finita (M/M/1):(GD/m/∞ )


Cuando el sistema solo puede atender una población finita, es decir al sistema llega una cantidad infinita de
entes buscando servicio, pero este solo puede contemplar a un número m ( m-1 esperando y 1 en atención),
excluyendo toda llegada adicional.
El diagrama de tasas de flujos correspondiente, se reduce a:
λ0 λ1 λ2 λ3 λn-1

0 1 …………….... m-1 m
2 3

1 2 3 m-1 m

163
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

donde: λn = λ , n= para todo n.

Las ecuaciones de equilibrio son las ya establecidas en la presente sección, pero, con una restricción adicional:

P 1 (t) = λP o (t)
(+  ) Pn (t)=  Pn-1 (t)+  Pn+1 (t), 1≤n≤m
Pm(t) = λPm-1(t)

𝜇𝑝𝑛 = 𝜆𝑝0
o en su forma equivalente: { ( +  ) 𝑝𝑛 =  𝑝𝑛−1 +  𝑝𝑛+1 , 1 ≤ 𝑛 ≤ 𝑚
𝜇𝑝𝑚 = 𝜆𝑝𝑚−1

De las dos primeras ecuaciones ( al igual que en 7.3.1), se obtiene la siguiente relación, para la
probabilidad de que hayan n clintes en el sistema:
𝜌𝑛 𝑃0 (𝑡), 𝑛 ≤ m
P𝑛 (𝑡) = {
0, 𝑛>𝑚
En términos generales, ya hemos establecido:

 
Pn t  
Pn t  
Pn t 
 P t   1  1  P t  P t   P t   1/  P t   1/  P t  , que ahora en el caso
n 0
n 0
n 0
0
n 0 n 0
0 0 0
finito, no diverge; y por ello no se requiere restricción sobre ρ, sino que además se reduce a:
𝜆 𝑚+1
1−
𝜇
𝜆 𝜆2 𝜆𝑚 𝑃0 (𝑡) , 𝜌 ≠ 1 , entonces
1 = ∑𝑚
𝑛=0 𝑃𝑛 (𝑡 ) = 𝑃0 (𝑡 ) (1 + 𝜇 + 𝜇 + ⋯ + 𝜇 ) = { 1−
𝜇
𝜆

𝑃0 (𝑡)(𝑚 + 1), 𝜌 = 1
1−𝜌 1−𝜌
, 𝜌≠1 𝜌𝑛 1−𝜌𝑚+1 , 𝜌 ≠ 1
1−𝜌 𝑚+1
𝑃0 (𝑡) = { 1 , P𝑛 (𝑡) = { 𝜌𝑛
𝑝𝑎𝑟𝑎 𝑛 = 0,1, … . 𝑚
, 𝜌=1 , 𝜌 = 1
𝑚+1 𝑚+1

Parámetros del sistema:

W =  [Xt]=∑𝑚 𝑚 𝑛 𝑚 𝑛 𝑚
𝑛=0 𝑛𝑃𝑛 (𝑡 ) = ∑𝑛=0 𝑛 𝜌 𝑃0 (𝑡 ) = 𝑃0 (𝑡 ) ∑𝑛=0 𝑛 𝜌 = 𝜌𝑃0 (𝑡 ) ∑𝑛=0 𝑛 𝜌
𝑛−1

𝑚
𝑑 𝑑 1 − 𝜌𝑚+1 −(𝑚 + 1)𝜌𝑚 (1 − 𝜌) + 1 − 𝜌𝑚+1
= 𝜌𝑃0 (𝑡) ∑ 𝜌𝑛 = 𝜌𝑃0 (𝑡) ( ) = 𝜌𝑃0 (𝑡)
𝑑𝜌 𝑑𝜌 1−𝜌 (1 − 𝜌)2
𝑛=0

−(𝑚+1)𝜌𝑚+𝑚𝜌 𝑚+1 +1
= 𝜌𝑃0 (𝑡) (1−𝜌)2

1−𝜌 −(𝑚+1)𝜌 𝑚+𝑚𝜌 𝑚+1 +1 1−(𝑚+1)𝜌 𝑚+𝑚𝜌 𝑚+1 1+(𝑚𝜌−(𝑚+1))𝜌 𝑚


Cuando: 𝜌 ≠ 1: 𝑊 = 𝜌 1−𝜌𝑚+1 (1−𝜌)2
=𝜌 (1−𝜌)(1−𝜌𝑚+1 )
=𝜌 (1−𝜌)(1−𝜌 𝑚+1 )

1 𝑚(𝑚+1) 𝑚
𝜌 = 1: 𝑊 = 𝑃0 (𝑡) ∑𝑚 𝑛 𝑚
𝑛=0 𝑛 𝜌 = 𝑚+1 ∑𝑛=0 𝑛 = =
2(𝑚+1) 2

1 + (𝑚𝜌 − (𝑚 + 1))𝜌𝑚
𝜌 , 𝜌≠1
𝑊={ (1 − 𝜌)(1 − 𝜌𝑚+1 )
𝑚
, 𝜌=1
2
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝐿 𝑊
Aplicando Fórmulas de 𝐋𝐢𝐭𝐭𝐥𝐞; 𝐿=𝑊+ , 𝑇𝑞 = 𝜆 , 𝑇𝑊 = 𝜆
𝜇 𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
siendo:
1−𝜌
𝜆𝑝é𝑟𝑑𝑖𝑑𝑎 = 𝜆 𝑃(𝑋𝑡 = 𝑚)= 𝜆𝑃𝑚 (𝑡) = 𝜆𝜌𝑚 1−𝜌 𝑚+1 ;
164
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1−𝜌 1−𝜌 𝑚+1 −𝜌 𝑚+𝜌 𝑚+1 1−𝜌 𝑚


𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆 (1 − 𝜌𝑚 1−𝜌 𝑚+1) = 𝜆 = 𝜆 1−𝜌𝑚+1
1−𝜌 𝑚+1

véase:
MAT2.Vol2009,T5.Recordando a Erlang…: http://mat.uab.cat/matmat/PDFv2009/v2009n05.pdf ,
Taha (2012)Inv. Op. Pag.609
S.Ross(1985), pág.316

Ejemplo7.1 (gasolinera)

Una gasolinera tiene diversas plataformas de servicio: petróleo (diesel), gasolina en diversos octanos, parafina
(kerosene), lubricación, lavados manuales y o automáticos de vehículos.
Poniendo atención sólo al servicio diesel, que supongamos se proporciona a través de sólo un puesto de servicio,
donde:
- las llegadas de vehículos diesel muestran una distribución aproximadamente Poisson, mientras que el
servicio muestra una distribución exponencial.
- el promedio de llegadas a requerir diesel es de 5 vehículos por hora, mientras que los servicios promedios en
este puesto son de 7 por hora. Sólo se puede dar servicio en esa bomba a un vehículo a la vez y se sirve a los
vehículos en el orden de llegada.

Determine todos los parámetros que describan cuantitativamente a esta bomba diesel, para que más tarde se pueda
tomar una decisión, acerca de la instalación de otras bombas diesel en ese lugar.

Solución
5
  5,  7   1
7

P0 t   1 
5
La probabilidad de encontrar la bomba diesel vacía es  1    1   0.29
 7
3

La probabilidad de encontrar un vehículo cargando y dos P3 t     P0 t    3 0.29  0.11
esperando en la fila 

2 2
L   1.79 [vehículos]
     1  
El número medio(esperado) de vehículos que hacen fila

 
El número medio(esperado) de vehículos en el sistema W   2.5 [vehículos]
   1 
El tiempo medio (esperado) de espera en la fila Tq =W/ =0.36 [hora]
= 22 [minutos]

1 1
El tiempo medio (esperado) para salir del sistema Tw  Ts   0 ,36   0.5 [hora]
 7
La probabilidad de que en el sistema se
4
5
P(M > 3) =      0.26
4
encuentren más de 3 vehículos es
7 
La probabilidad de que la espera en la
fila sea mayor a 0.75 [hora] o 45’ P(tq> 0.75) = 𝜌𝑒 −𝜇(1−𝜌)0.75 = 0.16

La probabilidad de que un vehículo


espere en el sistema más de 1 hora Pt w  1  e   1  1  0.14

165
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Referente a los Costos:

Sabiendo que el tiempo medio de espera en el sistema T w es de 30’; si asumimos que:


- el costo de operación mensual de un vehículo (sueldos, combustible, reparación, seguro, otros)
es de $500.000.
- opera 22 días por mes, 18 horas diarias, y requiere de dos cargas de combustible por día.

El costo diario (cada 24 horas) de esperar cargar combustible por vehículo es:
1 1 1
2( c arg as / día ) ( hora  espera / c arg a)  500.000( pesos / mes) ( mes / dias )  ( dias / hora)
2 22 18
500.000 50.000  pesos 
   1262.6
22  18 396  día 

7.3.1.7.- Modelo M/G/1

Consideremos un sistema M/G/1, en el cual las llegadas son Poisson P(λ), pero los servicios con distribución
arbitraria, cuyos tiempos de servicio Y1,Y2,,…. ,Yn,…. son v.a i.i.d. con distribución originada a partir de una v.a.Y
con densidad 𝑓𝑌 (𝑦) .

Independiente que las llegadas sean Poisson, y más aún, admitiendo que estas ocurren cada vez que un cliente es
atendido; el tiempo de servicio residual r(t) abordado en.Corolario2 de 3.2.6.3, se comporta como un v.a. R
independiente de t tal que:

P(r (t )  y)  P( R  y ) 
1
E Y  y
1  FY  y   dy , entonces
d  1 
 
1
dFR ( y) 
d
P( R  y )   
dy  E Y  y
1  FY  y   dy  
1 d
 P(Y  y)dy  (1  FY  y )
 E Y  dy y E Y 
dy  

+∞ +∞ +∞ +∞
1 1
𝐸 [𝑅] = ∫ 𝑦 𝑑𝐹𝑅 (𝑦) = ∫ 𝑦 𝑑𝐹𝑅 (𝑦) = ∫ 𝑦 (1  FY  y ) 𝑑𝑦 = ∫ 𝑦(1 − F𝑌 (y)) 𝑑𝑦
−∞ 0 0
E Y  𝐸[𝑌]
0

+∞ +∞
1 1 𝜇𝑌 (0,2) 𝐸[𝑌 2 ]
= (𝑦 2 (1 − F𝑌 (y))|∞ 2
0 + ∫ 𝑦 (−f𝑌 (y)) 𝑑𝑦) = ∫ 𝑦 2 𝑓𝑌 (y) 𝑑𝑦 = =
2𝐸[𝑌] 2𝐸[𝑌] 2𝜇𝑌 (0,1) 2𝐸[𝑌]
0 0
para lo cual disponemos en 3.1.4.2. de funciones generadoras de estos valores o momentos respectos del origen.
La expectativa del tiempo residual, sólo depende del tiempo de servicio a través de sus dos primeros momentos
respecto del origen.

En particular, para tiempos de servicio 𝑌~𝐸𝑥𝑝(𝜇), entonces:


2
𝑡 −1 1 2 𝜇2 1
𝜑𝑌 (𝑡) = (1 − 𝜇) , 𝑡 < 𝜇 . 𝜇𝑌 (0,1) = 𝜑𝑌′ (0) = , 𝜇𝑌 (0,2) = 𝜑𝑌′′ (0) = 𝜇 2 ; 𝐸 [𝑅 ] = 2 = 𝜇 = 𝐸[𝑌], lo que indica que la
𝜇
𝜇
media del tiempo residual es tanta como la expectativa del tiempo de servicio.

7.3.1.7.1.- Tiempos Medios de Espera y Demora


𝑇𝑞 : tiempo de espera ( en la fila), o expectativa de la v.a. tiempo de espera en la fila; se puede descomponer en la
expectativa de la suma de tiempo residual Я del cliente que ya está siendo atendido y tiempo total de atención de
quienes están en la fila;
166
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑇𝑞 = 𝐸[Я + 𝑆𝑋𝑡−1 ] = 𝐸[Я + 𝑆𝑙𝑡 ] = 𝐸[Я] + 𝐸[𝑆𝑙𝑡 ], considerando

𝑁 = 𝑙𝑡 = 𝑋𝑡 − 1,
𝑁

𝑆𝑁 = 𝑌1 + 𝑌2 + ⋯ + 𝑌𝑁 = ∑ 𝑌𝑖
𝑖=1
donde

0, 𝑋𝑡 = 0
Я={ , con 𝑋𝑡 : cantidad de clientes en el sistema , según hemos definido en esta tercera parte.
𝑅, 𝑋𝑡 > 0
Я es un v.a. que es transformación de R, con distribución originada a partir de la mezcla ( densidad mixta):

𝑝, 𝑋𝑡 = 0
𝑑𝐹𝑅 (𝑦) = { ,
𝑞 ∙ 𝑑𝐹𝑅 (𝑦), 𝑋𝑡 > 0

𝑝 = 𝑃(Я = 0) = 𝑃(𝑋𝑡 = 0), 𝑞 = 𝑃(Я = 𝑅) = 𝑃(𝑋𝑡 > 0) = 1 − 𝑝 = 1 − 𝑃(𝑋𝑡 = 0)


∞ ∞ 𝐸[𝑌 2 ] 𝐸[𝑌 2 ]
𝐸 [Я] = ∫−∞ Я(𝑅)𝑑𝐹𝑋𝑡 = 0 ∙ 𝑝 + 𝑞 ∫−∞ 𝑦𝑑𝐹𝑅 (𝑦) = 𝑞𝐸 [𝑅] = 𝑞 2𝐸[𝑌] = 𝜆𝐸 [𝑌] ∙ 2𝐸[𝑌],
[ 2]
𝐸𝑌
𝐸 [Я] = 𝜆 ∙
2
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
al tener presente la fórmula de Little: 𝑐̅ = = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝐸 [𝑌] = 𝜆𝐸 [𝑌] = 𝜌 = 1 − 𝑃(𝑋𝑡 = 0) = 𝑞.
𝜇

aplicando 3.2.5.4.1: 𝐸[𝑆𝑙𝑡 ] = 𝐸 [N]𝐸[𝑌] = 𝐿𝑞 ∙ 𝐸 [𝑌] y


también Little: 𝐿𝑞 : 𝐿 = λ𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 ∙ 𝑇𝑞 = λ ∙ 𝑇𝑞 ,
entonces:
𝐸[𝑌 2 ]
𝑇𝑞 = 𝐸 [Я] + 𝐸 [N]𝐸[𝑌] = 𝐸 [Я] + 𝐿𝑞 ∙ 𝐸 [𝑌] = 𝐸 [Я] + λ ∙ 𝐸 [𝑌] ∙ 𝑇𝑞 = 𝜆 ∙ + 𝜌 ∙ 𝑇𝑞 , apreciando los extremos:
2
𝐸[𝑌 2 ]
𝑇𝑞 = 𝜆 ∙ + 𝜌 ∙ 𝑇𝑞 ,
2
𝐸[𝑌 2 ]
𝑇𝑞 (1 − 𝜌) = 𝜆 ∙ 2 , concluyéndose
𝐸 [𝑌 2 ] 𝐸 [Я]
𝑇𝑞 = 𝜆 ∙ =
2 (1 − 𝜌 ) 1 − 𝜌
Se logra una muy útil expresión, considerando:
𝑉 (𝑌) = 𝐸 [(𝑌 − 𝐸 [𝑌])2 ] = 𝐸 [𝑌 2 ] − 𝐸 2 [𝑌], por lo cual 𝐸[𝑌 2 ] = 𝑉 (𝑌)+𝐸 2 [𝑌]

𝑉 (𝑌 ) 𝑉 (𝑌 )
𝐸 [𝑌 2 ] 𝑉 (𝑌)+𝐸 2 [𝑌] 1 + 2[ ] 1 + 2[ ] 1 + 𝐶𝑉 2 (𝑌)
𝐸 𝑌 𝐸 𝑌
𝑇𝑞 = 𝜆 ∙ =𝜆∙ = 𝜆 ∙ 𝐸 2 [𝑌 ] = 𝜌𝐸 [𝑌] = 𝜌𝐸 [𝑌] ,
2(1 − 𝜌 ) 2(1 − 𝜌 ) 2 (1 − 𝜌 ) 2(1 − 𝜌 ) 2 (1 − 𝜌 )

√𝑉(𝑌)
siendo 𝐶𝑉 (𝑌) = =: C, coeficiente de variación de 𝑌
𝐸[𝑌]

1 + 𝐶2
𝑇𝑞 = 𝜌𝐸 [𝑌]
2(1 − 𝜌 )
expresión conocida como formula de valor medio de Pollaczek-Khinchin-PK, la cual además se puede reescribir:
1 + 𝐶2 1 + 𝐶 2 𝜌𝐸 [𝑌] 1 + 𝐶 2  1 + 𝐶2 ∗
𝑇𝑞 = 𝜌𝐸 [𝑌] = ∙ = = 𝑇𝑞 ,
2 (1 − 𝜌 ) 2 1−𝜌 2  (1   ) 2
con 𝑇𝑞∗ : tiempo de espera en sistema M/M/1 , obtenido en 7.3.1.4

Cabe también destacar, el resto de los parámetros, en los mimos términos:

167
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1 + 𝐶2 1 + 𝐶2 1 + 𝐶 2 𝜌2 1 + 𝐶2 ∗
𝐿 = λ ∙ 𝑇𝑞 = λ 𝜌𝐸 [𝑌] = 𝜌2 = = 𝐿
2(1 − 𝜌 ) 2 (1 − 𝜌 ) 2 1−𝜌 2

1 + 𝐶2 1 + 𝐶2 ∗
𝑇𝑊 = 𝐸 [𝑌] + 𝑇𝑞 = 𝐸 [𝑌] (1 + 𝜌 ) = 𝐸 [𝑌 ] + 𝑇𝑞 ;
2(1 − 𝜌 ) 2
1 + 𝐶2 1 + 𝐶2 ∗
𝑊 = λ 𝑇𝑊 = λ𝐸 [𝑌] (1 + 𝜌 ) = 𝜌 (1 + 𝑊 )
2(1 − 𝜌 ) 2

𝐿∗ , 𝑇𝑞∗ , 𝑊 ∗ : los parámetros, largo de fila, tiempo de espera y cantidad de clientes en un sistema M/M/1

7.3.1.7.2.- Tiempos medios de espera y demora en sistemas con priorización de servicio


Supongamos que un sistema está diseñado para atender K tipos de clientes según prioridades 1a, 2a,….,Ka; categorías
de las que concurren clientes en cantidades aleatoria Nk según respectivas distribuciones Poisson P(λk) , agrupándose
en correspondientes filas k=1,2,…,K ( paralelas); con expectativa de pertinentes tiempos de c/servicio E[Yk] .
En el instante que un servidor se encuentra disponible, atiende de inmediato al primero de la fila de más alta
prioridad, conocida como prioridad de servicio según quien encabeza la fila.
Cada cliente, una vez que comienza a ser atendido no es desplazado por prioridad alguna y tampoco abandona el
sistema sin antes cumplir su atención.

De esta manera, consideremos:


𝜌𝑘 = 𝜆𝑘 𝐸[𝒀𝑘 ] : coeficiente de utilización del servicio con k-ésima prioridad
1 > 𝜌1 + ⋯ … . +𝜌𝐾 = 𝜌 : coeficiente de utilización total (o de servicios) del sistema inferior a 1.
(Nk, Yk): vector aleatorio de cantidad de llegadas y tiempos de servicio, asociado a la prioridad k
𝑁𝑘

𝑆𝑁𝑘 = 𝑌𝑘1 + 𝑌𝑘2 + ⋯ + 𝑌𝑘𝑁𝑘 = ∑ 𝑌𝑘𝑖


𝑖=1
Por determinar:
𝑇𝑞𝑘 , 𝑇𝑊𝑘 , para cada k

Teniendo presente 3.2.5.4.1:


𝑇𝑞1 = 𝐸[Я∗ + 𝑆𝑁1 ] = 𝐸[Я∗ ] + 𝐸[𝑆𝑁1 ] = 𝐸[Я∗ ] + 𝐸 [N1 ∙ 𝑌1 ] = 𝐸[Я∗ ] + 𝐸 [N1 ]𝐸[𝑌1 ], entonces
𝐸 [Я∗ ]
𝑇𝑞1 =
1 − 𝜌1
𝑇𝑞2 = 𝐸[Я∗ + 𝑆𝑁1 + 𝑆𝑁2 + 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑑𝑒 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑 1 𝑞𝑢𝑒 𝑙𝑙𝑒𝑔𝑎𝑛 𝑠𝑒 𝑒𝑠𝑡á 𝑒𝑛 𝑒𝑠𝑝𝑒𝑟𝑎]

𝑇𝑞2 = 𝐸[Я∗ ] + 𝐸[𝑆𝑁1 ] + 𝐸[𝑆𝑁2 ] + 𝐸[𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑑𝑒 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑 1 𝑞𝑢𝑒 𝑙𝑙𝑒𝑔𝑎𝑛 𝑑𝑢𝑟𝑎𝑛𝑡𝑒 𝑙𝑎 𝑒𝑠𝑝𝑒𝑟𝑎]
= 𝐸 [Я∗ ] + 𝐸[𝑆𝑁1 ] + 𝐸[𝑆𝑁2 ] + 𝐸[𝑆𝑁(2) ],
1
(2)
𝑁1 : 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑐𝑜𝑛 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑 1 𝑚𝑖𝑒𝑛𝑡𝑟𝑎𝑠 𝑠𝑒 𝑒𝑠𝑝𝑒𝑟𝑎,
∗ (2)
= 𝐸[Я ] + 𝐸 [𝑁1 ]𝐸[𝑌1 ] + 𝐸 [𝑁2 ]𝐸[𝑌2 ] + 𝐸[𝑁1 ]𝐸[𝑌1 ]]
(2)
= 𝐸[Я∗ ] + 𝐿1 ∙ 𝐸[𝑌1 ] + 𝐿2 ∙ 𝐸[𝑌2 ] + 𝐿1 𝐸[𝑌1 ],
(2)
𝐿1 : 𝑐𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑒𝑠𝑝𝑒𝑤𝑟𝑎𝑑𝑎 𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑐𝑜𝑛 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑 1 𝑚𝑖𝑒𝑛𝑡𝑟𝑎𝑠 𝑠𝑒 𝑒𝑠𝑝𝑒𝑟𝑎𝑒𝑛 𝑓𝑖𝑙𝑎 𝑑𝑒 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑 2
= 𝐸[Я∗ ] + 𝜆1 ∙ 𝑇𝑞1 ∙ 𝐸[𝑌1 ] + 𝜆2 ∙ 𝑇𝑞2 ∙ 𝐸[𝑌2 ] + 𝜆1 ∙ 𝑇𝑞2 ∙ 𝐸 [𝑌1 ],
= 𝐸[Я∗ ] + 𝜆1 ∙ 𝐸[𝑌1 ] ∙ 𝑇𝑞1 + 𝜆2 ∙ 𝐸[𝑌2 ] ∙ 𝑇𝑞2 + 𝜆1 ∙ 𝐸 [𝑌1 ] ∙ 𝑇𝑞2
= 𝐸[Я∗ ] + 𝜌1 ∙ 𝑇𝑞1 + 𝜌2 ∙ 𝑇𝑞2 + 𝜌1 ∙ 𝑇𝑞2
𝐸 [Я∗ ]
= 𝐸[Я∗ ] + 𝜌1 ∙ + 𝜌2 ∙ 𝑇𝑞2 + 𝜌1 ∙ 𝑇𝑞2
1 − 𝜌1

𝐸 [Я ]
= + 𝜌2 ∙ 𝑇𝑞2 + 𝜌1 ∙ 𝑇𝑞2
1 − 𝜌1
𝐸 [Я∗ ]
𝑇𝑞2 (1 − 𝜌1 − 𝜌2 ) =
1 − 𝜌1

168
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝐸 [Я∗ ]
𝑇𝑞2 =
(1 − 𝜌1 )(1 − 𝜌1 − 𝜌2 )
Por recurrencia, se desprende que:

𝐸 [Я∗ ]
𝑇𝑞𝑘 = , 𝑘 = 2,3, … 𝐾
(1 − 𝜌1 − ⋯ − 𝜌𝑘−1 )(1 − 𝜌1 − ⋯ − 𝜌𝑘−1 − 𝜌𝑘 )
donde:
𝐸[𝑌∗ 2 ]
𝐸 [Я∗ ] = 𝜆 ∙ ,
2
𝜆 = 𝜆1 + ⋯ + 𝜆𝐾 ,
𝜆1 ∙ 𝐸 [𝑌1 ] + ⋯ + 𝜆𝐾 ∙ 𝐸 [𝑌𝐾 ]
𝐸 [𝑌∗ ] = : 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑑𝑒 𝑜𝑟𝑑𝑒𝑛1 𝑝𝑜𝑛𝑑𝑒𝑟𝑎𝑑𝑜 𝑑𝑒𝑙 𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜 𝑒𝑛 𝑒𝑙 𝑠𝑖𝑠𝑡𝑒𝑚𝑎
𝜆

𝐸[𝑌∗ 2 ]: 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑑𝑒 𝑜𝑟𝑑𝑒𝑛 𝑑𝑜𝑠 𝑒𝑛 𝑒𝑙 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 ( 𝑝𝑜𝑛𝑑𝑒𝑟𝑎𝑑𝑜 𝑠𝑒𝑔ú𝑛 𝑒𝑥𝑝𝑒𝑐𝑡𝑎𝑡𝑖𝑣𝑎 𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠)𝑑𝑒 𝑙𝑜𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑣𝑜𝑠 𝑡𝑖𝑒𝑚𝑝𝑜𝑠 𝑑𝑒 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜

𝜆1 ∙ 𝐸 [𝑌12 ] + ⋯ + 𝜆𝐾 ∙ 𝐸 [𝑌𝐾2 ]
𝐸[𝑌∗ 2 ] = ,
𝜆
𝐸[𝑌12 ] + ⋯ + 𝐸[𝑌𝐾2 ]
En particular, cuando 𝜆𝑘 = 𝜆 para todo 𝑘, tal expectativa se reduce a ∶ 𝐸[𝑌∗ 2 ] =
𝐾

El tiempo de espera para ser atendido en el sistema es:


𝜆1 ∙ 𝑇𝑞1 + ⋯ + 𝜆𝐾 ∙ 𝑇𝑞𝐾
𝑇𝑞 = ,
𝜆
Además:
𝑇𝑊𝑘 = 𝑇𝑞𝑘 + 𝐸[𝑌𝑘 ]

Ejemplo7.1.1
Un sistema de servicios, atiende clientes según tres tipos de clientes, los cuales arriban según v.a. Nk con
distribuciones Poisson k=1,2,3 ; a tasas (de parámetros): 𝜆1 = 1, 𝜆2 = 𝜆3 = 2 p/minuto. Los respectivos
tiempos de servicios 𝑌𝑘 en minutos son gausianos 𝑁(0.5,0.25), 𝑁(0.2,0.01) , 𝑁(0.01,0.01) . Determinar tiempos
de espera y demora para este sistema sistema sin y con prioridades para lo distintos tipos de clientes.

a) Sin prioridades
1 2 2
𝜆 = 𝜆1 + 𝜆2 + 𝜆3 = 1 + 2 + 2 = 5; 𝑡𝑎𝑠𝑎 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠, 𝑐𝑜𝑛 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖𝑜𝑛𝑒𝑠 (𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠) , ,
5 5 5

𝜆1 ∙ 𝐸 [𝑌1 ] + ⋯ + 𝜆𝐾 ∙ 𝐸 [𝑌𝐾 ] 𝜆1 ∙ 𝐸 [𝑌1 ] + 𝜆2 ∙ 𝐸 [𝑌2 ] + 𝜆3 ∙ 𝐸 [𝑌3 ] 11 2 2 2 1 92


𝐸 [𝑌∗ ] = = = + + =
𝜆 𝜆 5 2 5 10 5 100 500

92
𝜌𝑎 =: 𝜌 = 𝜆𝐸 [𝑌∗ ] = 𝜆1 ∙ 𝐸 [𝑌1 ] + ⋯ + 𝜆𝐾 ∙ 𝐸 [𝑌𝐾 ] = 𝜆1 ∙ 𝐸 [𝑌1 ] + 𝜆2 ∙ 𝐸 [𝑌2 ] + 𝜆3 ∙ 𝐸 [𝑌3 ] = = 0.92
100

25 1 2 1
+ (2) , 𝑘=1 , 𝑘=1
100 2
1 2 2 3
𝐸 [𝑌𝑘2 ] = 𝑉 (𝑌𝑘 ) + 𝐸 2 [𝑌𝑘 ] = + (10) , 𝑘=2 = 100
, 𝑘=2
100
2 101
1 1 , 𝑘=3
{100 + (100) , 𝑘=3 {10000

1 1 1 2 ∙ 3 2 ∙ 101 1
𝐸[𝑌∗ 2 ] = (𝜆1 ∙ 𝐸 [𝑌12 ] + 𝜆2 ∙ 𝐸 [𝑌22 ] + 𝜆3 ∙ 𝐸 [𝑌32 ]) = ( + + ) = 1.0802
𝜆 𝜆 2 100 10000 𝜆

𝐸[𝑌∗ 2 ] 1.0802
𝐸 [Я∗ ] = 𝜆 ∙ = = 0.5401; ocupando 7.3.1.7.1
2 2

169
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝐸[𝑌∗ 2 ] 𝐸 [Я∗ ] 0.5401


𝑇𝑞𝑎 = : 𝑇𝑞 = 𝜆 ∙ = = = 6.75125
2(1 − 𝜌 ) 1 − 𝜌 0.08

92
𝑇𝑊 = 𝑇𝑞 + 𝐸 [𝑌∗ ] = 6.75125 + = 6.93525
500
b) Con prioridades
1
, 𝑘=1
2
2
𝜌𝑘 = 𝜆𝑘 𝐸[𝑌𝑘 ] = , 𝑘=2 ,
10
1
, 𝑘=3
{100
1 2 2 5 2 2 72
𝑐𝑜𝑛 𝜌𝑏 =: 𝜌 = 𝜌1 + 𝜌2 + 𝜌3 = + + = + + = = 0.72 < 1
2 10 100 10 10 100 100

Tiempos de espera según prioridades, se han establecido en 7.3.1.7.2


𝐸 [Я∗ ] 0.5401
𝑇𝑞1 = = = 1.0802
1 − 𝜌1 0.5
𝐸 [Я∗ ] 0.5401
𝑇𝑞2 = = = 3.6006
(1 − 𝜌1 )(1 − 𝜌1 − 𝜌2 ) 0.5 ∙ 0.3

𝐸 [Я ] 0.5401
𝑇𝑞3 = = = 6.2080
(1 − 𝜌1 − 𝜌2 )(1 − 𝜌1 − 𝜌2 − 𝜌3 ) 0.3 ∙ 0.29

𝜆1 ∙ 𝑇𝑞1 + 𝜆2 ∙ 𝑇𝑞2 + 𝜆3 ∙ 𝑇𝑞3


𝑇𝑞 = = 4.1395
𝜆
de lo cual, se aprecia que el tiempo de espera disminuye al disponer prioridades.

Además, al comparar los dos casos, resulta:

𝜆1 (1 − 𝜌𝑎 ) 𝜆2 (1 − 𝜌𝑎 ) 𝜆3 (1 − 𝜌𝑎 )
𝑇𝑞𝑏 = : 𝑇𝑞 = 𝑇 + 𝑇 + 𝑇
𝜆 1 − 𝜌1 𝑞𝑎 𝜆 (1 − 𝜌1 )(1 − 𝜌1 − 𝜌2 ) 𝑞𝑎 𝜆 (1 − 𝜌1 − 𝜌2 )(1 − 𝜌1 − 𝜌2 − 𝜌3 ) 𝑞𝑎

(1 − 𝜌𝑎 ) 𝜆1 𝜆2 𝜆3
= ( + + )𝑇
𝜆 (
1 − 𝜌1 (1 − 𝜌1 ) 1 − 𝜌1 − 𝜌2 ) ( 1 − 𝜌1 − 𝜌2 1 − 𝜌1 − 𝜌2 − 𝜌3 ) 𝑞𝑎
)(

𝑒𝑠 𝑑𝑒𝑐𝑖𝑟 , 𝑒𝑠 𝑢𝑛𝑎 𝑐𝑜𝑟𝑟𝑒𝑐𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑚𝑖𝑠 𝑚𝑜 𝑝𝑎𝑟á𝑚𝑒𝑡𝑟𝑜 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑎𝑙 𝑐𝑎𝑠𝑜 sin 𝑝𝑟𝑖𝑜𝑟𝑖𝑑𝑎𝑑

7.3.1.7.3.- Distribución del Número de clientes en el sistema


Para este desarrollo, se requiere tener presente que en cada instante t, en especial cuando ocurre una salida del
sistema, la cantidad total de clientes en el sistema Xt, está en estrecha relación con Zt: cantidad de clientes que
llegan a requerir servicio por unidad de tiempo mientras tal servicio se realiza:
𝑋 − 1 + 𝑍𝑡 , 𝑋𝑡−1 ≥ 1
𝑋𝑡 = { 𝑡−1
𝑍𝑡 , 𝑋𝑡−1 = 0
Así, para todo entero 𝑥 ≥ 0:
𝑃 (𝑍𝑡 = 𝑥 − 𝑦 + 1), 𝑦 𝑒𝑛𝑡𝑒𝑟𝑜 > 0
𝑃(𝑋𝑡 = 𝑥|𝑋𝑡−1 = 𝑦) = { 𝑃(𝑍𝑡 = 𝑥 ), 𝑦=0 (*)
0, 𝑥−𝑦+1< 0

Además, en este tipo de procesos, asumimos que las llegadas son Poisson e independientes de los tiempos de
servicio; estableciéndose, que los clientes llegan en instantes independientes del estado del sistema. Por ello, la
probabilidad al llegar un cliente encuentre que ya hay x en el sistema es la proporción del tiempo ( que a la larga) hay
x clientes en el sistema; esto es 𝑋𝑡 → 𝑋 lo que conocemos como P(𝑋𝑡 = 𝑥)=P(X=x). Por ello (*), se entiende como
la probabilidad de que X pase del estado y al x, usando Zt=Z:

𝑃(𝑋𝑡 = 𝑥, 𝑋𝑡−1 = 𝑦)
𝑃𝑋 (𝑦, 𝑥 ) =: 𝑃(𝑋𝑡 = 𝑥|𝑋𝑡−1 = 𝑦) = ;
𝑃(𝑋𝑡−1 = 𝑦)
170
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑃(𝑍 = 𝑥 − 𝑦 + 1), 𝑦 𝑒𝑛𝑡𝑒𝑟𝑜 > 0


𝑃𝑋 (𝑦, 𝑥 ) =: { 𝑃 (𝑍 = 𝑥 ), 𝑦=0
0, 𝑥−𝑦+1 <0

Así:
𝑃(𝑋𝑡 = 𝑥, 𝑋𝑡−1 = 𝑦) = 𝑃𝑋 (𝑦, 𝑥 )𝑃(𝑋 = 𝑦);
∞ ∞ 𝑥+1

𝑃(𝑋 = 𝑥 ) = ∫ 𝑃𝑋 (𝑦, 𝑥 ) 𝑑𝐹𝑋 (𝑦) = ∑ 𝑃𝑋 (𝑦, 𝑥 ) 𝑃𝑋 (𝑦) = 𝑃𝑋 (0, 𝑥 )𝑃𝑋 (0) + ∑ 𝑃𝑋 (𝑦, 𝑥 ) 𝑃𝑋 (𝑦)
−∞ 𝑦=0 𝑦=1
Veamos el aporte a este planteamiento, desde el punto de vista de la función generadora de probabilidad (momentos
factoriales), según se presentó en 3.1.4.2.c:
∞ ∞ ∞ 𝑥+1

 𝑋 (𝑡) = 𝐸 [𝑡 𝑋 ] = ∑ 𝑓𝑋 (𝑥 ) 𝑡 𝑥 = ∑ 𝑃(𝑋 = 𝑥) 𝑡 𝑥 = ∑ (𝑃𝑋 (0, 𝑥 )𝑃𝑋 (0) + ∑ 𝑃𝑋 (𝑦, 𝑥 ) 𝑃𝑋 (𝑦)) 𝑡 𝑥


𝑥=0 𝑥=0 𝑥=0 𝑦=1

∞ ∞ 𝑥+1 ∞ ∞ ∞

= 𝑃𝑋 (0) ∑ 𝑃𝑋 (0, 𝑥 )𝑡 + ∑ ∑ 𝑃𝑋 (𝑦, 𝑥 ) 𝑃𝑋 (𝑦) 𝑡 = 𝑃𝑋 (0) ∑ 𝑃(𝑍 = 𝑥)𝑡 + ∑ ∑ 𝑃𝑋 (𝑦, 𝑥 ) 𝑃𝑋 (𝑦) 𝑡 𝑥


𝑥 𝑥 𝑥

𝑥=0 𝑥=0 𝑦=1 𝑥=0 𝑥=0 𝑦=1


∞ ∞ ∞

= 𝑃𝑋 (0)  𝑍 (𝑡) + ∑ 𝑃𝑋 (𝑦) ∑ 𝑃𝑋 (𝑦, 𝑥 ) 𝑡 𝑥 + (𝑃𝑋 (0) − 𝑃𝑋 (0)) ∑ 𝑃𝑋 (𝑦, 𝑥 )𝑡 𝑥


𝑦=1 𝑥=0 𝑥=0
∞ ∞ ∞

= 𝑃𝑋 (0)  𝑍 (𝑡) + ∑ 𝑃𝑋 (𝑦) ∑ 𝑃𝑋 (𝑦, 𝑥 ) 𝑡 𝑥 − 𝑃𝑋 (0) ∑ 𝑃𝑋 (𝑦, 𝑥 )𝑡 𝑥


𝑦=0 𝑥=0 𝑥=0

∞ ∞

= 𝑃𝑋 (0)  𝑍 (𝑡) + ∑ ((𝑃𝑋 (𝑦)−𝑃𝑋 (0)) ∑ 𝑃(𝑍 = 𝑥 − 𝑦 + 1)) 𝑡 𝑥+1−𝑦 𝑡 −(1−𝑦)


𝑦=0 𝑥=0
∞ ∞

= 𝑃𝑋 (0)  𝑍 (𝑡) + ∑ ((𝑃𝑋 (𝑦)𝑡 −(1−𝑦)


− 𝑃𝑋 (0)𝑡 −(1−𝑦) )
∑ 𝑃(𝑍 = 𝑥 − 𝑦 + 1) ∙ 𝑡 𝑥+1−𝑦 )
𝑦=0 𝑥=0
∞ ∞

= 𝑃𝑋 (0)  𝑍 (𝑡) + 𝑡 −1 ∑ ((𝑃𝑋 (𝑦)𝑡 𝑦 − 𝑃𝑋 (0)𝑡 −𝑦 ) ∑ 𝑃 (𝑍 = 𝑥 − 𝑦 + 1) ∙ 𝑡 𝑥+1−𝑦 )


𝑦=0 𝑥=0
teniendo presente: para 𝑥 + 1 − 𝑦 < 0 ( 𝑒. 𝑑. 𝑦 > 𝑥 + 1); 𝑃 (𝑍 = 𝑥 − 𝑦 + 1) = 0; h=x+1-y

∞ ∞

= 𝑃𝑋 (0)  𝑍 (𝑡) + 𝑡 −1 (∑ 𝑃𝑋 (𝑦)𝑡 −𝑃𝑋 (0)) ∑ 𝑃(𝑍 = ℎ) ∙ 𝑡 ℎ


𝑦

𝑦=0 ℎ=0

= 𝑃𝑋 (0)  𝑍 (𝑡) + 𝑡 −1 (  𝑋 (𝑡)−𝑃𝑋 (0)) ∑ 𝑃 (𝑍 = ℎ) ∙ 𝑡 ℎ


𝑥=0

 𝑋 (𝑡 ) = 𝑃𝑋 (0)  (𝑡) + 𝑡 −1 (  𝑋 (𝑡)−𝑃𝑋 (0))  𝑍 (𝑡), ecuación , de donde se obtiene


𝑍

( 𝑡 −  𝑍 (𝑡 )) ∙  (𝑡 ) = (𝑡−1) ∙ 𝑃𝑋 (0)  (𝑡); finalmente


𝑋 𝑍
(𝑡−1) ∙ 𝑃𝑋 (0) ∙  𝑍 (𝑡)
 𝑋 (𝑡 ) =
𝑡 −  𝑍 (𝑡 )
entonces

171
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑡 −  𝑍 (𝑡 )
𝑃𝑋 (0) =  𝑋 (𝑡 )
(𝑡 − 1)  𝑍 (𝑡)

∞ 0
Es sabido que:  𝑋 (𝑡) → ∫−∞ 𝑑𝐹𝑋 = 1, 𝑐𝑢𝑎𝑛𝑑𝑜 𝑡 → 1, por ello lim𝑡→1  𝑋 (𝑡) 𝑒𝑠 𝑑𝑒 𝑙𝑎 𝑓𝑜𝑟𝑚𝑎 0

lográndose una expresión más simple para P(X=0) y por ende también para la func. Generadora Factorial :

𝑑 𝑑
(𝑡−1) ∙ 𝑃𝑋 (0) ∙  𝑍 (𝑡) 𝑃𝑋 (0) ∙ 𝑑𝑡 ((𝑡 − 1) ∙  𝑍 (𝑡))  𝑍 (𝑡) + (𝑡 − 1) ∙ 𝑑𝑡  (𝑡)
𝑍
lim = lim = 𝑃𝑋 (0) ∙ lim
𝑡→1 𝑡 −  𝑍 (𝑡 ) 𝑡→1 𝑑 𝑡→1 𝑑
𝑑𝑡 (𝑡 −  𝑍 𝑡 )
( ) 𝟏 − 𝑑𝑡  (𝑡)
𝑍

1 𝑃𝑋 (0)
= 𝑃𝑋 (0) =
𝑑 1 − 𝐸[𝑍]
− 𝑑𝑡  (𝑡)
𝑍
𝑃𝑋 (0)
1 = lim  𝑋 (𝑡) =
𝑡→1 1 − 𝐸[𝑍]

𝑃𝑋 (0) = 1 − 𝐸 [𝑍] la expectativa de llegadas es inferior a 1 durante cada servicio


;
(𝑡 − 1) ∙  𝑍 (𝑡)
 𝑋 (𝑡) = (1 − 𝐸[𝑍])
𝑡 −  𝑍 (𝑡 )

Nos resta entonces, determinar  𝑍 (𝑡):


Supongamos que los clientes concurren en cantidades aleatoria N según distribución Poisson P(λ);
𝜆𝑦 𝑥
𝑃𝑧 (𝑦, 𝑥 ) = ( 𝑥! ) 𝑒 −𝜆𝑦 ∶ 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑞𝑢𝑒 lleguen n clientes en un tiempo de servicio 𝑌 con distribución no
necesariamente Exponencial
∞ ∞ ∞ ∞ ∞ ∞ ∞

 𝑍 (𝑡) = ∑ 𝑃(𝑍 = 𝑥) 𝑡 = ∑ ∫ 𝑃𝑧 (𝑦, 𝑥 ) 𝑑𝐹𝑌 (𝑦)𝑡 = ∑ ∫ 𝑃𝑧 (𝑦, 𝑥 ) 𝑓𝑌 (𝑦)𝑡 𝑑𝑦 = ∫ 𝑓𝑌 (𝜏) ∑ 𝑃𝑧 (𝑦, 𝑥 ) 𝑡 𝑥 𝑑𝑦


𝑥 𝑥 𝑥

𝑥=0 𝑥=0 −∞ 𝑥=0 −∞ −∞ 𝑥=0


∞ ∞ ∞ ∞ ∞
𝑥
𝜆𝑦𝑡
= ∫ 𝑓𝑌 (𝑦) 𝑡 𝑥 𝑑𝑦 = ∫ 𝑒 −𝜆𝑦 𝑓𝑌 (𝑦) ∑ ( ) 𝑑𝑦 = ∫ 𝑒 𝜆(𝑡−1)𝑦 𝑓𝑌 (𝑦) 𝑑𝑦 = ∫ 𝑒 𝜆(𝑡−1)𝑦 ∙ 𝑓𝑌 (𝑦) 𝑑𝑦
𝑥!
−∞ −∞ 𝑥=0 −∞ −∞

 𝑍 (𝑡) = 𝜑𝑌 (𝜆(𝑡 − 1)): función generadora de momentos centrales de la v.a. Y, evaluada en 𝛼 = 𝜆(𝑡 − 1)

En este escenario:
𝑑 𝑑 𝑑
 (1) = 𝜑𝑌 (𝜆(1 − 𝑡))|
𝐸 [𝑍 ] = = 𝜆 𝜑𝑌 ( t) | = 𝜆𝐸 [𝑌] = 𝜌
𝑑𝑡 𝑍 𝑑𝑡 𝛼=0 𝑑𝑡 𝑡=1
Finalmente, al reemplazar en la func. Generadora Factorial de X, obtenemos:

(𝒕 − 𝟏) ∙ 𝝋𝒀 (𝝀(𝒕 − 𝟏))
 𝑿 (𝒕) = (𝟏 − 𝝆)
𝒕 − 𝝋𝒀 (𝝀(𝒕 − 𝟏))
expresión conocida como ecuación de transformación de Pollaczek-Khinchin (PK transformación)

Por lo tanto, al disponer de la expansión en serie de potencias x de t, x=0,1,2,3,….. se obtendrá 𝐟𝑿 (𝒙)

Aplicación
Una utilización trivial de este resultado, es la deducción correspondiente al caso M/M/1; efectivamente para atención
Yde tipo exponencial Exp(μ), su correspondiente generadora de momentos es:
−1
𝑡 1 𝜇
𝝋𝒀 (𝒕) = (1 − ) = 𝑡 =𝜇−𝑡
𝜇 1−
𝜇
172
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Entonces:
𝜇
𝝋𝒀 (𝜆(𝑡 − 1)) =
𝜇 − 𝜆( 𝑡 − 1)
𝜇
(𝑡 − 1) ∙ 𝜇 (𝑡 − 1) ( 𝑡 − 1) 1−𝜌
𝜇 − 𝜆 (𝑡 − 1 )
 𝑿 ( 𝒕) = ( 1 − 𝜌 ) 𝜇 = (1 − 𝜌 ) = (1 − 𝜌 )
( )
=
𝑡 − 𝑡(𝜇 − 𝜆(𝑡 − 1)) − 𝜇 𝑡 − 𝜌𝑡 𝑡 − 1 − 1 1 − 𝜌𝑡
𝜇 − 𝜆 (𝑡 − 1)

Acudiendo a la serie de Taylor:


1
= 1 + 𝑡 + 𝑡2 + ⋯ + 𝑡𝑛 + ⋯
1−𝑡
Luego, asociando los coeficientes término a término, obtenemos:
∞ ∞ ∞
1−𝜌
∑ 𝑃(𝑋 = 𝑥) 𝑡 =  𝑋 𝑡 =
𝑥 ( ) = 1 − 𝜌 ∑ 𝜌𝑡 = ∑(1 − 𝜌)𝜌 𝑥 𝑡 𝑥 ;
( ) ( ) 𝑥
𝑃 ( 𝑋 = 𝑥 ) = (1 − 𝜌 )𝜌 𝑥
1 − 𝜌𝑡
𝑥=0 𝑥=0 𝑥=0

7.3.1.7.4.- Distribución del Tiempo de espera y demora en el sistema

Denotando las respectivas v.a. tiempo de espera y demora, mediante: tq , tW


Como recién deducimos:  𝑍 (𝑡) = 𝜑𝑌 (𝜆(𝑡 − 1)), para Y tiempo de servicio. Al proceder de igual manera, pero al
poner en correspondencia la v.a Xcon tw, , se tiene:

 𝑋 (𝑡) = 𝜑𝑡𝑊 (𝜆(𝑡 − 1))


Por otra parte, al aplicar la transformación P-K entre X e Y:

(𝑡 − 1) ∙ 𝜑𝑌 (𝜆(𝑡 − 1))
𝜑𝑡𝑊 (𝜆(𝑡 − 1)) = (1 − 𝜌)
𝑡 − 𝜑𝑌 (𝜆(𝑡 − 1))

Siendo 𝜏 = 𝜆(𝑡 − 1)
𝜏 𝜑𝑌 ( 𝜏 ) 𝜏𝜑𝑌 (𝜏)
𝜑𝑡𝑊 (𝜏) = (1 − 𝜌) = (1 − 𝜌 )
𝜆 𝜏 + 1 − 𝜑𝑌 ( 𝜏 ) 𝜏 + 𝜆 − 𝜆𝜑𝑌 (𝜏)
𝜆

𝑡𝑊 = 𝑡𝑞 + 𝑌; Ф𝑡𝑊 (𝜏) = Ф𝑡𝑞 (𝜏) ∙ Ф𝑌 (𝜏);


𝜏Ф𝑌 (𝜏) 1 𝜏
Ф𝑡𝑞 (𝜏) = (1 − 𝜌) = (1 − 𝜌 )
𝜏 + 𝜆 − 𝜆Ф𝑌 (𝜏) Ф𝑌 (𝜏) 𝜏 + 𝜆 − 𝜆Ф𝑌 (𝜏)
lo cual también se replica, a las respectivas funciones generadoras, cuando ellas existen

𝝉
𝝋𝒕𝒒 (𝝉) = (𝟏 − 𝝆)
𝝉 + 𝝀 − 𝝀𝝋𝒀 (𝝉)
tambien conocida como una transformación P-K

Aplicación
-Continuando con la ilustración en M/M/1,para corroborar resultados y conocidos , obtenemos:
𝜇
𝜏𝜑𝑌 (𝜏) 𝜏∙𝜇−𝜏 𝜏∙𝜇 (1 − 𝜌 ) ∙ 𝜇
𝜑𝑡𝑊 (𝜏) = (1 − 𝜌) = (1 − 𝜌 ) 𝜇 = (1 − 𝜌 ) ( =
𝜏 + 𝜆 − 𝜆𝜑𝑌 (𝜏) 𝜏 +𝜆 − 𝜆𝜇−𝜏 𝜏 + 𝜆 )( 𝜇 − 𝜏 ) − 𝜆𝜇 −𝜏 −𝜆+𝜇
( 1 − 𝜌 )𝜇
=
(1 − 𝜌 )𝜇 − 𝜏

173
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

(1−𝜌)𝜇
la cual procede de una función característica Ф𝑡𝑊 (𝜏) = 𝑖𝜏−(1−𝜌)𝜇, asociada a una v.a. 𝑡𝑊 ~ 𝐸𝑥𝑝((1 − 𝜌)𝜇)
𝜏 𝜏 (𝜇 − 𝜏)(1 − 𝜌) (𝜇 − 𝜏 )
𝜑𝑡𝑞 (𝜏) = (1 − 𝜌) = (1 − 𝜌 ) 𝜇 = = (1 − 𝜌 )
𝜏 + 𝜆 − 𝜆𝜑𝑌 (𝜏) 𝜏 +𝜆 − 𝜆𝜇 −𝜏 (𝜏 + 𝜆)(𝜇 − 𝜏) − 𝜆𝜇 −𝜏 − 𝜆 + 𝜇

(𝜇 − 𝜏 − 𝜆 + 𝜆 ) 𝜆 𝜆 ∙ (1 − 𝜌 )
= (1 − 𝜌) = (1 + ) (1 − 𝜌 ) = (1 − 𝜌 ) +
−𝜏 − 𝜆 + 𝜇 −𝜏 − 𝜆 + 𝜇 (1 − 𝜌 )𝜇 − 𝜏

Debido a que:
 𝑡𝑞 (0) = 𝑓𝑡𝑞 (0) = 𝑃(𝑡𝑞 = 0) = 𝑃𝑋 (0) = 1 − 𝜌

𝜆 ∙ (1 − 𝜌 ) (1 − 𝜌 )𝜇 𝜆 ∙ (1 − 𝜌 )
Ф𝑡𝑞 (𝜏) = (1 − 𝜌) + = (1 − 𝜌) ∙ 𝐼𝑡𝑞 =0 + Ф (𝜏 ),
(1 − 𝜌)𝜇 (1 − 𝜌)𝜇 − 𝑖𝜏 ( 1 − 𝜌 )𝜇 𝐻

𝐻~𝐸𝑥𝑝( (1 − 𝜌)𝜇); 𝑓𝐻 (ℎ) = (1 − 𝜌)𝜇𝑒 (1−𝜌)𝜇ℎ , ℎ > 0

Entonces si existe 𝜑𝑡𝑞


𝜆 ∙ (1 − 𝜌 ) (1 − 𝜌 )𝜇
 𝑡𝑞 (𝜏) = 𝜑𝑡𝑞 (𝜏) = (1 − 𝜌) ∙ 𝐼𝑡𝑞=0 + ( 𝜑 (𝜏 ), 𝑑𝑜𝑛𝑑𝑒 𝜑𝐻 (𝜏) =
1 − 𝜌 )𝜇 𝐻 (1 − 𝜌 )𝜇 − 𝜏

1 − 𝜌, ℎ=0
1 − 𝜌, ℎ = 0
𝜆 ∙ (1 − 𝜌 ) (1−𝜌)𝜇ℎ
𝑓𝑡𝑞 (ℎ) = 𝑓 (ℎ ), ℎ > 0 = {𝜆 ∙ ( 1 − 𝜌 ) 𝑒 , ℎ>0
( 1 − 𝜌 )𝜇 𝐻
0, 𝑜. 𝑐.
{ 0, 𝑜. 𝑐. }
-De esta particular aplicación, se desprende que aquellas funciones generadoras de momentos que aditivamente se
descompongan en un término constante y demás expresiones como combinación lineal (c.l.)de generatrices
identificables; permiten reconocer la densidad de 𝑡𝑞 con la sgte. asociación:
-la constante corresponde P(𝑡𝑞 = 0)
-la c.l. que compaña al termino anterior se ha de entender como una c.l. o mezcla de las referidas densidades todas
ya identificadas
A modo de ilustración:
1 −9 2 100
Si  𝑡𝑞 (𝜏) = 𝜑𝑡𝑞 (𝜏) = (1 − 𝜌) (𝑎0 + 𝑎1 (1−2𝜏) + 𝑎2 𝑒 𝑡+0.02𝑡 + 𝑎3 𝑡 2 +100 𝑒 3𝑡 )
𝑓𝑡𝑞 (ℎ) = (1 − 𝜌)(𝑎0 ∙ 𝐼𝑡𝑞 =0 + 𝑎1 𝑓1 (ℎ) + 𝑎2 𝑓2 (ℎ) + 𝑎3 𝑓3 (ℎ)),
donde ∶ 𝑓𝑡𝑞 (0) = 𝑃(𝑡𝑞 = 0), 𝑓1 (ℎ) = (18)
2
( h) , 𝑓2 (ℎ) = 𝑁(1,0.01) (ℎ), 𝑓3 (ℎ) = 𝐿(10,3) (ℎ)

7.3.1.8.- Modelo G/M/1

Este modelo contempla, un servicio con tiempo de atención 𝑌~𝐸𝑥𝑝(𝜇) , en consecuencia un número aleatorio de
atenciones P(µ) por unidad de tiempo, lo que indica que estamos ante un proceso Poisson que contabiliza la cantidad
de servicios por unidad de tiempo: pero no se restringe a tiempo exponencial entre llegadas; considera llegadas con
distribución conocida y arbitraria, para lo cual se designa como G la distribución del lapso entre llegadas con media
1
[unidades de tiempo].
𝜆

7.3.1.8.1- Parámetros del sistema

Situación que en general no permite advertir el comportamiento aleatorio de cantidad de llegadas (por unidad de
tiempo), o si estas ocurren de manera independiente en lapsos de tiempo disjuntos. Por ende, no da lo mismo
situarse en cualquier instante del tiempo, frente a este sistema en funcionamiento, lo que obliga efectuar una
descomposición de llegadas , esperas, servicios y salidas , diferente a lo realizado en M/M/1.

Observemos el sistema, desde el punto de vista que dispone un cliente al llegar; definiendo
174
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Xn : número de clientes en el sistema, cuando ocurre la n-ésima llegada

𝐽: cantidad de atendidos entre la llegada de 𝑋𝑛 𝑦 𝑋𝑛+1

Disponemos así de un proceso {𝑋𝑛 , 𝑛 ≥ 1}, sobre el cual podemos admitir, las probabilidades de transición se
obtienen apreciando que al ocurrir una llegada, encuentra i clientes en el sistema 𝑋𝑛 = 𝑖, la siguiente llegada que
ocurre en un lapso de tiempo △ 𝑡, encontrará al cliente anterior menos los ya atendido (el anterior inclusive):

𝑋𝑛+1 = 𝑖 + 1 − 𝑗, 𝑗 = 0,1, … . 𝑖;

𝑃(𝑋𝑛+1 = 𝑖 + 1 − 𝑗|𝑋𝑛 = 𝑖 ) → 𝑝(𝑖, 𝑖 + 1 − 𝑗), 𝑐𝑢𝑎𝑛𝑑𝑜 △ 𝑡 → 0 ; con 𝑝(𝑖, 𝑖 + 1 − 𝑗) probabilidad de transición


del estado i al i+1-j de un nuevo proceso asociado a la cantidad aleatoria J=j de atenciones habiendo i
elementos en el sistema:
Para J=j>i+1; 𝑝(𝑖, 𝑖 + 1 − 𝑗) = 0

Siendo j=0,1,2,….,i,i+1:
𝑝(𝑖, 0) = 𝑃(𝑐𝑢𝑎𝑛𝑑𝑜 𝑙𝑙𝑒𝑔𝑎 𝑠𝑢𝑗𝑒𝑡𝑜 𝑖 + 1, 𝑛𝑜 𝑒𝑠𝑝𝑒𝑟𝑎 𝑝𝑜𝑟 𝑠𝑒𝑟 𝑎𝑡𝑒𝑛𝑑𝑖𝑑𝑜 )
= 1 − 𝑃(𝑎𝑙 𝑙𝑙𝑒𝑔𝑎𝑟 𝑖 + 1, 𝑦𝑎 𝑠𝑒 𝑎𝑡𝑒𝑛𝑑𝑖ó 𝑎 𝑡𝑜𝑑𝑜𝑠 𝑙𝑜𝑠 𝑖 𝑐𝑙𝑖𝑒𝑛𝑡𝑒𝑠 𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟𝑒𝑠)
𝑖

= 1 − ∑ 𝑝(𝑖, 𝑖 + 1 − 𝑗)
𝑗=0
(𝐽 = 𝑗|𝐺 = 𝑡)~𝑃(𝜇𝑡)

a la larga 𝑃 𝐽 = 𝑗 = ∫0 𝑃 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑜𝑐𝑢𝑟𝑟𝑎𝑛 𝑒𝑛𝑡𝑟𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑒𝑛 𝑙𝑎𝑝𝑠𝑜 𝐺𝑑𝑒 𝑎𝑚𝑝𝑙𝑖𝑡𝑢𝑑 = 𝑡)𝑑𝐹𝐺 (𝑡)
( ) (
∞ ∞ ∞
(𝜇𝑡)𝑗
= ∫ 𝑃(𝐽 = 𝑗|𝐺 = 𝑡)𝑑𝐹𝐺 (𝑡)) = ∫ 𝑓𝐽=𝑗|𝐺=𝑡) (𝑗, 𝑡)𝑑𝐹𝐺 (𝑡) = ∫ 𝑒 −𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡)
𝑗!
0 0 0

Denotando: 𝑃(𝑖, 𝑗) = 𝑝(𝑖, 𝑖 + 1 − 𝑗), la probabilidad de efectuar j atenciones en un lapso de amplitud t de tiempo
dado por los arribos i e i+1 ; permite presentar resumidamente:
0, 𝑗 >𝑖+1
𝑝(𝑖, 0), 0
𝑃(𝐽 = 𝑗, 𝑎𝑡𝑒𝑛𝑐𝑖𝑜𝑛𝑒𝑠 𝑒𝑛 𝑡𝑖𝑒𝑚𝑜𝑝𝑜 𝑡) = ∞ (𝜇𝑡)𝑗
∫ 𝑒 −𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡), 0 < 𝑗 ≤ 𝑖 + 1
𝑗!
{0

Lo conduce al sgte. sistema que posee solución única para 𝜋𝑗

∞ ∞

𝜋𝑗 = ∑ 𝜋𝑖 𝑃(𝑖, 𝑗) , tales que ∑ 𝜋𝑗 = 1,


𝑖=0 𝑗=0
𝜋𝑗 : 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑙í𝑚𝑖𝑡𝑒 𝑞𝑢𝑒 𝑎𝑙 𝑜𝑐𝑢𝑟𝑟𝑖𝑟 𝑢𝑛 𝑎𝑟𝑟𝑖𝑏𝑜 ℎ𝑎𝑦𝑎𝑛 𝑗 𝑐𝑙𝑖𝑒𝑛𝑡𝑒𝑠 𝑒𝑛 𝑒𝑙 𝑠𝑖𝑠𝑡𝑒𝑚𝑎
𝜋𝑗 = lim 𝑃(𝑛) (𝑖, 𝑗) , 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑡𝑖𝑒𝑚𝑝𝑜, 𝑞𝑢𝑒 𝑎𝑙 𝑙𝑙𝑒𝑔𝑎𝑟 𝑢𝑛 𝑐𝑙𝑖𝑒𝑛𝑡𝑒 𝑝𝑟𝑒𝑠𝑒𝑛𝑐𝑖𝑒 𝑗 + 1 servicios
𝑛→∞
𝑗 𝑞𝑢𝑒 𝑜𝑐𝑢𝑟𝑒𝑛 𝑒𝑛 𝑠𝑢 𝑝𝑟𝑒𝑠𝑒𝑛𝑐𝑖𝑎 𝑚á𝑠 𝑠𝑢 𝑝𝑟𝑜𝑝𝑖𝑜 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜
𝑃(𝑛)(𝑖, 𝑗) = 𝑃(𝑞𝑢𝑒 𝑒𝑛 𝑛 𝑜𝑐𝑎𝑠𝑖𝑜𝑛𝑒𝑠 𝑎𝑙 𝑙𝑙𝑒𝑔𝑎𝑟 𝑒𝑙 𝑐𝑙𝑖𝑒𝑛𝑡𝑒 𝑖 , 𝑜𝑐𝑢𝑟𝑟𝑎𝑛 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠
( véase:- S.Ross, Teorema Ergodico para cadenas de Markov irreductibles
∞ ∞

𝜋𝑗 = ∑ 𝜋𝑖 ∙ 𝑃 (𝑖, 𝑗) = ∑ 𝜋𝑖 ∙ 𝑃(𝑖, 𝑖 + 1 − 𝑗) , lo cual es equivalente a


𝑖=0 𝑖+1−𝑗=0

175
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

∞ ∞
(𝜇𝑡)𝑖+1−𝑗
𝜋𝑗 = ∑ 𝜋𝑖 ∫ 𝑒 −𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡), 𝑗≥1
(𝑖 + 1 − 𝑗)!
𝑖=𝑗−1 0
Sistema como ya mencionamos de única solución, la cual podemos buscarla de la forma más simple como polinomio
de grado j en alguna constante β; sea entonces 𝜋𝑗 = 𝑐 ∙ 𝛽 𝑗 (obviamente deben satisfacerse las restricciones c>0,
0< 𝛽 < 1); la solución propuesta, que de encontrar el par (c, β ) que de cumplimiento al citado sistema, indicará
que es la solución buscada:
∞ ∞ ∞
1
1 = ∑ 𝜋𝑗 = ∑ 𝑐 ∙ 𝛽 = 𝑐 ∑ 𝛽 𝑗 = 𝑐
𝑗
, 𝛽 < 1; 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑐 = 1 − 𝛽
1−𝛽
𝑗=0 𝑗=0 𝑗=0
𝜋𝑗 = 𝑐 ∙ 𝛽 𝑗 = (1 − 𝛽 )𝛽 𝑗 , 𝑗≥0
por su parte 𝛽:
∞ ∞
(𝜇𝑡)𝑖+1−𝑗
𝑐 ∙ 𝛽 = ∑ 𝑐 ∙ 𝛽 ∫ 𝑒 −𝜇𝑡
𝑗 𝑖
∙ 𝑑𝐹𝐺 (𝑡)
(𝑖 + 1 − 𝑗 )!
𝑖=𝑗−1 0

∞ ∞ ∞ ∞
𝑖 −𝜇𝑡
(𝜇𝑡)𝑖+1−𝑗 (𝜇𝑡)𝑖+1−𝑗
∑ 𝑐∙𝛽 ∫𝑒 ∙ 𝑑𝐹𝐺 (𝑡) = 𝑐 ∑ 𝛽 𝑖 ∫ 𝑒 −𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡)
(𝑖 + 1 − 𝑗 )! (𝑖 + 1 − 𝑗 )!
𝑖=𝑗−1 0 𝑖=𝑗−1 0
∞ ∞
(𝜇𝑡)𝑖+1−𝑗
= 𝑐∫ (𝑒 −𝜇𝑡 ∑ 𝛽𝑖 ) ∙ 𝑑𝐹𝐺 (𝑡)
(𝑖 + 1 − 𝑗 )!
0 𝑖=𝑗−1
∞ ∞
(𝜇𝛽𝑡)𝑖+1−𝑗
= 𝑐∫ (𝑒 −𝜇𝑡 −(1−𝑗) 𝛽 ∑ ) ∙ 𝑑𝐹𝐺 (𝑡)
(𝑖 + 1 − 𝑗 )!
0 𝑖=𝑗−1
∞ ∞
(𝜇𝛽𝑡)ℎ
= 𝑐𝛽 𝑗−1 ∫ (𝑒 −𝜇𝑡 𝛽 𝑗−1 ∑ ) ∙ 𝑑𝐹𝐺 (𝑡)
ℎ!
0 ℎ=0
∞ ∞

= 𝑐𝛽 𝑗−1 ∫ 𝑒 −𝜇𝑡 𝑒 𝜇𝛽𝑡 ∙ 𝑑𝐹𝐺 (𝑡) = 𝑐𝛽 𝑗−1 ∫ 𝑒 𝜇(𝛽−1)𝑡 ∙ 𝑑𝐹𝐺 (𝑡)


0 0

Lo que nos conduce a:


∞ ∞
𝑗 𝑗−1 𝜇(𝛽−1)𝑡
𝑐 ∙ 𝛽 = 𝑐𝛽 ∫𝑒 ∙ 𝑑𝐹𝐺 (𝑡), entonces nos hemos reducido a la ecuación: 𝛽 = ∫ 𝑒 𝜇(𝛽−1)𝑡 ∙ 𝑑𝐹𝐺 (𝑡)
0 0

La cual no es simple de resolver, debiéndose recurrir a algoritmos de métodos numéricos, aunque hay casos que
reducen dificultades, cuando G es tal que P(G>0)=1, pudiendo dar cabida a una simple ecuación:
𝛽 = 𝜑𝐺 (𝜇(𝛽 − 1)) .

Finalmente, tenemos las probabilidades de presenciar j atenciones (o servicios por el único servidor):
𝑝𝑗 = 𝑐 ∙ 𝛽 𝑗 = (1 − 𝛽 )𝛽 𝑗 , 𝑗 ≥ 0

∞ ∞ ∞ ∞
𝑗+1 𝑗+1 (1 − 𝛽 )
𝑇𝑊 = 𝐸 [𝑡𝑊 ] = E[𝐸[𝑡𝑊 |𝐽 = 𝑗]] = ∑ 𝐸 [𝑡𝑊 |𝐽 = 𝑗] 𝑝𝑗 = ∑ 𝑝𝑗 = ∑ (1 − 𝛽 )𝛽 𝑗 = ∑(𝑗 + 1) 𝛽 𝑗
𝐽 𝜇 𝜇 𝜇
𝑗=0 𝑗=0 𝑗=0 𝑗=0
∞ ∞
(1 − 𝛽 ) 𝑑 𝑗+1 (1 − 𝛽 ) 𝑑 (1 − 𝛽 ) 𝑑 1
= ∑ 𝛽 = (𝛽 ∑ 𝛽 𝑗 ) = (𝛽 );
𝜇 𝑑𝛽 𝜇 𝑑𝛽 𝜇 𝑑𝛽 1 − 𝛽
𝑗=0 𝑗=0
1
𝑇𝑊 =
𝜇 (1 − 𝛽 )

176
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1 1 1 1
𝑇𝑊 = 𝑇𝑞 + 𝐸 [𝑌] = 𝑇𝑞 + ; 𝑇𝑞 = 𝑇𝑊 − = −
𝜇 𝜇 𝜇 (1 − 𝛽 ) 𝜇

𝛽
𝑇𝑞 =
𝜇 (1 − 𝛽 )
Como
𝜆 𝜆𝛽
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆 ; 𝑊 = 𝜆𝑇𝑊 = , 𝐿 = 𝜆𝑇𝑞 =
𝜇 (1 − 𝛽 ) 𝜇 (1 − 𝛽 )

Aplicación:
Si abordamos desde este punto de vista un sistema M/M/1; G=Exp(𝜆), P(G>0)=1; entonces
𝜆 𝜆 𝜌 𝜆
𝛽 = 𝜑𝐺 (𝜇(𝛽 − 1)) = 𝜆−𝜇(𝛽−1) = 𝜆−𝜇(𝛽−1) = 𝜌−(𝛽−1) 𝑐𝑜𝑛 𝜌 = 𝜇; ;

𝜌
𝛽=  𝛽 2 − (𝜌 + 1)𝛽 + 𝜌 = 0  ( 𝛽 − 𝜌 ) (𝛽 + 1)  𝛽 = 𝜌
𝜌−𝛽+1

7.3.1.8.2- Períodos ocupados y ocio del servidor

Dada la forma de las expresiones obtenidas para 𝑝𝑗 = 𝑐 ∙ 𝛽 𝑗 = (1 − 𝛽 )𝛽 𝑗 , por lo tanto 𝑝0 = 1 − 𝛽


1 − 𝛽 : es la probabilidad que no hayan atenciones o que el sistema esté vacío; por ende
𝛽 : probabilidad que haya alguien en el sistema ( al menos un cliente), lo que es sinónimo de servidor ocupado

𝑡𝑞𝑜𝑐𝑢𝑝 : tiempo de espera en la fila para ser atendido, cuando el servidor está ocupado, es decir el tiempo medio
en que el servidor está ocupado

Dada la analogía expuesta respecto a 𝑝0 , podemos referirnos el caso M/M/1, (véase 7.3.1.6d), en el cual

𝑑𝐹𝑡𝑞 (𝑡) = (1 − 𝛽 )𝐼𝑡=0 + 𝛽𝜇(1 − 𝛽)𝑒 −𝜇(1−𝛽)𝑡 𝐼𝑡>0

Era una mezcla con pesos 1-𝛽, 𝛽 entre comportamiento constante (cuando el servidor esta en ocio) y otro aleatorio
1
(al encontrarse el servidor ocupado) entonces exponencial de media 𝜇(1−𝛽). Ahora, el presente sistema proporciona
0, 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑒𝑠𝑡á 𝑣𝑎𝑐í𝑜
𝑡𝑞 = {𝑡 ∗ , aunque sin disponer de la distribución de 𝑡𝑞 , es posible afirmar:
𝑞𝑜𝑐𝑢𝑝 , 𝑡𝑞 > 0

𝛽 ∗ ∗ ∗
= 𝑇𝑞 = 𝐸[𝑡𝑞 ] = 0 ∙ 𝑃(𝑡𝑞𝑜𝑐𝑢𝑝 = 0) + 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] ∙ 𝑃(𝑡𝑞𝑜𝑐𝑢𝑝 > 0)
𝜇 (1 − 𝛽 )
∗ ∗
= 0 ∙ 𝑝0 + 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] ∙ (1 − 𝑝0 ) = 𝛽 ∙ 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ]

𝛽
𝛽 ∙ 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ]=
𝜇 (1 − 𝛽 )
∗ ∗
1
𝑇𝑞𝑜𝑐𝑢𝑝 =: 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ]=
𝜇 (1 − 𝛽 )

Por otra parte, conceptualmente , la proporción del tiempo en que el servidor está en ocio:

𝑝0 =
𝑙𝑎 𝑠𝑢𝑚𝑎 𝑑𝑒 𝑙𝑜𝑠 𝑡𝑖𝑒𝑚𝑝𝑜𝑠 𝑒𝑛 𝑜𝑐𝑖𝑜 𝑒𝑛 𝑛 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜 𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜 𝑒𝑛 𝑜𝑐𝑖𝑜 𝑒𝑛 𝑛 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠
lim𝑛→∞ 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑡𝑖𝑒𝑚𝑝𝑜𝑠 𝑒𝑛 𝑜𝑐𝑖𝑜 𝑚𝑎𝑠 𝑎𝑡𝑒𝑛𝑐𝑖𝑜𝑛𝑒𝑠 𝑒𝑛 𝑛 𝑎𝑟𝑟𝑖𝑏𝑜𝑠 = lim
𝑛→∞ 𝑠𝑢𝑚𝑎 𝑑𝑒 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜𝑠 𝑒𝑛 𝑜𝑐𝑖𝑜 𝑦 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟 𝑜𝑐𝑢𝑝𝑎𝑑𝑜 𝑒𝑛 𝑛 𝑎𝑟𝑟𝑖𝑏𝑜𝑠
∗ ∗
𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] 𝑇𝑞𝑜𝑐𝑖𝑜
= ∗
=: ∗ ∗
𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] + 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝
∗ ] 𝑇𝑞𝑜𝑐𝑖𝑜 + 𝑇𝑞𝑜𝑐𝑢𝑝

𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ]
1 − 𝑝0 = ∗
𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] + 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝
∗ ]
Así, tenemos la sgte. relación respecto al tiempo de funcionamiento:

𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] 1 − 𝑝0 𝛽
∗ = =
𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] 𝑝0 1−𝛽
177
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa


𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] 𝛽 ∗ ∗
1−𝛽 ∗ ∗
∗ =  (1 − 𝛽 ) ∙ 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] = 𝛽 ∙ 𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] ∙ 𝐸[𝑡𝑞𝑜𝑐𝑢𝑝 ] = 𝑇𝑞𝑜𝑐𝑖𝑜
𝐸[𝑡𝑞𝑜𝑐𝑖𝑜 ] 1 − 𝛽 𝛽


1
𝑇𝑞𝑜𝑐𝑖𝑜 =
𝛽𝜇

7.3.2.-. Una fila – un servidor – población finita (M/M/1):(GD /∞/m )

La presente sección, supone que la población que requiere el servicio es finita, por lo cual consideremos enteros:
m >0 : número de elementos de la población.
n: elementos que concurren al sistema (n< m)
En este caso debemos pensar que de manera totalmente aleatoria, n ( objetos distintos y distinguibles) de los m
elementos de la población concurren a una fila, ubicándose en ella de 𝑃𝑚,𝑛 maneras, estableciéndose la siguiente
relación de equilibrio:
-Mientras atiende al primero, llegan todos los demás
λ λ λ λ λ

0 1 …………….... m-1 m
2 3


-Cuando hay n clientes en el sistema, m-n no han concurrido todavía…………
λ λ λ λ λ

…… ……………....
n-1 n n+1 …
m-(n-1)

 

m-n clientes fuera del sistema

-se detiene , cuando atiende el último una vez que este llega luego del penúltimo
λ

m-1 m ………………………………

P 1 (t) =m λP o (t)
(+(m-n)  ) Pn (t)= (m-(n-1))  Pn-1 (t)+  Pn+1 (t), 1≤n≤m
Pm(t) = λPm- 1(t)
178
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

De lo cual se desprende: 𝑃𝑛 (𝑡) = (𝑚 − (𝑛 − 1))𝜌𝑃𝑛−1 (𝑡) = (𝑚 − (𝑛 − 1))(𝑚 − (𝑛 − 2))𝜌2 𝑃𝑛−2 (𝑡) , , que
recurrentemente nos conduce a: 𝑃𝑛 (𝑡) = (𝑚 − (𝑛 − 1))(𝑚 − (𝑛 − 2)) … … . . (𝑚 − 1)𝑚𝜌𝑛 𝑃0 (𝑡)

𝑚!
𝜌𝑛 𝑃0 (𝑡) , 𝑛≤𝑚
( )
𝑃𝑛 𝑡 = { (𝑚 − 𝑛 )!
0, 𝑛>𝑚
𝜌𝑛 𝑃0 (𝑡)𝑃𝑚,𝑛 , 𝑛 ≤ 𝑚
={
0, 𝑛>𝑚
de la cual se deduce:

𝑚!
𝑃𝑛 (𝑡) 𝜌𝑛 , 𝑛≤m
= { (𝑚 − 𝑛 )!
𝑃0 (𝑡)
0, 𝑛>𝑚
que permite resolver:
𝑚 𝑚 𝑚
𝑃𝑛 (𝑡) 𝑚!
1 = ∑ 𝑃𝑛 (𝑡) = 𝑃0 (𝑡) ∑ = 𝑃0 (𝑡) ∑ 𝜌𝑛 ;
𝑃0 (𝑡) (𝑚 − 𝑛 )!
𝑛=0 𝑛=0 𝑛=0
1
𝑃0 (𝑡) =
𝑚!
∑𝑚
𝑛=0 𝜌
𝑛
(𝑚 − 𝑛 )!

Disponiendo así de P0(t), podemos obtener:

𝑚!
𝜌𝑛 (𝑚−𝑛)! 𝑃0 (𝑡), 𝑛 ≤ 𝑚
𝑃𝑛 (𝑡) = {
0, 𝑛>𝑚
𝐿 1
, 𝑊 = 𝐿 + 1 − 𝑃0 (𝑡) , 𝑇𝑞 = 𝜇(1−𝑃 , 𝑇𝑊 = 𝑇𝑞 + 𝜇
0 (𝑡))
W(t) =  [𝑋𝑡 ]=W : Valor esperado del número de clientes en el sistema, que resulta independiente de t.
=
𝑚 𝑚 𝑚
𝑛
𝑚! 1 1
( )
∑ 𝑛 P𝑛 t = ∑ 𝑛 𝜌 ( )
𝑃 𝑡 = 𝑚! 𝑃0 𝑡 ∑( ) 𝑛 𝜌𝑛 = 𝑚 − (1 − 𝑃0 (𝑡))
(𝑚 − 𝑛 )! 0 (𝑚 − 𝑛 )! 𝜌
𝑛=0 𝑛=0 𝑛=0

𝑚 𝑚
𝑚! 1
𝐿 = ∑(𝑛 − 1) P𝑛 (t) = ∑ (𝑛 − 1)𝜌𝑛 𝑃 (𝑡) = 𝑚 − (1 + ) (1 − 𝑃0 (𝑡)) = 𝑊 − (1 − 𝑃0 (𝑡))
(𝑚 − 𝑛 )! 0 𝜌
𝑛=2 𝑛=2

{m-Xt}: proceso estocástico que indica en el instante t la cantidad de clientes fuera del sistema
E[m-Xt]: número esperado de clientes fuera del sistema
1
𝐸 [𝑚 − 𝑋𝑡 ] = 𝑚 − 𝐸 [𝑋𝑡 ] = 𝑚 − 𝑊 = (1 − 𝑃0 (𝑡))
𝜌
𝜆
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆𝐸[𝑚 − 𝑋𝑡 ] = 𝜆(𝑚 − 𝑊 ) = (1 − 𝑃0 (𝑡)) = 𝜇(1 − 𝑃0 (𝑡)) = 𝜇 (1 − 𝑝0 )
𝜌

Aplicando Fórmulas de 𝐋𝐢𝐭𝐭𝐥𝐞


𝐿 1 𝑊
, 𝑇𝑞 = , 𝑇𝑊 = 𝑇𝑞 + =
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝜇 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
Restándonos calcular los tiempos de espera y demora:

1
𝑚 − (1 + 𝜌) (1 − 𝑃0 (𝑡))
𝐿 1 𝑚 1+𝜌
𝑇𝑞 = = = ( − )
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝜇(1 − 𝑃0 (𝑡)) 𝜇 1 − 𝑃0 (𝑡) 𝜌
179
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1
𝑊 𝑚 − 𝜌 (1 − 𝑃0 (𝑡)) 1 𝑚 1 𝑚 1
𝑇𝑊 = = = ( − )= −
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝜇(1 − 𝑃0 (𝑡)) 𝜇 1 − 𝑃0 (𝑡) 𝜌 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝜆

𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
𝑊 = 𝑇𝑊 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝑚 −
𝜆
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑
de esta manera se puede interpretar como la expectativa de veces que (al llegar un cliente, encuentra )los
𝜆
servidores desocupados (ociosos).
Además:
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑚
𝑇𝑊 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝑚 − , es equivalente a 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 =
𝜆 1
𝜆 + 𝑇𝑊

7.3.2.1.-Propiedades
7.3.2.1a.- Diagrama de relaciones de equilibrio abreviado

En términos de lo desarrollado, podemos efectuar la sgte. representación:

mλ (m-1)λ (m-2) λ (m-3) λ 2λ λ

……………....
0 1 m-1 m ; λn =(m-n) λ
2 3

    

7.3.2.1b.- Punto de saturación del sistema

Entenderemos por punto de saturación del sistema o tamaño 𝒎∗ de la población para saturación: al punto donde se
intersectan la asíntotas del tiempo (esperado) neto de permanencia en el sistema.

Para m suficientemente pequeño:

𝑚→0 1 𝑚→0
𝑇𝑊 → 𝐸 [𝑍] = , es decir ∶ 𝜇𝑇𝑊 → 𝑔1 (𝑚) = 1
𝜇
𝑚 𝑚→0 𝑚
en tal caso 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = → ℎ1 (𝑚) =
1 1 1
𝜆 + 𝑇𝑊 𝜆+𝜇
De lo cual , se aprecia que 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 crece directamente (en forma lineal) con el tamaño de la población.
𝑚→0
Tratándose de una tendencia a medida que → ; decrece proporcionalmente a la forma en que m decrece.

Para m grande :
𝑚→∞ 𝑚→∞
𝑝0 → 0 ; 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜇(1 − 𝑝0 ) → ℎ 2 (𝑚 ) = 𝜇
Es decir la tasa de efectividad, crece pero lentamente y tiende a acercarse a un valor límite 𝜇.

Respecto a la medida de expectativa de tiempo de salida:


𝑚 1 𝑚→∞ 𝑚 1 𝑚→∞ 𝜇 1
𝑇𝑊 = − → 𝑇𝑊 = − ; 𝜇𝑇𝑊 → 𝑔2 (𝑚) = 𝑚 − =𝑚− ,
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝜆 𝜇 𝜆 𝜆 𝜌

180
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

se aprecia en 𝑔2 , que crece indefinidamente, y directamente en función del tamaño de la población.


El punto de saturación es la solución de:
1 1
𝑔1 (𝑚) = 𝑔2 (𝑚)  1 = 𝑚 −  𝑚 = 1 + =: 𝒎∗
𝜌 𝜌
Tamaño, que debido a la relación entre tal cantidad de tiempo y la tasa de efectividad; resulta coincidente con el
punto de intersección de las asíntotas de la tasa de efectividad:

1 1
𝑚 (𝜆 + 𝜇 ) 1
ℎ1 (𝑚) = ℎ2 (𝑚)  = 𝜇  𝑚= =1+
1 1 1 𝜌
𝜆+𝜇 𝜇

μTW 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑

1
m m
m* m*

Los gráficos de las propias funciones de interés así como las asíntotas, son representaciones de funciones de m,
número entero no negativo; motivo por el cual tales gráficos no obedecen a curvas, siendo estas, líneas segmentadas.

Ejemplo7.2 (Aviones y fallas de turbinas)

Flota de 4 aviones.  m=4


Tiempo promedio entre 2 fallas sucesivas por avión : 1 [año]  =1
1
Tiempo promedio en revisión y reparación de fallas por avión: 45 [días]= [años]  =8
8
Primero que entra al sistema de reparación (taller) es primero que sale, avión en taller no vuela.
Describir cuantitativamente el sistema

Solución
 1
  1
 8

Pn t  m!
Sea n: número de aviones que esperan ( o enviados a ) reparación. Calculemos  n
P0 t  m  n !

181
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

n m m! Pn t 
m  n ! n P0 t 
0 4 1 1 1

1 4 4 0.125 0.5

2 4 12 0.01563 0.1875

3 4 24 0.00195 0.04688

4 4 24 0.00024 0.00576
4 Pn t 
 P t 
 1.74024
n 0 0

P0 t  
1
 0.57.4 , probabilidad de que no existan aviones en reparación.
1.74024
P2(t): probabilidad de que 1 esté siendo reparado (atendido) y (sólo) otro en espera
P2(t)=(0.574) (12) ( 0.01563)=0.11

L: Número medio de aviones que espera reparación

L= 4 -
1  8  (1-0.574)=0.17 (aviones)
1
W: Número medio de aviones en el sistema, entonces W=0,17+1-0.574=0.6 (aviones)

Sin embargo en lo que a demoras se refiere, podemos tener resultados significativos:

Tq : tiempo promedio en la fila para recibir servicio (ser reparado)


Tq=0,17/8 (1-0.574)= 0.05 (año) = 18 (días)

Tw: tiempo medio en el sistema (de reparación).


Tw = 0.05+1/8= 0.175 (año) = 64 (días)

Considerando costos de espera en el sistema

Si el costo por hora de, vuelo : $10.000


estar en tierra : $ 2.000
en mantenimiento: $ 5.000
Estos aviones vuelan en promedio 14 horas por día.
Por cada 1000 horas de vuelo se les proporcionará mantenimiento preventivo (indep. de reparaciones por fallas), con
duración promedio de 100 horas.
Suelo mensual del equipo de reparación es $200.000.
Costo mensual (luz, depreciación, seguros, etc.) del equipamiento de reparación es $125.000.
Así el costo de espera para reparar fallas es la suma de los costos de:
a) Tiempo muerto del avión mientras espera (por reparación y le reparan la falla):Tw
b) Tiempo muerto de la tripulación cuando la nave se encuentra en el taller (por compostura de turbinas)
c) Tiempo de reparación de la turbina (sin incluir repuestos): Tw – Ts

Solución
Unidad de Tiempo a usar 1 año  convertir todos los costos unitarios a costos por año.
 días   horas   horas 
Nº de horas de vuelo por año = 365  año  · 14  día  = 5110  año 
   
182
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 horas   horas 
Nº de horas de servicio de mantenimiento por año = 5·100  año  = 500  año 
Nº de horas en un año = 24 x 365 = 8760
 horas 
Nº de horas avión detenido en tierra = 8760 – (5110+500)=3150   detención habitual sin falla
 año 
a) Costos de tiempo muerto de cada avión
 $10 6 1 
Costo fijo por avión: 5110 · 10000 + 500 · 5000 + 3150 · 2000 =59.9 ·   
 año avión 
Siendo Tw el tiempo medio de cada avión en el sistema de reparación, T w = 0.175 (64 días en el año)
 $106 
costo asociado a (Tw ) tiempo muerto: 59.9 x 0.175 = 10.48  
 avión 
 $10 3   $10 6 
b) Si el sueldo mensual de tripulación es 400  
 =4,8  , el costo de tiempo muerto de tripulación
 mes   año 
0.175  4,8  año$10 6 / año   $10 6 
asociado a una nave con fallas es:   =0.21  avión 
4  avión   
c) Como sabemos la nómina mensual del equipo de reparación más costos mensuales es:
 $10 6 
200.000+125.000 [$/ms] = 3.9   ,
 año 
así el costo del tiempo de reparación de un avión sin el valor de repuestos es
 $10 6   $10 6   $10 6 
(Tw – Tq) 3,9 año   = (0.175 - 0.05) · 3,9   = 0,49  
 año avión   avión   avión 

 $10 6 
Costo total de un avión en el sistema de reparación: 10,48+0.21+0.49= 11.18  
 avión 

7.3.3.- Una fila – Servidores múltiples en paralelo – población infinita (M/M/s):(GD/∞/ ∞)

Consideremos un sistema al que pueden llegar un número infinito de clientes en espera de recibir un mismo servicio,
por parte de s (s>1) servidores en paralelo:
La política es atender en orden de llegada y el servicio lo proporciona el primer servidor que se haya desocupado.
Al principio todos los servidores están desocupados y se irán ocupando en forma progresiva (primero el 1, luego el
2 y así sucesivamente) a medida que llegan los clientes.

: número promedio de X , X: número de llegadas por unidad de tiempo , X P()


: número promedio de Y, Y: número de servicios de c/servidor por unidad de tiempo, Y P()
s: número de servidores
De lo cual se desprende: n =
𝑛𝜇 , 𝑛≤𝑠
La tasa de servicio (atenciones) del sistema: 𝜇𝑛 = {
𝑠𝜇 , 𝑛>𝑠
𝑛𝜇∆t, 𝑠𝑖 𝑛 ≤ 𝑠
P(algún cliente abandone el sistema luego de ser atendido en un lapso t)= 𝜇𝑛 ∆t = {
𝑠𝜇∆𝑡, 𝑠𝑖 𝑛 > 𝑠
Según(7.3.1.6c.- Tasas de Flujos esperados del Sistema), las ecuación de balance para cada n es:

Pn (t+t) = Pn (t) [(1-n t ) (1- 𝜇𝑛 ∆t ) + nt 𝜇𝑛 ∆t ]+ Pn+1 (t) (1-n+1 t ) ( 𝜇𝑛+1 ∆t )+Pn-1 (t)(n-1t )
183
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

(1− 𝜇𝑛 ∆t )
en términos de ecuaciones de balance (7.3.1.6c )conduce a :
𝑛
𝜆𝑖−1
𝑝𝑛 = 𝑝0 ∏
𝜇𝑖
𝑖=1

a) n  s , se considera: 𝜇𝑛 =n:
𝑛 𝑛 𝑛
𝜆𝑖−1 𝜆 𝜌 𝜌𝑛 𝜆
𝑝𝑛 = 𝑝0 ∏ = 𝑝0 ∏ = 𝑝0 ∏ = 𝑝0 , 𝜌= factor de utiización de cada servidor
𝜇𝑖 𝑖𝜇 𝑖 𝑛! 𝜇
𝑖=1 𝑖=1 𝑖=1

b) n > s; 𝜇𝑛 = 𝑠𝜇;

Utilizando las referidas ecuaciones de balance:


𝑛 𝑠 𝑛 𝑠 𝑛
𝜆𝑖−1 𝜆𝑖−1 𝜆𝑖−1 𝜆 𝜆 𝜌𝑛
𝑃𝑛 (𝑡) = 𝑝𝑛 = 𝑝0 ∏ = 𝑝0 ∏ ∏ = 𝑝0 ∏ ∏ = 𝑝0
𝜇𝑖 𝜇𝑖 𝜇𝑖 𝑖𝜇 𝑠𝜇 𝑠! 𝑠 𝑛−𝑠
𝑖=1 𝑖=1 𝑖=𝑠+1 𝑖=1 𝑖=𝑠+1

𝜌 𝑠 𝜌 𝑛−𝑠 𝜌 𝑛−𝑠
= 𝑝0 𝑛−𝑠 = 𝑝𝑠 𝑛−𝑠 = 𝑝𝑠 𝜌𝑠𝑛−𝑠
𝑠! 𝑠 𝑠

Considerando (a) y (b):


𝜌𝑛
𝑝0 , 𝑛𝑠
𝑝𝑛 = { 𝑠 𝑛!
𝜌 𝜌 𝑛−𝑠
𝑝 , 𝑛>𝑠
𝑠! 0 𝑠 𝑛−𝑠

Con lo cual, es posible obtener 𝑝0 despejando de: 1=  P (t )
n 0
n

1 1
 s 1 
  s 1 1 n 1 s s 
 𝑝0 =   Pn (t )   Pn (t )  =      
 n 1 ns   n  0 n! s! s   

𝑠−1 −1
1 𝜌𝑠 1
𝑝0 = (∑ 𝜌𝑛 + )
𝑛! 𝑠! 1 − 𝜌𝑠
𝑛=0
7.3.3.1.- Tamaño esperado de la fila
0, 𝑋𝑡 < 𝑠
𝑙𝑡 = {
𝑋𝑡 − 𝑠, 𝑋𝑡 ≥ 𝑠
∞ ∞ ∞ ∞
𝜌ℎ+𝑠+1
𝐿 = 𝐸 [𝑙𝑡 ] = ∑(𝑛 − 𝑠)𝑃(𝑋𝑡 = 𝑛) = ∑ (𝑛 − 𝑠)𝑃𝑛 (𝑡) = ∑(ℎ + 1)𝑝ℎ+𝑠+1 = ∑(ℎ + 1) 𝑝
𝑛=𝑠 𝑛=𝑠+1 ℎ=0 ℎ=0
𝑠! 𝑠ℎ+1 0
∞ ∞ ∞ ∞
𝜌𝑠 𝜌 𝜌 ℎ 𝑑 ℎ+1 𝑑
= 𝑝0 ∑(ℎ + 1) ( ) = 𝑝𝑠 𝜌𝑠 ∑(ℎ + 1)𝜌𝑠ℎ = 𝑝𝑠 𝜌𝑠 ∑ 𝜌𝑠 = 𝑝𝑠 𝜌𝑠 (𝜌 ∑ 𝜌𝑠ℎ )
𝑠! 𝑠 ℎ=0 𝑠 𝑑𝜌𝑠 𝑑𝜌𝑠 𝑠
ℎ=0 ℎ=0 ℎ=0
𝜌𝑠
= 𝑝 ,
2 𝑠
(1 − 𝜌𝑠 )
lo cual también puede ser expresado ( de forma más extensa) en términos de 𝑝0
184
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝜌𝑠 𝜌 𝑠+1 𝜇𝜌 𝑠
𝐿= 𝜌𝑠 𝑝0 = 𝑝0 = 𝑝
𝑠! (1 − 𝜌𝑠 ) 2 𝑠! 𝑠 (1 − 𝜌𝑠 ) 2 (𝑠 − 1)! (𝑠𝜇 − )2 0

7.3.3.2.- Cantidad esperada de entes en el sistema, tiempos medio de espera y demora


∞ 𝑠 ∞
𝜌𝑛 𝜌𝑛
𝑊 = E [X𝑡 ] = ∑ 𝑛𝑃(𝑋𝑡 = 𝑛) = ∑ 𝑛 𝑝0 + ∑ 𝑛𝑝0
𝑛! 𝑠! 𝑠𝑛−𝑠
𝑛=0 𝑛=0 𝑛=𝑠+1
Cálculo que podremos obviar gracias a las Fórmulas de Little (7.3.1.5b), en que además para este caso,
Tasas de pérdida y efectividad, respectivamente están dadas por:

λpérdida=0, λefectividad = λ
𝑊 = 𝐿 + 𝜌𝑠

𝐿 𝜇𝜌 𝑠
𝑇𝑞 = 𝐸 [𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑒𝑠𝑝𝑒𝑟𝑎 𝑒𝑛 𝑙𝑎 𝑓𝑖𝑙𝑎] = = 𝑝
𝜆 (𝑠 − 1)! (𝑠𝜇 − )2 0

1
𝑇𝑊 = 𝐸 [𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑑𝑒𝑚𝑜𝑟𝑎] = 𝐸 [tiempo de espera en el sistema] = 𝑇𝑞 +
𝜇

7.3.3.3.-Propiedades
7.3.3.3a.-Factor de utilización del sistema𝜌𝑠
La condición para que no se formen filas de largo infinito, en el caso de:

- un servidor fue 1

- s servidores múltiples, se requiere :

𝜌  
𝜌𝑠 = = < 1, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝜌 = < 𝑠
𝑠 𝑠𝜇 𝜇

7.3.3.3b.- Función de pérdida Erlang C y largo esperado de la fila

La Función de Erlang C de este sistema, es C(s,ρ)= 𝑃 (𝑙𝑡 > 0) = 𝑃(𝑋𝑡 ≥ 𝑠), donde:
∞ ∞ ∞ ∞ ∞
𝜌ℎ−𝑠 𝜌ℎ−𝑠 𝑝𝑠
𝑃(𝑋𝑡 ≥ 𝑠) = ∑ 𝑝ℎ = ∑ 𝑝𝑠 ℎ−𝑠 = 𝑝𝑠 ∑ ℎ−𝑠 = 𝑝𝑠 ∑ 𝜌𝑠 ℎ−𝑠 = 𝑝𝑠 ∑ 𝜌𝑠 ℎ =
ℎ=𝑠 ℎ=𝑠
𝑠 ℎ=𝑠
𝑠 ℎ=𝑠 ℎ=0
1 − 𝜌𝑠

Como :
𝜌𝑠 𝜌𝑠
𝑝𝑠 = 𝑝0 ; explícitamente 𝑪(𝒔, 𝝆) = 𝑝0
𝑠! 𝑠! (1 − 𝜌𝑠 )

Para el presente caso, veremos que esta función, nos conduce a una versión análoga a lo realizado en
(M/M1):(GD/∞/∞). A partir de 7.3.3.1:

185
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑠𝜌 𝜌𝑠 𝜌𝑠
𝐿 = 𝐸 [ 𝑙𝑡 ] = 𝑝𝑠 = 𝑝𝑠 = 𝐶(𝑠, 𝜌)
(𝑠 − 𝜌)
2
(1 − 𝜌𝑠 )
2 1 − 𝜌𝑠

7.3.3.3c.- Función de Pérdida Erlang B


𝜌𝑠
𝐁(𝐬, 𝛒) = 𝑃(𝑋𝑡 = 𝑠) = 𝑝𝑠 = 𝑝0 , entonces 𝐁(𝟎, 𝛒) = 1
𝑠!

𝜌 𝜌 𝑠−1 𝜌
para 𝑠 ≥ 1: 𝐁(𝐬, 𝛒) = 𝑝0 = B(s − 1, ρ)
𝑠 (𝑠 − 1)! 𝑠
En particular para s suficientemente grande, ρB(s − 1, ρ) ≈ 0:

ρB(s − 1, ρ)
B(s, 𝛒) ≈
𝒔 + ρB(s − 1, ρ)

Lo cual, también puede utilizarse para la obtención de:

𝜌𝑠 B(s, ρ) sB(s, ρ) sB(s, ρ)


𝑪(𝒔, 𝝆) = 𝑝0 = = =
𝑠! (1 − 𝜌𝑠 ) 1 − 𝜌𝑠 𝑠−ρ 𝑠 − ρ + ρB(s − 1, ρ)

7.3.3.3d.- Distribución del tiempo de servicio del sistema


Cuando los s servidores se encuentran ocupados, el tiempo T hasta que ocurra la próxima salida del sistema, se
puede expresar como: T=min{T1,…,Ts}, con T1,…,Ts, i.i.d. con distribución F dada por una densidad Exp();
entonces:
𝐹(𝑡) = 1 − 𝑒 −𝜇𝑡

mediante transformaciones abordadas en CapIII): 𝐹𝑇 (𝑡) = 1 − (1 − 𝐹 (𝑡)𝑠 = 1 − 𝑒 −𝑠𝜇𝑡 , que corresponde a una
distribución Exp(s) , y por ende s efectivamente es la cantidad de clientes atendidos por unidad de tiempo
expectativa de la distribución Poisson de tal registro de cantidades.

7.3.3.3e.- Distribución del tiempo de espera


Supongamos que llega un cliente cuando los servidores están ocupados y además hay n clientes en la fila, es
decir hay n+s clientes en el sistema. Entonces se deberán completar n+1 servicios (atenciones) para que este
cliente sea atendido, todos ellos atendidos i.i.d Exp().

Distingamos dos situaciones que componen las diversos eventos:

-No se requiere hacer fila, 𝑜 𝑛o hay que esperar para ser atendido: Tq=0; porque al menos un servidor está
desocupado:
𝑃(𝑡𝑞 = 0) = 𝑃(𝑋𝑡 < 𝑠) = 1 − 𝑃(𝑋𝑡 ≥ 𝑠) = 1 − 𝑪(𝒔, 𝛒); en tal caso 𝑃(𝑇𝑞 = 0|𝑋𝑡 < 𝑠) = 1

-Se requiere hacer fila; tal caso 𝑜𝑐𝑢𝑟𝑟𝑒 𝑡𝑞 = 𝑡 > 0; cuando estamos ante una fila de largo n ≥ 0,
porque todos los servidores estan ocupados:

La probabilidad que al llegar, se deba incorporar a la fila de largo n≥0:


𝜌𝑛
𝑃(𝑋𝑡 = 𝑛 + 𝑠) 𝑝𝑛+𝑠 𝑝𝑛+𝑠 𝑝𝑠 𝑠𝑛
𝑃(𝑙𝑡 = 𝑛) = 𝑃(𝑋𝑡 = 𝑛 + 𝑠|𝑋𝑡 ≥ 𝑠) = = = 𝑝 = 𝑝 = (1 − 𝜌𝑠 )𝜌𝑠 𝑛
𝑃(𝑋𝑡 ≥ 𝑠) 𝑪(𝒔, 𝛒) 𝑠 𝑠
1 − 𝜌𝑠 1 − 𝜌𝑠

(1 − 𝜌𝑠 )𝜌𝑠 𝑛 , 𝑛 ≥ 0
𝑓𝑙𝑡 (𝑛) = 𝑃 (𝑙𝑡 = 𝑛) = {
0, 𝑜
Siguiendo la línea de lo desarrollado en 7.3.1.5.e; el tiempo transcurrido es la suma de tales tiempos,
186
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑛+1

(𝑡𝑞 | 𝑋𝑡 = 𝑛 + 𝑠) = 𝑟𝑛+𝑠 = ∑ 𝑡𝑗 ~ 𝑓𝑟𝑛+𝑠 (𝑟) ,


𝑗=1
𝑠𝜇 𝑛+1 𝑠𝜇−𝜏 −𝑛−1 𝜏 −(𝑛+1)
con función característica Ф𝑟𝑛+𝑠 (𝜏) = ∏𝑛+1
𝑗=1 Ф𝑡𝑗 (𝜏 ) = ( ) =( ) = (1 − 𝑠𝜇) ya nos ha
𝑠𝜇−𝜏 𝑠𝜇
demostrado se comportan como sabemos

𝑡𝑛 1 −(𝑛+1) −𝑠𝜇𝑡 𝑡 𝑛 1 −(𝑛+1) −𝑠𝜇𝑡


𝑓𝑟𝑛+1 (𝑟) = ( ) 𝑒 = ( ) 𝑒 = 𝑑𝐹𝑟𝑛+1 (𝑡)
Γ(n + 1) 𝑠𝜇 𝑛! 𝑠𝜇

∞ ∞ 𝑡
𝑡 𝑛 1 −(𝑛+1) −𝑠𝜇𝑡
𝐹𝑡𝑞+ (𝑡) = 𝑃(𝑡𝑞+ ≤ 𝑡) = ∑ 𝑃(𝑙𝑡 = 𝑛)𝑃(𝑡𝑞 ≤ 𝑡| 𝑋𝑡 = 𝑛 + 𝑠) = ∑ (1 − 𝜌𝑠 )𝜌𝑠 ∫ 𝑛
( ) 𝑒 𝑑𝑡
𝑛! 𝑠𝜇
𝑛=0 𝑛=0 0

𝑡 ∞ 𝑡 ∞
1 −1 𝑡 𝑛 1 −𝑛 1 −1 𝑡 𝑛 1 −𝑛
𝐹𝑡𝑞+ (𝑡) = (1 − 𝜌𝑠 ) ( ) ∫ 𝑒 −𝑠𝜇𝑡 ∑ 𝜌𝑠 𝑛 ( ) 𝑑𝑡 = (1 − 𝜌𝑠 ) ( ) ∫ 𝑒 −𝑠𝜇𝑡 ∑ ( ) 𝑑𝑡
𝑠𝜇 𝑛! 𝑠𝜇 𝑠𝜇 𝑛! 𝑠𝜇𝜌𝑠
0 𝑛=0 0 𝑛=0

𝑡 ∞ 𝑡
1 −1 (𝑠𝜇𝜌𝑠 𝑡)𝑛 𝑠𝜇𝜌 𝑡
𝐹𝑡𝑞+ (𝑡) = (1 − 𝜌𝑠 ) ( ) ∫ 𝑒 −𝑠𝜇𝑡 𝑒 −𝑠𝜇𝜌𝑠𝑡 ∑ 𝑒 𝑠 𝑑𝑡 = ∫(1 − 𝜌𝑠 )𝑠𝜇𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 𝑑𝑡
𝑠𝜇 𝑛!
0 𝑛=0 0

Pero: 𝑔(𝑡) = (1 − 𝜌𝑠 )𝑠𝜇𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 , es una densidad 𝑑𝑒 𝑢𝑛𝑎 𝑣. 𝑎. 𝑡𝑞+ 𝐸𝑥𝑝(∗ ) con ∗ =(1 − 𝜌𝑠 )𝑠𝜇
Cuya distribución es:
𝐹𝑡𝑞+ (𝑡) = 1 − 𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 , 𝑡 > 0
Considerando ambos eventos ( requerir o no hacer fila):
𝐹𝑡𝑞 (𝑡) = 𝑃(𝑡𝑞 ≤ 𝑡) = 𝑃(0 ≤ 𝑡𝑞 ≤ 𝑡) = 𝑃 ((𝑡𝑞 = 0) ∪ ( 0 < 𝑡𝑞 ≤ 𝑡)) = 𝑃(𝑡𝑞 = 0) + 𝑃( 0 < 𝑡𝑞 ≤ 𝑡)
= 𝑃(𝑡𝑞 = 0) + 𝑃( 𝑡𝑞 ≤ 𝑡|𝑡𝑞 > 0) ∙ 𝑃( 𝑡𝑞 > 0) = 𝑃(𝑡𝑞 = 0) + 𝑃(𝑡𝑞+ < 𝑡) ∙ 𝑃( 𝑡𝑞 > 0)
𝐹𝑡𝑞 (𝑡) = 1 − 𝑪(𝒔, 𝛒) + 𝑪(𝒔, 𝛒)(1 − 𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 ) = 1 − 𝑪(𝒔, 𝛒)𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 , t ≥0
𝑓𝑡𝑞 (𝑡) = 𝑑𝐹𝑡𝑞 (𝑡) = (1 − 𝑪(𝒔, 𝛒)) ∙ 𝐼𝑡=0 (𝑡) + 𝑪(𝒔, 𝛒) ∙ 𝑔(𝑡) ∙ 𝐼𝑡>0 (𝑡) ,
1 − 𝑪(𝒔, 𝛒), 𝑡 = 0
𝑓𝑡𝑞 (𝑡) = {
𝑪(𝒔, 𝛒) ∙ 𝑔(𝑡), 𝑡 > 0

Naturalmente:
1
𝑇𝑞 = 𝐸[𝑡𝑞 ] = (1 − 𝑪(𝒔, 𝛒)) ∙ 0 + 𝑪(𝒔, 𝛒)𝐸[𝐸𝑥𝑝(∗ , 𝑡)] = 𝑪(𝒔, 𝛒) (1−𝜌 )𝑠𝜇 lo cual es coincidente con la
𝑠
expresión ya obtenida en 7.3.3.2

7.3.3.3f.- Distribución del tiempo de demora


tW=tq+Y, siendo Y la v.a. tiempo de servicio de cualquiera de los servidores, con distribución Exp(μ), con tq+Y, v.a.i.
Para t>0:
Al considerar tq>0 aplicamos convolución:
𝑓𝑡𝑞+ (𝑡) = 𝑠𝜇 (1 − 𝜌𝑠 )𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 , t >0

𝑓𝑌 (𝑡) = 𝜇𝑒 −𝜇𝑦 , 𝑦 ≥ 0
∞ ∞

𝑓𝑡𝑤 (𝑡) = 𝑓𝑡𝑞+ ∗ 𝑓𝑌 = ∫ 𝑓𝑡𝑞+ (𝑡 − 𝑦)𝑓𝑌 (𝑦)𝑑𝑦 = ∫ 𝑠𝜇 (1 − 𝜌𝑠 )𝑒 −𝑠𝜇(1−𝜌𝑠)(𝑡−𝑦) 𝜇𝑒 −𝜇𝑦 𝑑𝑦


0 0

187
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa


2( −𝑠𝜇(1−𝜌𝑠 )𝑡
𝑠𝜇2 (1 − 𝜌𝑠 )𝑪(𝒔, 𝛒)𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡
= 𝑠𝜇 1 − 𝜌𝑠 )𝑪(𝒔, 𝛒)𝑒 ∫ 𝑒 −(−𝑠𝜇( 1−𝜌𝑠)+𝜇)𝑦 𝑑𝑦 =
𝜇(𝑠(𝜌𝑠 − 1) + 1)
0

𝑠𝜇 (1 − 𝜌𝑠 )𝑪(𝒔, 𝛒)𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 𝟏


= =− 𝑠𝜇 (1 − 𝜌𝑠 )𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 , 𝜌𝑠 − 1 < 0
𝑠(𝜌𝑠 − 1) + 1 𝑠−1−𝜌

𝑡 𝑡
𝟏 𝟏
𝑭𝑡𝑤+ (𝑡) =: ∫ 𝑓𝑡𝑤 (𝑡)𝑑𝑡 = − ∫ 𝑠𝜇 (1 − 𝜌𝑠 )𝑒 −𝑠𝜇(𝜌𝑠−1)𝑡 𝑑𝑡 = (𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 − 1 )
𝑠−1−𝜌 𝑠−1−𝜌
0 0
𝑃(𝑡𝑤 ≤ 𝑡, 𝑡𝑞 > 0) = 𝑃(𝑡𝑞 + 𝑌 ≤ 𝑡, 𝑡𝑞 > 0) = 𝑃(𝑡𝑞 + 𝑌 ≤ 𝑡|𝑡𝑞 > 0)𝑃(𝑡𝑞 > 0) = 𝑪(𝒔, 𝛒) ∙ 𝑭𝑡𝑤+ (𝑡)

Cuando 𝑡𝑞 = 0
𝑃(𝑡𝑤 ≤ 𝑡, 𝑡𝑞 = 0) = 𝑃(𝑡𝑞 + 𝑌 ≤ 𝑡, 𝑡𝑞 = 0) = 𝑃(𝑡𝑞 = 0, 𝑌 ≤ 𝑡) = 𝑃(𝑡𝑞 = 0)𝑃(𝑌 ≤ 𝑡) = 𝑷(𝑡𝑞 = 0)(𝟏 − 𝒆−𝝁𝒕 )
= (1 − 𝑪(𝒔, 𝛒))(𝟏 − 𝒆−𝝁𝒕 )

= 1 − 𝑪(𝒔, 𝛒) − (1 − 𝑪(𝒔, 𝛒))𝒆−𝝁𝒕


Así es posible disponer para todo t de la distribución del tiempo de demora, mediante:

𝐹𝑡𝑤 (𝑡) = 𝑃(𝑡𝑤 ≤ 𝑡) = 𝑃(𝑡𝑞 = 0, 𝑌 ≤ 𝑡) + 𝑃(𝑡𝑤 ≤ 𝑡, 𝑡𝑞 > 0) = 𝑃(𝑡𝑞 = 0, 𝑌 ≤ 𝑡) + 𝑭𝑡𝑤+ (𝑡)

𝑪(𝒔, 𝛒) 𝑪(𝒔, 𝛒) −𝑠𝜇(1−𝜌 )𝑡


= 𝑃(𝑡𝑞 = 0)(1 − 𝒆−𝝁𝒕 ) − + 𝑒 𝑠
𝑠−1−𝜌 𝑠−1−𝜌

𝑪(𝒔, 𝛒) 𝑪(𝒔, 𝛒) −𝑠𝜇(1−𝜌 )𝑡


= 1 − 𝑪(𝒔, 𝛒) − − 𝑃(𝑡𝑞 = 0)𝒆−𝝁𝒕 − 𝑒 𝑠
𝑠−1−𝜌 𝑠−1−𝜌
𝜌−𝑠 𝑪(𝒔, 𝛒) −𝑠𝜇(1−𝜌 )𝑡
= 1 + 𝑪(𝒔, 𝛒) ( ) − 𝑃(𝑡𝑞 = 0)𝒆−𝝁𝒕 − 𝑒 𝑠
𝑠−1−𝜌 𝑠−1−𝜌
𝑪(𝒔, 𝛒)(𝜌 − 𝑠) (1 − 𝑪(𝒔, 𝛒))𝒆−𝝁𝒕 𝑪(𝒔, 𝛒) −𝑠𝜇(1−𝜌 )𝑡
= (1 + ) 𝑰𝒕𝒘=𝟎 (𝒕) − ( + 𝑒 𝑠 )𝑰
𝒕𝒘>𝟎 (𝒕)
𝑠−𝜌−1 𝑠−𝜌−1 𝑠−𝜌−1

𝑪(𝒔, 𝛒) 𝑃(𝑡𝑞 = 0) −𝝁𝒕 𝑪(𝒔, 𝛒)


𝑑𝐹𝑡𝑤 (𝑡) = ( ) 𝐼𝑡=0 (𝑡) + 𝐼𝑡>0 (𝑡) ( 𝝁𝒆 + 𝑠𝜇 (𝜌𝑠 − 1)𝑒 −𝑠𝜇(1−𝜌𝑠)𝑡 )
𝑠−1−𝜌 𝑠−1−𝜌 𝑠−1−𝜌

(1−𝑪(𝒔,𝛒)) 𝑪(𝒔,𝛒)
𝑡𝑤 = 𝐼𝑡=0 + 𝒀 + 𝑠−1−𝜌 𝑍, 𝑑𝑜𝑛𝑑𝑒 𝑌~𝐸𝑥𝑝(𝜇), 𝑍~𝐸𝑥𝑝(𝑠𝜇(1 − 𝜌𝑠 )),
𝑠−𝜌−1

7.3.3.3g.- Sistema de Capacidad igual al número de servidores (M/M/s):(GD/s/∞ )


Es un caso particular en que el sistema es de capacidad finita, en que no hay espacio en sala de espera por servicio; el
sistema está copado al tener todos los servidores ocupados. Entonces:
Xt(w)ϵ{0,1,2,…,s},
lt=0, para todo t; L=0,
tq=0, para todo t; Tq=0
Por 7.3.3.a:
𝑠 𝑠 𝑠
𝜌𝑛 𝜌𝑛 𝜌𝑛
𝑝𝑛 = 𝑝0 , 0 ≤ 𝑛 ≤ 𝑠 , 1 = ∑ 𝑝𝑛 = ∑ 𝑝0 = 𝑝0 ∑
𝑛! 𝑛! 𝑛!
𝑛=0 𝑛=0 𝑛=0

188
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑠 −1
𝜌𝑛
𝑝0 = (∑ )
𝑛!
𝑛=0
𝑠 −1
𝑛 𝑛
𝜌 𝜌
𝑃(𝑋𝑡 = 𝑛) = 𝑝𝑛 = { 𝑛! (∑ ) , 0≤𝑛≤𝑠
𝑛!
𝑛=0
0, 𝑜. 𝑐.
𝑠 −1
𝜌𝑠 𝜌𝑛
𝐵(𝑠, 𝜌) = 𝑃(𝑋𝑡 = 𝑠) = (∑ ) = 𝑝𝑐𝑜𝑝
𝑠! 𝑛!
𝑛=0
𝑡𝑤 ~ 𝐸𝑥𝑝(𝜇), ya que el sistema solo admite clientes cuando hay servidor desocupado
TW=E[𝑡𝑤 ]=E[Y], Y: tiempo en ser atendido (de servicio) en cualquier servidor
Por 7.31.5b fórmulas de Little:
1
𝑊 = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑇𝑊 = 𝝀 (𝟏 − 𝑝𝑐𝑜𝑝 ) = 𝜌(1 − 𝐵(𝑠, 𝜌))
𝜇
𝑐̅ = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝐸 [𝑍] = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑇𝑊 = 𝑊

7.3.3.3h.- Sistema con infinitos servidores en paralelo (M/M/∞ ): (DG/∞/∞)


Es el caso en que al llegar cada cliente siempre dispone de un servidor para ser atendido de inmediato. En nuestros
términos, cada cliente es a la vez su propio servidor.
Para esta situación en particular:
lt=0, para todo t; L=0,
tq=0, para todo t; Tq=0

𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆
𝜌𝑛
𝑝𝑛 = 𝑝0 , para todo 𝑛, entonces:
𝑛!
∞ −1
𝜌𝑛
𝑝0 = (∑ ) = 𝑒 −𝜌
𝑛!
𝑛=0
𝜌𝑛
Así: 𝑝𝑛 = 𝑛! 𝑒 −𝜌 , para todo 𝑛 = 0,1, … . Por lo cual:
𝑋𝑡 ~ 𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜌);
L=0
𝑇𝑞 = 0
𝑊 = 𝐸[𝑋𝑡 ] = 𝜌
𝑊 𝜌 1
𝑇𝑊 = = =
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝜆 𝜇
, lo cual es también un resultado directo de la sección anterior.

Ejemplo7.3 (Estación de Peaje con s=5 casetas)

X = nº de vehículos que llegan , X  P(),  = 15 [por hora]


Y = nº de servicios de c/caseta , Y  P (), = 8 [servicios por hora]
 15 15
Entonces el factor de utilización del sistema es: 𝜌𝑠 = =  = 0.37521<1
S 5  8 40
 no habrá fila infinita.

189
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1
 4 1 n 1 5 5 
Así P0 (t)=      
 n  0 n! 5! 5   
1
 4 1  15  n 1  15 5 5  8 
=        = 0.1526,
 n  0 n!  8  5!  8  5  8  15 
 

es la probabilidad de que al llegar un vehículo (en el tiempo t); el sistema esté vacío, es decir, todas las casetas están
libres y por ende nadie espera en la fila.

n Tamaño Casetas Número de vehículos Pn(t)


de la fila Libres que están siendo
atendidos
0 0 5 0 0.1526
1 0 4 1 0.2861
2 0 3 2 0.267
3 0 2 3 0.167
4 0 1 4 0.078
5 0 0 5 0.029  se forma fila si m  6
6 1 0 5 0.011
7 2 0 5 0.004
8 3 0 5 0.001

 0.1526  15  n
   , n5
 n!  8 
Pn t    n
 0.1526  15  , n  5
 5!5n  5  8 
15  81.875 5
L= 0.1526 = 0.0283 [vehículos]
4! 40  15 2
 15
W=L+ =0.0283 + = 0.0283+1.875 =1.903 [vehículos]
 8
L 0.0283
Tq =  =0.0019 [hora]  7 [segundos]
 15
1
Tw = 0.0019 + = 0.1269 [hora]  7 minutos con 36 segundos
8

Si se trabaja sólo con 2 casetas:


 15
S = 2  𝜌𝑠 = = = 0.9375 < 1 (ojo el factor de utilización creció bastante)
s 2  8
 P0 (t)=0.03226 (3% de que al llegar 1 vehículo las 2 casetas estén libres y nadie esperando)

L = 13.61 (vehículo),

190
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

W = L +  = 15.49,
L 13.61
Tq =  =0.90 [de hora] = 55 [minutos]
 15
1
Tw = Tq =1.03 (hora)  62 [minutos] aumenta demasiado

+

n Tamaño Casetas Número de vehículos Pm(t)


fila Vacías en atención
0 0 2 0 0.03226
1 0 1 1 0.06048
2 0 0 2 0.0567
3 1 0 2 0.053
4 2 0 2 0.049
5 3 0 2 0.046

 0.03226  0.03226
 n! 1.875 , n  2  n! 1.875 , n  2
n n

Pn t    

0.03226
n2
1.875n , n  2  n 1 1.875n , n  2
0.03226
 2!2  2

7.3.3.4.- Modelo G/M/s


Este modelo contempla, s servidores c/u con tiempo de atención 𝑌~𝐸𝑥𝑝(𝜇) , en consecuencia un número de
atenciones P(µ) por unidad de tiempo, lo que indica que estamos ante un proceso Poisson que contabiliza la cantidad
de servicios por unidad de tiempo: pero no se restringe a tiempo exponencial entre llegadas; considera llegadas con
distribución conocida y arbitraria, para lo cual se designa como G la distribución del lapso entre llegadas con media
1
[unidades de tiempo].
𝜆

Procediendo de igual manera que en 7.3.1.8.1; se ha de esperar que


𝛽 = ∫ 𝑒 𝑠𝜇(𝛽−1)𝑡 ∙ 𝑑𝐹𝐺 (𝑡)


0
.Efectivamente: teniendo presente la cantidad de servidores

0, 𝑗 >𝑖+1
𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑎𝑡𝑒𝑛𝑐𝑖𝑜𝑛𝑒𝑠), 𝑠≤ 𝑗 ≤ 𝑖+1
𝑃(𝑖, 𝑗) = 𝑝(𝑖, 𝑖 + 1 − 𝑗) =
𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑑𝑒 𝑙𝑜𝑠 𝑖 + 1 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠), 𝑗 ≤ 𝑖 + 1 ≤ 𝑠
{𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑒𝑛𝑡𝑟𝑒 𝑠 𝑒𝑓𝑒𝑐𝑡𝑢𝑎𝑑𝑜𝑠), 𝑗 < 𝑠 ≤ 𝑖 + 1

- 𝑠 ≤ 𝑗 ≤ 𝑖 + 1; j=0,1,2,….,i,i+1,con servidores siempre ocupados. Teniendo presente 7.3.3.3d y desarrollos


efectuados en 7.3.1.8.1: (𝐽 = 𝑗|𝐺 = 𝑡)~𝑃(𝑠𝜇𝑡)

𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑎𝑡𝑒𝑛𝑐𝑖𝑜𝑛𝑒𝑠) =

191
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

= ∫ 𝑃(𝑖 + 1 − 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑜𝑐𝑢𝑟𝑟𝑎𝑛 𝑒𝑛 𝑙𝑎𝑝𝑠𝑜 𝐺, 𝑑𝑎𝑑𝑜 𝑑𝑒 𝑎𝑚𝑝𝑙𝑖𝑡𝑢𝑑 𝑡)𝑑𝐹𝐺 (𝑡)


0
∞ ∞

= ∫ 𝑃(𝐽 = 𝑖 + 1 − 𝑗|𝐺 = 𝑡)𝑑𝐹𝐺 (𝑡)) = ∫ 𝑓𝐽|𝐺=𝑡) (𝑖 + 1 − 𝑗, 𝑡)𝑑𝐹𝐺 (𝑡)


0 0

(𝑠𝜇𝑡)𝑖+1−𝑗
= ∫ 𝑒 −𝑠𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡)
(𝑖 + 1 − 𝑗)!
0

− 𝑗 ≤ 𝑖 + 1 ≤ 𝑠: en este caso hasta i+1 servidores están ocupados, j pueden terminar en tiempo superior a
t e i+1-j dentro del lapso t :
(𝐽 = 𝑖 + 1 − 𝑗|𝐺 = 𝑡)~𝐵(𝑖 + 1 − 𝑝), 𝑝 = 𝑃(𝑌 > 𝑡) = 1 − 𝑒 −𝜇𝑡

𝑖+1
𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑑𝑒 𝑙𝑜𝑠 𝑖 + 1 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠) = ∫ ( ) (𝑒−𝜇𝑡 )𝑗 (1 − 𝑒−𝜇𝑡 )𝑖+1−𝑗 ∙ 𝑑𝐹𝐺 (𝑡)
𝑗
0
− 𝑗 < 𝑠 ≤ 𝑖 + 1: en este caso los s servidores no están ocupados todo el tiempo. Considerando 7.3.3.3d, el
sistema funciona con tiempo de servicio T exponencial Exp(𝑠𝜇), cuya función característica es
𝑖𝑡 −1
𝜓𝑌 = (1 − )
𝑠𝜇

ocurre i+1-j servicios j servicios no ocurren


| | | T
0 h t

𝑇∗ =h t-h
siendo 𝑇∗ = 𝑆𝑖+1−𝑗 = 𝑌1 + ⋯ + 𝑌𝑖+1−𝑗 : tiempo de servicio de i+1-j atenciones;
𝑖𝑡 −(𝑖+1−𝑗)
𝜓𝑆𝑖+1−𝑗 = (1 − ) , 𝑝𝑜𝑟 𝑙𝑜 𝑐𝑢𝑎𝑙 𝑆𝑖+1−𝑗 ~ 𝛾(𝑖 + 1 − 𝑗, 𝑠𝜇)
𝑠𝜇
s  s h  e  s h s   s  x  e  s h
i 1 j 1 i j

f Si1 j (h)   ,h  0
(i  1  j ) (i  j )!

Para 0<h<t:
𝑠 𝑗 𝑠−𝑗
𝑃(𝑛𝑜 𝑠𝑒𝑟 𝑎𝑡𝑒𝑛𝑑𝑖𝑑𝑜𝑠 𝑗 𝑒𝑛𝑡𝑟𝑒 𝑠 𝑐𝑙𝑖𝑒𝑛𝑡𝑒𝑠 𝑒𝑛 𝑙𝑎𝑝𝑠𝑜 (𝑡 − ℎ)) = ( 𝑗 ) (𝑒 −𝜇(𝑡−ℎ) ) (1 − 𝑒 −𝜇(𝑡−ℎ) )

𝑃(𝑖 + 1 − 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑒𝑛 𝑠 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟𝑒𝑠 𝑜𝑐𝑢𝑟𝑟𝑎𝑛 𝑒𝑛 𝑙𝑎𝑝𝑠𝑜 𝐺, 𝑑𝑎𝑑𝑜 𝑑𝑒 𝑎𝑚𝑝𝑙𝑖𝑡𝑢𝑑 𝑡 = 𝑡 − ℎ + ℎ) =


= 𝑃(𝑐𝑜𝑚𝑝𝑙𝑒𝑡𝑎𝑟 𝑖 + 1 − 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑒𝑛𝑡𝑟𝑒 𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠)

= ∫ 𝑃(𝑖 + 1 − 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑒𝑛 𝑠 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟𝑒𝑠 𝑜𝑐𝑢𝑟𝑟𝑎𝑛 𝑒𝑛 𝑙𝑎𝑝𝑠𝑜 𝐺, 𝑑𝑎𝑑𝑜 𝑑𝑒 𝑎𝑚𝑝𝑙𝑖𝑡𝑢𝑑 𝑡)𝑑𝐹𝐺 (𝑡)


0

= ∫ 𝑃(𝑖 + 1 − 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠 𝑒𝑛 𝑠 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟𝑒𝑠 𝑜𝑐𝑢𝑟𝑟𝑎𝑛 𝑒𝑛 𝑙𝑎𝑝𝑠𝑜 𝐺 = 𝑡| 𝑇∗ = ℎ, 0 < ℎ < 𝑡)𝑑𝐹𝐺 (𝑡)


0

∞ 𝑡

= ∫ ∫ 𝑃(𝑖 + 1 − 𝑗 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜𝑠𝑒 𝑒𝑛 𝑠 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟𝑒𝑠 𝑜𝑐𝑢𝑟𝑟𝑎𝑛 𝑒𝑛 𝑙𝑎𝑝𝑠𝑜 𝐺 = 𝑡|𝑇∗ = ℎ) 𝑑𝐹𝑇∗ (ℎ)𝑑𝐹𝐺 (𝑡)


0 0
∞ 𝑡
𝑠 𝑗 𝑠−𝑗
= ∫ ∫ ( 𝑗 ) (𝑒 −𝜇(𝑡−ℎ) ) (1 − 𝑒 −𝜇(𝑡−ℎ) ) 𝑑𝐹𝑇∗ (ℎ)𝑑𝐹𝐺 (𝑡) 𝑑ℎ 𝑑𝑡
0 0

192
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

0, 𝑗 >𝑖+1

(𝑠𝜇𝑡)𝑖+1−𝑗
∫ 𝑒 −𝑠𝜇𝑡 ∙ 𝑑𝐹𝐺 (𝑡), 𝑠≤ 𝑗 ≤ 𝑖+1
(𝑖 + 1 − 𝑗)!
0

𝑃(𝑖, 𝑗) = 𝑝(𝑖, 𝑖 + 1 − 𝑗) = 𝑖+1
∫( ) (𝑒 −𝜇𝑡 )𝑗 (1 − 𝑒 −𝜇𝑡 )𝑖+1−𝑗 ∙ 𝑑𝐹𝐺 (𝑡) , 𝑗 ≤ 𝑖 + 1 ≤ 𝑠
𝑗
0
∞ 𝑡
𝑠 𝑗 𝑠−𝑗
∫ ∫ ( 𝑗 ) (𝑒 −𝜇(𝑡−ℎ) ) (1 − 𝑒 −𝜇(𝑡−ℎ) ) 𝑑𝐹𝑇∗ (ℎ)𝑑𝐹𝐺 (𝑡) , 𝑗 < 𝑠 ≤ 𝑖 + 1
{0 0

Ídem que 7.3.1.8.1:


𝜋𝑗 = ∑ 𝜋𝑖 ∙ 𝑃(𝑖, 𝑗)
𝑖=0

1 = ∑ 𝜋𝑗
𝑗=0
Ahora considerando: 𝜋𝑠−1+𝑗 = 𝑐 ∙ 𝛽 𝑗 , 𝑗 = 0,1,2, … … …. , de lo cual al analizar tiempo de espera en la fila , siendo
entonces de interés la situación 𝑠 ≤ 𝑗 , donde naturalmente:

𝛽 = ∫ 𝑒 𝑠𝜇(𝛽−1)𝑡 ∙ 𝑑𝐹𝐺 (𝑡)


0
ecuación que sabemos no trivial, en la mayoría de los casos , la cual una vez resuelta y al tener presente 7.3.1.8.2 ,
permite disponer de:

𝑑𝐹𝑡𝑞 (𝑡) = (1 − 𝛽 )𝐼𝑡=0 + 𝛽𝑠𝜇 (1 − 𝛽 )𝑒 −𝑠𝜇(1−𝛽)𝑡 𝐼𝑡>0



𝑡𝑞𝑜𝑐𝑢𝑝 : la.v.a. tiempo de espera en la fila para ser atendido, cuando todos los servidores están ocupados

𝑇𝑞𝑜𝑐𝑢𝑝 : tiempo medio ( también denominado Tiempo de Espera) ante los s servidores ocupados

0, 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑒𝑠𝑡á 𝑣𝑎𝑐í𝑜 ∗


𝑡𝑞 = {𝑡 ∗ , 𝑡𝑞 > 0 , 𝑑𝑜𝑛𝑑𝑒 𝑃(𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑣𝑎𝑐í𝑜) = 1 − 𝛽, 𝑡𝑞𝑜𝑐𝑢𝑝 ~𝐸𝑥𝑝(𝑠𝜇(1 − 𝛽 ))
𝑞𝑜𝑐𝑢𝑝
𝛽
𝑇𝑞 = (1 − 𝛽 ) +
𝑠𝜇 (1 − 𝛽 )
Obteniéndose en seguida los restantes parámetros del sistema, a partir de las fórmulas de Little.
𝛽 1 1
𝑇𝑊 = 𝑇𝑞 + 𝑒𝑥𝑝𝑒𝑐𝑡𝑎𝑡𝑖𝑣𝑎 𝑑𝑒 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜 = 1 − 𝛽 + + = 1−𝛽+
𝑠𝜇 (1 − 𝛽 ) 𝑠𝜇 𝑠𝜇 (1 − 𝛽 )
𝛽
𝐿 = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑇𝑞 = 𝜆𝑇𝑞 = 𝜆 (1 − 𝛽 + )
𝑠𝜇 (1 − 𝛽 )
1
𝑊 = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑇𝑊 = 𝜆 (1 − 𝛽 + )
𝑠𝜇 (1 − 𝛽 )

7.3.3.5.- Modelo M/G/s

Este modelo, considera arribos en conteo según un proceso Poisson P(𝜆), para ser atendidos en multiservidores, (
servidores en paralelo),, s servidores c/u con tiempo aleatorio de atención 𝑌~𝐺, con G una distribución arbitraria.

Para este tipo de modelos, no se dispone de resultados formales exactos, aunque si de ciertas aproximaciones como
la que emana del caso de capacidad finita que fue publicado en 1977 por S. Nozaki & S. Ross “Approximations in
193
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

finite Capacity Multiserver Queues with Poisson Arrivals, Operations Research Center, UCLA-Berkeley.
(https://pdfs.semanticscholar.org/d8bc/72111309fd72b14e39bdfec7e605f1bb8c53.pdf) Lo cual, con posterioridad la
cual aparece de manera muy breve en pag.355-356 del texto Introduction to Probability Models, S. Ross (1985),
Ac. Press,Inc.

7.3.3.5.1.-Capacidad Finita N (M/G/s):(GD/N/∞ )

A causa de saturación hay clientes que abandonan el sistema ( sistema copado), entonces la correspondiente tasa de
efectividad es:
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆 (1 − 𝑝𝑐𝑜𝑝 ) , 𝑝𝑐𝑜𝑝 = 𝑃(𝑋𝑡 = 𝑁)
Corresponde a una generalización también respecto a la capacidad presentada en 7.3.3.3g , que abordó el caso N=s,
pero la presente situación, se realiza una adecuación de los planteamientos entonces utilizados, lográndose una
primera aproximación:

𝐸 [𝑌 2 ]
(1 − 𝑝𝑐𝑜𝑝 − ∑𝑠−1
𝑗=0 𝑃(𝑋𝑡 = 𝑗) − (𝑁 − 𝑠)𝐸[𝑌]𝑝𝑐𝑜𝑝
2𝐸 [𝑌]
𝑇𝑞 ≅
(𝑠 − 𝜆𝐸 [𝑌]) (1 − 𝑝𝑐𝑜𝑝 )

Debido a la dificultad para obtener 𝑝𝑐𝑜𝑝 , 𝑃(𝑋𝑡 = 𝑗), 𝑗 = 1, … 𝑠; mediante una segunda aproximación, se alcanza
la sgte. expresión operacional:

𝐸 [𝑌 2 ] 𝑁−1 (𝜆𝐸 [𝑌])𝑗 𝐸 [𝑌](𝜆𝐸[𝑌])𝑁 𝐸 [𝑌 2 ] 𝑠 𝑠 𝑁−1 𝑗 𝑠𝑠


∑𝑗=𝑠 − (𝑁 − 𝑠 ) ∑𝑗=𝑠 𝜌𝑠 − (𝑁 − 𝑠) 𝐸 [𝑌]𝜌𝑠𝑁
2𝐸 [𝑌] 𝑠! 𝑠 𝑗−𝑠 𝑠! 𝑠 𝑁−𝑠 2𝐸 [𝑌] 𝑠! 𝑠!
𝑇𝑞 ≅ =
𝑠−1 (𝜆𝐸[𝑌])𝑗 𝑁−1 (𝜆𝐸 [𝑌])𝑗 𝑠−1 𝜌𝑗 𝑁−1 𝜌𝑗
(∑𝑗=0 + ∑𝑗=𝑠 ) (𝑠 − 𝜆𝐸 [𝑌]) (∑𝑗=0 𝑗! + ∑𝑗=𝑠 ) (𝑠 − 𝜌 )
𝑗! 𝑠! 𝑠 𝑗−𝑠 𝑠! 𝑠 𝑗−𝑠

7.3.3.5.2.-Capacidad Infinita
Para N grande, 𝜆𝐸 [𝑌] < 𝑠, es decir 𝜌𝑠 < 1 ; la expresión presentada en la sección anterior, se reduce a:

𝜆𝑠 𝐸 [𝑌 2 ](𝐸[𝑌])𝑠−1
𝑇𝑞 ≅
(𝜆𝐸 [𝑌])𝑗 (𝜆𝐸 [𝑌])𝑘
2(𝑠 − 1)! (𝑠 − 𝜆𝐸 [𝑌])2 (∑𝑠−1 +
𝑗=0 𝑗! (𝑠 − 1)! (𝑠 − 𝜆𝐸 [𝑌]))

Anteriormente , entre otras aproximaciones , mencionamos una muy simple (Lee & Longton. Queueing process
associated with airline passenger check-in. Operations Research Quarterly, 10:56–71, 1959. ):

1 + 𝐶2 ∗
𝑇𝑞 ≅ ( ) 𝑇𝑞 , 𝑇𝑞∗ : 𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑒𝑠𝑝𝑒𝑟𝑎 𝑒𝑛 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑀/ 𝑀/ 𝑠
2
La cual fleja una extensión a s servidores como aproximación directa de similar expresión P-K lograda formalmente
para M/G/1 en 7.3.1.7.1. Pero, punto de partida para el trabajo de Gupta et alii (2009)“On the inapproximability of
M/G/s: Why two momentos of job size distribution are not enough”, Queueing Systems, theory and App, Springer
(https://link.springer.com/article/10.1007/s11134-009-9133-x); del cual se desprende formalmente la imposibilidad
de alcanzar resultados formales, con los elementos clásicos hasta aquí utilizadas en el tema, y presentando
interesantes aproximaciones, como los siguientes resultados, para sistemas con servicios tal que 𝑉 (𝑌) = 𝐶 2 ,
definiendo
𝐶2
𝑇𝑞𝑠𝑢𝑝 =: 𝑠𝑢𝑝{𝑇𝑞 , 𝑡. 𝑞. 𝐸 [𝑌] = 1, 𝐸 [𝑌 2 ] = 𝐶 2 + 1}
𝐶 2
𝑇𝑞𝑖𝑛𝑓 =: 𝑖𝑛𝑓{𝑇𝑞 , 𝑡. 𝑞. 𝐸 [𝑌] = 1, 𝐸 [𝑌 2 ] = 𝐶 2 + 1}
∗∗
𝑇𝑞 : 𝑡𝑖𝑒𝑚𝑝𝑜 𝑑𝑒 𝑒𝑠𝑝𝑒𝑟𝑎 𝑒𝑛 𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑀/ 𝐷/ 𝑠 , Y: determinístico , Y=1
- en sistemas con al menos un servidor disponible en promedio, ρ < (s-1)/s =1-1/s, se cumple lo siguiente:
𝐶2
𝑇𝑞𝑠𝑢𝑝 ≥ (𝐶 2 + 1)𝑇𝑞∗∗ ,
𝐶2
𝑇𝑞𝑖𝑛𝑓 ≤ 𝑇𝑞∗∗ , en consecuencia
194
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝐶 2
𝑇𝑞𝑠𝑢𝑝
𝐶2
≥ 𝐶2 + 1
𝑇𝑞𝑖𝑛𝑓
- para sistemas con todos los servidores ocupados en promedio, ρ > (s-1)/s =1-1/s:
𝐶2
(𝐶 2 + 1) ∗
𝑇𝑞𝑠𝑢𝑝 ≥ 𝑇𝑞 ,
2
2
𝐶 −1 𝑠−1
𝐶2
𝑇𝑞𝑖𝑛𝑓 ≤ 𝑇𝑞∗ + 2(1−𝜌) (𝜌 − 𝑠 ), de lo cual también se deduce
2 (𝐶 2 + 1) ∗
𝐶
𝑇𝑞𝑠𝑢𝑝 𝑇𝑞
≥ 2
𝐶 2 2
𝐶 −1 𝑠−1
𝑇𝑞𝑖𝑛𝑓 𝑇𝑞∗ + (𝜌 − 𝑠 )
2(1 − 𝜌)

(https://www.cs.cmu.edu/~harchol/Papers/QUESTA09.pdf)

7.3.4.- Una fila – servidores múltiples en paralelo – población finita (M/M/s):(GD/∞/m )



Consideremos: <1, con política 1º llega 1º en ser atendido, llegadas Poisson, tiempos de servicio exponencial.
s
Este modelo abarca por ejemplo, sistemas de mantención, en que se dispone de un equipo para atender el servicio
segmentado en varios grupos de atención (s-servidores) en paralelo; todos los m clientes están: dentro
(𝒏 esperando o siendo atendidos) y también m-n fuera del sistema de servicio (en funcionamiento). Así el tiempo
entre llegadas es el tiempo mínimo de las (m-n) llegadas: que resulta ser Exp((m-n)λ), al utilizar el procedimiento
(para servicios) descrito en 7.3.3.3d; por lo cual:
(𝑚 − 𝑛)λ, 0 ≤ 𝑛 ≤ 𝑚
λ𝑛 = {
0, 𝑛>𝑚

Por otra parte:


𝑛𝜇, 0 ≤ 𝑛 ≤ 𝑠
𝜇𝑛 = { 𝑠𝜇, 𝑠 < 𝑛 ≤ 𝑚
0, 𝑛>𝑚
Obviando el desarrollo de las expresiones ya efectuadas en el punto anterior, se puede decir que: siendo s el nº de
servidores, s<m tamaño población:

𝜌𝑛 𝑚
𝑝0 𝑃𝑚,𝑛 , 0≤𝑛≤𝑠 ( ) 𝜌 𝑛 𝑝0 , 0≤𝑛≤𝑠
𝑛! 𝑛
𝑃𝑛 (𝑡) = 𝑝𝑛 = { = { 𝑚 𝑛! 𝜌 𝑛
𝜌𝑛
𝑝0 𝑃 , 𝑠<𝑛≤𝑚 ( ) 𝑝 , 𝑠<𝑛≤𝑚
𝑠! 𝑠 𝑛−𝑠 𝑚,𝑛 𝑛 𝑠! 𝑠 𝑛−𝑠 0

𝑚 −1 𝑠 𝑚 −1 𝑠 𝑚 −1
𝑝𝑛 𝑝𝑛 𝑝𝑛 𝑚 𝑚 𝑛! 𝜌 𝑛
𝑝0 = (∑ ) = (∑ + ∑ ) = (∑ ( ) 𝜌 𝑛 + ∑ ( ) ) ,
𝑝0 𝑝0 𝑝0 𝑛 𝑛 𝑠! 𝑠 𝑛−𝑠
𝑛=0 𝑛=0 𝑛=𝑠+1 𝑛=0 𝑛=𝑠+1

𝑚 𝑠 𝑚
𝑚 𝑚 𝑛! 𝜌 𝑛
𝑊 = 𝐸 [𝑋𝑡 ] = ∑ 𝑛𝑝𝑛 = ∑ 𝑛 ( ) 𝜌 𝑛 𝑝0 + ∑ 𝑛 ( ) 𝑝
𝑛 𝑛 𝑠! 𝑠 𝑛−𝑠 0
𝑛=0 𝑛=0 𝑛=𝑠+1

0, 𝑋𝑡 ≤ 𝑠
𝑙𝑡 = {
𝑋𝑡 − 𝑠, 𝑋𝑡 > 𝑠

195
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑚 𝑚 𝑠 𝑠

𝐿 = 𝐸 [𝑙𝑡 ] = ∑ (𝑛−𝑠)𝑝𝑛 = ∑ (𝑛−𝑠)𝑝𝑛 + ∑(𝑛 − 𝑠)𝑝𝑛 − ∑(𝑛 − 𝑠)𝑝𝑛


𝑛=𝑠+1 𝑛=𝑠+1 𝑛=0 𝑛=0

𝑚 𝑠 𝑠 𝑠

= ∑(𝑛 − 𝑠)𝑝𝑛 − ∑(𝑛 − 𝑠)𝑝𝑛 = 𝐸 [𝑋𝑡 − 𝑠] + ∑(𝑠 − 𝑛)𝑝𝑛 = 𝐸 [𝑋𝑡 ] − 𝑠 + ∑(𝑠 − 𝑛)𝑝𝑛
𝑛=0 𝑛=0 𝑛=0 𝑛=0

𝑠 𝑠 𝑠
𝑚 𝑚
= 𝑊 − 𝑠 + 𝑝0 ∑(𝑠 − 𝑛) ( ) 𝜌 𝑛 = 𝑊 − 𝑠 + 𝑝0 (𝑠 ∑ 𝜌 𝑛 − ∑ ( ) 𝑛𝜌 𝑛 )
𝑛 𝑛
𝑛=0 𝑛=0 𝑛=0

donde:

𝑠 𝑠 𝑠
𝑚 1 − 𝜌 𝑠+1 𝑚 𝑑 1 − 𝜌 𝑠+1 𝑑
𝑠 ∑ 𝜌 − ∑ ( ) 𝑛𝜌 𝑛 = 𝑠
𝑛
− 𝜌 ∑ ( ) 𝜌𝑛 = 𝑠 −𝜌 (1 + 𝜌)𝑠
𝑛 1−𝜌 𝑛 𝑑𝜌 1−𝜌 𝑑𝜌
𝑛=0 𝑛=0 𝑛=0

1 − 𝜌 𝑠+1
=𝑠 − 𝑠𝜌(1 + 𝜌)𝑠−1
1−𝜌

1 − 𝜌 𝑛+𝑠
𝐿 = 𝑊 − 𝑠 + 𝑠𝑝0 ( − 𝜌(1 + 𝜌)𝑠−1 )
1−𝜌

Cs : nº esperado de unidades de la población, que no requiere servicio  Cs = m-W

𝑐̅ = 𝑊 − 𝐿 : nº esperado de servidores (estaciones de servicio) que se utilizan


𝜌𝑛+𝑠 − 1 𝑠−1
𝑐̅ = 𝑠 + 𝑠𝑝0 ( + 𝜌(1 + 𝜌) )
1−𝜌

s = (W-L)/s: utilización esperada (promedio) de c/u de los s servidores (S  1), dada en porcentaje de tiempo

Para abreviar se consideran diversas opciones, entre ellas:

𝑇𝑞 ≅ (𝑙𝑎 𝑒𝑠𝑝𝑒𝑐𝑡𝑎𝑡𝑖𝑣𝑎 𝑑𝑒 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑜𝑠 𝑒𝑛 𝑒𝑙 𝑠𝑖𝑠𝑡𝑒𝑚𝑎) x (𝑙𝑎 𝑒𝑠𝑝𝑒𝑐𝑡𝑎𝑡𝑖𝑣𝑎 𝑑𝑒 𝑣𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑 𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑎 𝑑𝑒 𝑠𝑒𝑟𝑣𝑖𝑐𝑖𝑜)

1 𝑊 𝑊
= 𝑊 = =
𝜇 𝑐 𝜇 𝑐 𝜇(𝑊 − 𝐿)

1
Tw = Tq + E[Z]= Tq +

- considerar 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝜆(𝑚 − 𝐿) y aplicar fórmulas de Little ( lo cual es una aproximación muy gruesa):

𝐿 𝑊
𝑇𝑞 = , 𝑇𝑊 =
𝜆 (𝑚 − 𝐿 ) 𝜆 (𝑚 − 𝐿 )

196
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo7.3.4 (reparación de aviones en S = 2 grupos de mantenimiento).

Consideremos: una flota de aviones constituida por 8 aviones


2 grupos de mantenimiento, a donde pueden ir los aviones
Nt: nº de aviones que llegan al mes, Nt P(=5)
Z: tiempo de servicio, por avión Z exp (30) en horas
Determinar parámetros cuantitativos del este sistema de mantención:

Solución
 días   horas 
Suponga que los mecánicos trabajan 6 días a la semana  sem  , 10 horas por día  día 
 Hay 26 días hábiles en el mes, y adoptamos unidad de tiempo la [hora].

5  aviones / mes  0.19231  aviones 


 =  0.01923 
   horas 
= 0.19231 [aviones/día]=:
26  días / mes  10

 = 0.1923 [aviones/hora]

1  aviones atendidos 
= = 0.033333   ,
30horas / avión  hora

 0.019231
2= = = 0.2884<1
s ( 2)0.0333
n 0 1 2 3 4 5 6 7 8
Pn 1 4.6156 9.3 16.1 23.2 26.8 23.2 13.4 3.86
P0

  8   
n

    , 0n2 1
  n     8 P 
 P0    n   121.6  0.0082
P 1
 n  n
P0  8! 
 8 - n !2!2  n  2   
 , 2n8  n  0 P0 
  

entonces:
n 0 1 2 3 4 5 6 7 8
Pn 0.0082 0.0379 0.0765 0.1325 0.1912 0.2206 0.1908 0.1101 0.031

Interpretación de estas probabilidades Pn (t) = Pn :


En un momento dado (t), o digamos, cuando un avión llegue a efectuar su mantención, aproximadamente un:
1% de las veces, el sistema estaría vacío y no esperaría por ser atendido
4% de las veces, habría un solo grupo ocupado, por lo tanto, también no esperaría
7% de las veces, estarían los dos grupos ocupados y esperaría, siendo el primero en la fila
13% de las veces, ya habría un avión esperando
19% de las veces, ya habrían dos esperando antes que él
22% de las veces, habrían tres en la fila ...etc.

197
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

8
largo (esperado de la) fila : L =  n  2  P n = 2.6764 [aviones]
n3
8
nº (esperado) en sistema : W = n P n = 4.6197 [aviones]
n 0
nº (esperado) en operación: Cs = m-W = 8-4.6197 = 3.380 [aviones]

nº (esperado) (de estaciones de servicio) o {grupos de mantenimiento} que se utilizan:


W-L = 4.6197 – 2.6764 = 1.9433 [grupos de mantenimiento]

Tiempo de espera, (medio) para ser atendido :


W 4.6197
Tq = = 71.39 [horas]> 7[días hábiles]
 W  L  0.0333(1.9433)
Tiempos (medio) de espera en el sistema :
1 1
Tw= Tq + =71.39+ =101.42 [horas] >10 (días de trabajo)
 0.0333

La utilización media de cualquier equipo de mantenimiento es:


1
s = (W-L)/S= (1.9433)=0.9717, es decir cada grupo pasa el 97% de su tiempo ocupado.
2
Nota: Para esta empresa es un pésimo negocio, podría estudiarse al tener más equipos de mantenimiento.

7.3.5.- Filas con servidores múltiples en serie-población infinita

Este tipo de espera es característica del sector productivo, donde las líneas de ensamble requieren de una serie de
actividades que se desarrollan en serie. En estos procesos, la salida de una de las etapas es insumo de la etapa
siguiente.
En este caso supondremos:
La llegada al sistema con n servidores en serie es v.a. P(), - media.
Disciplina de la fila 1º que llega 1º que sale.
El tiempo de servicio en etapa (estación) i, i =1,...,n es v.a.i. Exp (i),  = i-media
La capacidad de espacio para espera entre dos estaciones consecutivas, es ilimitada.

Entonces, la probabilidad de Xtj :cantidad en cada instante t de clientes para cada c/ subsistema o en c/estación, es
𝑠
𝑛 𝜆
𝑃(𝑋𝑡1 = 𝑛1 , . . . , 𝑋𝑡𝑠 = 𝑛𝑠 ) = 𝑃(𝑋𝑡1 = 𝑛1 ). . . 𝑃(𝑋𝑡𝑠 = 𝑛𝑠 ) = ∏ 𝜌𝑖 𝑖 (1 − 𝜌𝑖 ), 𝜌𝑖 < , 𝑖 = 1,2, … . . , 𝑠
𝜇𝑖
𝑖=1
W: número de clientes en el sistema es la suma en los subsistemas una fila 1 servidor,
Wi: número de clientes que esperan en sistema i (incluyendo los están siendo atendidos)
𝑠 𝑠
𝜌𝑖
𝑊 = ∑ 𝑊𝑖 = ∑
1 − 𝜌𝑖
𝑖=1 𝑖=1

En consecuencia:
𝑠 𝑠
𝜌𝑖2
𝐿 = ∑ 𝐿𝑖 = ∑
1 − 𝜌𝑖
𝑖=1 𝑖=1

198
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑠 𝑠 𝑠 𝑠
𝜌𝑖 1 1
𝑇𝑞 = ∑ 𝑇𝑞𝑖 = ∑ , 𝑇𝑊 = ∑ 𝑇𝑊𝑖 = ∑
1 − 𝜌𝑖 𝜇𝑖 (1 − 𝜌𝑖 )𝜇
𝑖=1 𝑖= 𝑖=1 𝑖=1

Ejemplo7.5.1

La unidad móvil de servicios de salud visita comunidades rurales 2500 habitantes (al menos), que no cuentan con la
infraestructura fija donde se proporciona este tipo de servicio (clínica, dispensarios o postas médicas), pero a donde
llegan vías de comunicación (caminos).

Al llegar la unidad a la población, se presta un servicio preventivo de salud que consiste en lo siguiente:
Registro de datos personales (A-1) Rayos X (A-2)
Toma de presión arterial (A-3) Muestra de sangre (A-4)
Muestra de orina (A-5) Revisión médica (A-6)

La unidad móvil cuenta con un personal de 6 especialistas, c/u de los cuales se responsabiliza por la ejecución de la
actividad correspondiente a su especialidad. Actividades que se desarrollan en serie.
Se reciben, en promedio 10 pacientes por hora.

El tiempo promedio de servicio de c/estación es:


Actividad A1 A2 A3 A4 A5 A6
Tiempo medio en 3 2 1 2 1 5
servicio [minutos]

entonces:
=10
Por lo anterior, se dispone la siguiente información para el parámetro i correspondiente al número de servicios
proporcionados por hora en la actividad Ai, i = 1,...,6=s

I 1 2 3 4 5 6
i 60 60 60 60 60 65
 20  30  60  30  60  12
3 2 1 2 1 5
 10 10 10 10 10 10
i   0 ,5  0 ,3  0 ,17  0 ,3  0 ,17  0 ,83
i 20 30 60 30 60 12

Luego la probabilidad de que al entrar una persona a la unidad móvil se encuentren:


2 personas esperando ser registrados,
1 persona esperando que le tomen los Rayos
1 persona esperando que le tomen la presión,
0 (o nadie) esperando que le tomen examen de sangre
1 persona esperando que le tomen examen de orina,
2 personas esperando revisión médica, es

P(Li = 2, L2 = 1, L3 = 1, L4 =0, L5 = 1 L6 = 2)=


= (1- 1) 12 (1-2) 2 (1-3) 3 (1-4) (1-5) 5 (1-6) 62 = 0.00000076

W : número esperado de personas en el sistema (esperado y siendo atendido)


199
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

6 
W=  1  i  7 ,28
i 1 i

Tq : tiempo de espera (para todas las actividades) en las filas del sistema:
6
  i  1 0,5 1 0,33 1
  1  
0,83 1
Tq =      ...   0,49( hora)  29( minutos )
i 1  i  i 0,5 20 0,17 30 0,17 12

Tw : tiempo (demora) en el sistema es

6
  1
  1     0,625 hora  38 minutos
1 1 1 1 1
Tw =    ... 
i 1  i   i 0,5 20 0,17 12

Un análisis para varias estaciones por especialidad (no debe efectuarse matemáticamente), debe efectuarse por
simulación.

7.3.5.1.-Propiedades
Lo recién desarrollado permite abordar sistemas más complejos, que se denominan redes, las cuales contemplan
sistemas en los cuales los clientes siempre permanecen en él, ingresan o lo abandonan en cualquier momento.

7.3.5.1a.- Sistemas abiertos


Se entiende por sistema abierto, aquellos donde los clientes pueden ingresar y/o salir en cualquier momento.

Admitamos que a este sistema en serie de la presente sección 3.5, los clientes una vez atendidos por un servidor, si
lo desean son atendidos por cualquier servidor del mismo sistema ( se admite abandono del sistema), al cual se
dirigen con probabilidad pij, y además a c/u de los servidores de este sistema (en serie), también concurren clientes
desde fuera del sistema según un comportamiento Poisson P(ri ) de llegadas.

De esta manera:
-la probabilidad p que un cliente abandone el sistema luego de ser atendido por el servidor i, queda establecida por:
𝑠 𝑠

𝑝 = 1 − ∑ 𝑝𝑖𝑗 , donde ∑ 𝑝𝑖𝑗 ≤ 1 para todo 𝑖 = 1, … . , 𝑠


𝑗=1 𝑗=1

-ahora, la tasa de llegadas al sistema ya deja de ser constante, siendo:


r1, r2 ,………………., rs las tasas de llegadas externas al sistema a los respectivos servidores. Por tanto:

𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝑟1 + 𝑟2 + ⋯ … + 𝑟𝑠

En tal caso, la tasa de llegadas 𝜆𝑗 a cada servidor j, queda establecida mediante el sgte. sistema de s ecuaciones:
𝑠

𝜆𝑗 = 𝑡𝑎𝑠𝑎 𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑒𝑥𝑡𝑒𝑟𝑛𝑎 + 𝑡𝑎𝑠𝑎 𝑑𝑒 𝑙𝑙𝑒𝑔𝑎𝑑𝑎𝑠 𝑖𝑛𝑡𝑒𝑟𝑛𝑎𝑠 = 𝑟𝑗 + ∑ 𝜆𝑖 𝑝𝑖𝑗 , 𝑗 = 1,2, … … . , 𝑠


𝑖=1
en cuyo caso el factor de utilización de c/u de los sub-sistemas , ahora es:

200
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝜆𝑗
𝜌𝑗 = , el cual debe satisfacer; 𝜌𝑗 < 1
𝜇𝑗

Sea Xtj el proceso que en cada instante t , lleva el recuento de clientes en el subsistema j, entonces:
𝑛𝑗
𝑃(𝑋𝑡𝑗 = 𝑛𝑗 ) = 𝜌𝑗 (1 − 𝜌𝑗 ), 𝑛𝑗 entero no negativo

Entonces, también es válida la sgte. expresión, en lo actuales términos:


𝑠
𝑛
𝑃(𝑋𝑡1 = 𝑛1 , . . . , 𝑋𝑡𝑠 = 𝑛𝑠 ) = ∏ 𝜌𝑖 𝑖 (1 − 𝜌𝑖 ),
𝑖=1

𝑠 𝑠 𝑠 𝑠
𝜌𝑖 𝜌𝑖2
𝑊 = ∑ 𝑊𝑖 = ∑ , 𝐿 = ∑ 𝐿𝑖 = ∑
1 − 𝜌𝑖 1 − 𝜌𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1

Recurriendo a la fórmula de Little 𝑊 = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑇𝑊 , 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠:


𝑊 𝐿
𝑇𝑊 = 𝜆 , 𝑇𝑞 = 𝜆
𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑

Ejemplo 7.3.5.1a

1)Consideremos un sistema, compuesto por dos servidores, al cual ingresan clientes según un comportamiento
Poisson de parámetros 3 y 7 hacia los servidores 1 y 2 respectivamente. Además los correspondientes servidores
trabajan según un comportamiento también Poisson con tasas de servicio 9 y 12. Una vez que el cliente es atendido
por el servidor 1 se dirige al servidor 2 con probabilidad 1/3 o abandona el sistema, y por otra parte, un 80% de las
veces quienes han sido atendidos por el servidor 2 se dirigen al servidor uno o bien abandonan el sistema.

Del enunciado, se ha dispuesto:


s=2
Llegadas de comportamiento P(r); r=r1 = 3, r=r2 =4
Servicios de comportamiento P(μ); μ=μ1 = 9, μ=μ2 =12
1
(𝑝𝑖𝑗 ) = ( 0 3)
0.8 0
2
𝜆 = 𝑟1 + 𝜆1 𝑝11 + 𝜆2 𝑝21
𝜆𝑗 = 𝑟𝑗 + ∑ 𝜆𝑖 𝑝𝑖𝑗 , 𝑗 = 1,2, es equivalente a: { 1
𝜆2 = 𝑟2 + 𝜆1 𝑝12 + 𝜆2 𝑝22
𝑖=1

𝜆1 81
𝜆1 = 3 + 𝜆1 0 + 𝜆2 0.8 𝜆1 = 3 + 0.8𝜆2 𝜆1 = 11
81 𝜌1 = = 99
𝜇1
{ 1  { 1 
𝜆2 = 4 + 𝜆1 3 + 𝜆2 0 𝜆2 = 4 + 3 𝜆1 𝜆2 = 11
60
𝜌2 =
𝜆2 60
= 132
𝜇2

𝑛 𝑛 81 𝑛1 8 60 𝑛2 72 144 81 𝑛1 60 𝑛2
𝑃(𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 ) = 𝜌1 1 (1 − 𝜌1 )𝜌2 2 (1 − 𝜌2 ) = ( ) ( ) = ( ) ( )
99 99 132 132 3267 99 132

𝜌 𝜌 81 60
𝑊 = 𝑊1 + 𝑊2 = 1−𝜌1 + 1−𝜌2 = + 72 =10,9583333
1 2 8

201
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝜌12 𝜌22 81 81 60 60
𝐿 = 𝐿1 + 𝐿2 = + = + = 8,66287879
1 − 𝜌1 1 − 𝜌2 99 8 132 72

𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝑟1 + 𝑟2 = 3 + 4 = 7

𝑊
𝑇𝑊 = = 1,56547619
7
𝐿
𝑇𝑞 = = 1,23755411
7

2) Supongamos que los paquetes de señales llegan a una CPU de acuerdo a un comportamiento Poisson P(r1), los
1
cuales son procesados en un tiempo exponencial 𝐸𝑥𝑝 (𝜇 ). Terminado este procesamiento, los paquetes totalmente
1
procesados salen del sistema con probabilidad p, o requieren ser procesados en forma complementaria en otra CPU,
1
como fuente Input/output (I/O), la cual opera según una distribución 𝐸𝑥𝑝 ( ), para ser nuevamente procesados.
𝜇1

CPU 1-p I/O


r1
μ1 μ2

Aquí, naturalmente el número de servidores s=2, 𝑝12 = 1 − 𝑝, 𝑝11 = 𝑝22 = 0, 𝑝21 = 1


𝑟1
2 𝜆1 =
𝜆1 = 𝑟1 + 𝜆2 𝑝
𝜆𝑗 = 𝑟𝑗 + ∑ 𝜆𝑖 𝑝𝑖𝑗 , 𝑗 = 1,2, es equivalente a: }  (1 − 𝑝)𝑟1
𝜆2 = 𝑟2 + (1 − 𝑝)𝜆1
𝑖=1 𝜆2 =
{ 𝑝

𝜆1 𝑟1 𝜆2 (1 − 𝑝)𝑟1
𝜌1 = = , 𝜌2 =
=
𝜇 1 𝑝𝜇1 𝜇2 𝑝𝜇2
𝑛 𝑛 𝑟1
𝑛1 𝑟1 (1 − 𝑝)𝑟1 𝑛2 (1 − 𝑝)𝑟1
𝑃(𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 ) = 𝜌1 1 (1 − 𝜌1 )𝜌2 2 (1 − 𝜌2 ) = ( ) (1 − )( ) (1 − )
𝑝𝜇1 𝑝𝜇1 𝑝𝜇2 𝑝𝜇2
𝜌1 𝜌2 𝑟1 (1 − 𝑝)𝑟1
𝑊 = 𝑊1 + 𝑊2 = + = +
1 − 𝜌1 1 − 𝜌2 𝑝𝜇1 − 𝑟1 𝑝𝜇2 − (1 − 𝑝)𝑟1

𝜌12 𝜌22 𝑟1 2 (1 − 𝑝)2 𝑟1 2


𝐿 = 𝐿1 + 𝐿2 = + = +
1 − 𝜌1 1 − 𝜌2 (𝑝𝜇1 − 𝑟1 )𝑝𝜇1 (𝑝𝜇2 − (1 − 𝑝)𝑟1 )𝑝𝜇2
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 = 𝑟1
𝑊 1 1
𝑇𝑊 = = +
𝑟1 𝑝𝜇1 − 𝑟1 𝑝𝜇2 − (1 − 𝑝)𝑟1
𝐿 𝑟1 (1 − 𝑝)2 𝑟1
𝑇𝑞 = = +
𝑟1 (𝑝𝜇1 − 𝑟1 )𝑝𝜇1 (𝑝𝜇2 − (1 − 𝑝)𝑟1 )𝑝𝜇2

7.3.5.1b.- Sistemas cerrados


Consiste en que m clientes constituyen toda la población), los cuales permanecen en el sistema, siendo atendidos
permanentemente por cualquiera de los s servidores (los cuales operan independientemente según comportamiento
Poisson a tasa μj, j=1,..s) y no existen llegadas externas (tasa de llegadas externas ri =0 para todo i=1,..,s).
En tal caso, la tasa de llegadas 𝜆𝑗 a cada servidor j, queda establecida mediante el sgte. sistema de s ecuaciones:
𝑠

𝜆𝑗 = ∑ 𝜆𝑖 𝑝𝑖𝑗 , 𝑗 = 1,2, … … . , 𝑠, 𝜆𝑗 > 0 para todo j = 1, … . . , s


𝑖=1
202
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

El cual es de la misma forma ( salvo constante de proporcionalidad ) que el sgte. sistema que posee solución única
para 𝜋𝑗 , 𝑗 = 1, … , 𝑠 ∶

𝑠 𝑠

𝜋𝑗 = ∑ 𝜋𝑖 𝑝𝑖𝑗 , tales que ∑ 𝜋𝑗 = 1,


𝑖=1 𝑗=1
𝜋𝑗 : 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑙í𝑚𝑖𝑡𝑒 𝑑𝑒 𝑠𝑜𝑙𝑖𝑐𝑖𝑡𝑎𝑟 𝑎𝑡𝑒𝑛𝑐𝑖ó𝑛 𝑒𝑛 𝑒𝑙 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟 𝑗 𝑑𝑒𝑠𝑑𝑒 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟 𝑖
(𝑛)
𝜋𝑗 = lim 𝑝𝑖𝑗 , 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑡𝑖𝑒𝑚𝑝𝑜, 𝑞𝑢𝑒 𝑎 𝑙𝑎 𝑙𝑎𝑟𝑔𝑎 𝑙𝑜𝑠 𝑐𝑙𝑖𝑒𝑛𝑡𝑒𝑠 𝑠𝑜𝑙𝑖𝑐𝑖𝑡𝑎𝑛 𝑎𝑛𝑡𝑒𝑛𝑐𝑖ó𝑛 𝑎𝑙 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟 𝑗
𝑛→∞
(𝑛)
𝑝𝑖𝑗 = 𝑃(𝑐𝑙𝑖𝑒𝑛𝑡𝑒 𝑦𝑎 𝑎𝑡𝑒𝑛𝑑𝑖𝑑𝑜 𝑝𝑜𝑟 𝑒𝑙 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟 𝑖 𝑠𝑒 𝑑𝑖𝑟𝑖𝑗𝑎 𝑒𝑛 𝑠𝑢 𝑛 − 𝑒𝑠𝑖𝑚𝑎 𝑝𝑒𝑡𝑖𝑐𝑖ó𝑛 𝑎𝑙 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟 𝑗)
( véase:- S.Ross, Teorema Ergodico para cadenas de Markov irreductibles;- A.León-García , Redes cerradas de
cadenas, Teorema de Jackson)

Así, para cada j, y para cada c-upla de enteros no negativos (𝑛1 , 𝑛2 , … , 𝑛𝑠 ), tal que 𝑛1 + 𝑛2 + ⋯ + 𝑛𝑠 = 𝑚 :

𝜆𝑗 (𝑚) =: 𝜆𝑗 = 𝐶𝑚 𝜋𝑗
𝑃(𝑋𝑡1 = 𝑛1 ). . . 𝑃(𝑋𝑡𝑠 = 𝑛𝑠 )
𝑃(𝑋𝑡1 = 𝑛1 , . . . , 𝑋𝑡𝑠 = 𝑛𝑠 ) =
𝐶𝑚

𝐶𝑚 = ∑ 𝑃(𝑋𝑡1 = 𝑛1 ) … 𝑃(𝑋𝑡𝑠 = 𝑛𝑠 ) , 𝐴𝑚 = {𝑡𝑜𝑑𝑎𝑠 𝑙𝑎𝑠 𝑐 − 𝑢𝑝𝑙𝑎𝑠 (𝑛1 , 𝑛2 , … , 𝑛𝑐 )𝑡. 𝑞. 𝑚 = 𝑛1 + 𝑛2 + ⋯ + 𝑛𝑐 }


𝐴𝑚

𝑠
𝑛 𝜆𝑗
𝐶𝑚 = ∑ ∏ 𝜌𝑖 𝑖 (1 − 𝜌𝑖 ) , 𝜌𝑗 =
𝜇𝑗
𝐴𝑚 𝑖=1

Finalmente:
∏𝑠𝑖=1 𝜌𝑖𝑛𝑖 (1 − 𝜌𝑖 )
𝑃𝑚 (𝑋𝑡1 = 𝑛1 , … , 𝑋𝑡𝑠 = 𝑛𝑠 ) =: 𝑃(𝑋𝑡1 = 𝑛1 , … , 𝑋𝑡𝑠 = 𝑛𝑠 ) = { , 𝑛1 + 𝑛2 + ⋯ + 𝑛𝑐 = 𝑚
𝐶𝑚
0, 𝑜. 𝑐.

De lo cual se deduce:

𝑠 𝑠 𝑠
𝑛 𝑛
𝐶𝑚 = ∑ ∏ 𝜌𝑖 𝑖 (1 − 𝜌𝑖 ) = ∏(1 − 𝜌𝑖 ) ∑ ∏ 𝜌𝑖 𝑖
𝑛1 +𝑛2 +⋯+𝑛𝑠 =𝑚 𝑖=1 𝑖=1 𝑛1 +𝑛2 +⋯+𝑛𝑠 =𝑚 𝑖=1

∏𝑠𝑖=1 𝜌𝑖𝑛𝑖
, 𝑛1 + 𝑛2 + ⋯ + 𝑛𝑐 = 𝑚
𝑃𝑚 (𝑋𝑡1 = 𝑛1 , … , 𝑋𝑡𝑠 = 𝑛𝑠 ) = {∑ 𝑛1 +𝑛2 +⋯+𝑛𝑠 =𝑚 ∏𝑠𝑖=1 𝜌𝑖𝑛𝑖
0, 𝑜. 𝑐.

expresión operacionalmente abordable cuando m es pequeño.

Para m arbitrario es conveniente disponer de una aproximación, como la basada en la sgte. interpretación ( lo cual
se conoce como Teorema de Llegadas):
𝑃(𝑢𝑛 𝑐𝑙𝑖𝑒𝑛𝑡𝑒 𝑞𝑢𝑒 𝑠𝑒 𝑑𝑖𝑟𝑖𝑔𝑒 𝑑𝑒𝑠𝑑𝑒 𝑒𝑙 𝑠𝑒𝑟𝑣𝑖𝑑𝑜𝑟 𝑖 𝑎𝑙 𝑗 𝑜𝑏𝑠𝑒𝑟𝑣𝑎: 𝑛1 𝑒𝑛 𝑠𝑢𝑏𝑠𝑖𝑠𝑡𝑒𝑚𝑎 1, . . . , 𝑛𝑠 𝑒𝑛 𝑠𝑢𝑏𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑠)
= 𝑃𝑚−1 (𝑋𝑡1 = 𝑛1 , . . . , 𝑋𝑡𝑠 = 𝑛𝑠 )
es decir: la distribución se mantiene, salvo adecuación a número de entidades.
De lo cual se desprende:
𝜆𝑗 (𝑚 − 1) = 𝐶𝑚−1 𝜋𝑗

Cuando hay m clientes en el sistema, para el subsistema j formado por fila de espera y servicio dado por servidor j,
consideremos:
203
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (𝑗, 𝑚) = 𝜆𝑗 (𝑚)


𝑊𝑗 (𝑚): número esperado de clientes en el subsistema j
𝑇𝑊𝑗 (𝑚): tiempo esperado de demora en el subsistema jpropr
Entonces:
𝑠

𝑚 = ∑ 𝑊𝑗 (𝑚)
𝑗=1

𝑊𝑗 (𝑚 − 1) = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (𝑗, 𝑚 − 1)𝑇𝑊𝑗 (𝑚 − 1) = 𝐶𝑚−1 𝜋𝑗 𝑇𝑊𝑗 (𝑚 − 1), entonces:


𝑠 𝑠

𝑚 − 1 = ∑ 𝑊𝑗 (𝑚 − 1) = 𝐶𝑚−1 ∑ 𝜋𝑗 𝑇𝑊𝑗 (𝑚 − 1)
𝑗=1 𝑗=1

𝑚−1
𝐶𝑚−1 =
∑𝑠𝑗=1 𝜋𝑗 𝑇𝑊𝑗 (𝑚 − 1)

De lo cual se deduce, la siguiente fórmula recursiva:

1+𝑊𝑗 (𝑚−1) 1+𝐶𝑚−1 𝜋𝑗 𝑇𝑊𝑗 (𝑚−1) 1 (𝑚−1)𝜋𝑗 𝑇𝑊𝑗 (𝑚−1)


𝑇𝑊𝑗 (𝑚) = = =𝜇 +𝜇 𝑠 , a partir de la cual se logra recursivamente,
𝜇𝑗 𝜇𝑗 𝑗 𝑗 ∑𝑗=1 𝜋𝑗 𝑇𝑊𝑗 (𝑚−1)

este y los restantes los parámetros del sistema:


𝑊𝑗 (𝑚) = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (𝑗, 𝑚)𝑇𝑊𝑗 (𝑚)
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑(𝑗,𝑚)
𝐿𝑗 (𝑚) = 𝑊𝑗 (𝑚) −
𝜇𝑗
(
𝐿𝑗 𝑚 )
𝑇𝑞𝑗 (𝑚) =
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑(𝑗,𝑚)

1
El procedimiento, se inicia con 𝑇𝑊𝑗 (1) = 𝜇 , y disponiendo de cada 𝜋𝑗 ,
𝑗
1
𝜋𝑗 𝑇𝑊𝑗 (1) 𝜋𝑗 𝜇
1 1 𝑗
𝑇𝑊𝑗 (2) = + = + , … … … … … … ….
𝜇𝑗 𝜇𝑗 ∑𝑠𝑗=1 𝜋𝑗 𝑇𝑊𝑗 (1) 𝜇𝑗 𝜇 ∑𝑠 𝜋 1
𝑗 𝑗=1 𝑗 𝜇
𝑗
Luego, se aplica también para obtener los términos de las secuencias:
𝑚−1
𝐶𝑚−1 = ∑𝑠 𝜋 𝑇 (𝑚−1) , 𝑊𝑗 (𝑚 − 1) = 𝐶𝑚−1 𝜋𝑗 𝑇𝑊𝑗 (𝑚 − 1),
𝑗=1 𝑗 𝑊𝑗

7.3.6.- Filas con servidores múltiples en serie-población finita

Corresponde a situaciones particulares de 7.3.5.1b en que los servicios son secuenciales, cíclico (nadie abandona el
sistema) con o sin reemplazo. Por tanto abordaremos estas situaciones como:

Ejemplo7.3.5.1b
1) Consideremos un sistema de s servidores como en 7.3.5.1b, tales que pii+1=1 si i=1,2,….,s-1, ps1=1. Por ende un
sistema cerrado, que se puede representar como:

CPU CPU I/O

μ1 μ2 μs

204
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝜋𝑗 = ∑ 𝜋𝑖 𝑝𝑖𝑗 }  𝜋𝑗 = 𝜋𝑗−1 , 𝑗 = 2, … , 𝑠; 𝜋1 = 𝜋𝑠
𝑖=1

Por lo tanto: 𝜋𝑗 = 𝜋 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 , 𝑗 = 1, … . , 𝑠; como

𝑠
1
1 = ∑ 𝜋𝑗 = 𝑠 𝜋 , lo cual implica: 𝜋 =
𝑠
𝑗=1

𝐶2 𝜆𝑗 (2) 𝐶2
𝜆𝑗 (2) = 𝐶2 𝜋𝑗 = , entonces 𝜌𝑗 = =
𝑠 𝜇𝑗 𝑠𝜇𝑗

Considerando nuestras expresiones recursivas, los parámetros de un sistema de este tipo para m=2 clientes se
obtienen partir de :
1
𝑇𝑊𝑗 (1) = 𝜇 ,
𝑗
1 1
𝜋𝑗 𝜇
1 𝑗 1 𝑠𝜇𝑗 1 1
𝑇𝑊𝑗 (2) == + = + = +
𝜇𝑗 𝜇 ∑𝑠 𝜋 1 𝜇𝑗 𝜇 ∑𝑠 1 𝜇𝑗 𝜇2 ∑𝑠 1
𝑗 𝑗=1 𝑗 𝜇 𝑗 𝑗=1 𝑠𝜇 𝑗 𝑗=1 𝜇
𝑗 𝑗 𝑗

𝑚 2 2𝑠
𝐶𝑚 = ; entonces 𝐶2 = =
∑𝑠𝑗=1 𝜋𝑗 𝑇𝑊𝑗 (𝑚) 1 1 1
∑𝑠𝑗=1 𝑇𝑊𝑗 (2) ∑𝑠𝑗=1 +
𝑠 𝜇𝑗 2 ∑𝑠 1
𝜇𝑗 𝑗=1 𝜇
𝑗

𝐶2 2
𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (𝑗, 2) = 𝜆𝑗 (2) = 𝐶2 𝜋𝑗 = = ;
𝑠 𝑠 1 1
∑𝑗=1 +
𝜇𝑗 1
𝜇𝑗2 ∑𝑠𝑗=1 𝜇
𝑗

1 1
2 (𝜇 + 1)
𝑗
𝜇𝑗2 ∑𝑠𝑗=1
𝜇𝑗
𝑊𝑗 (2) = 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (𝑗, 2)𝑇𝑊𝑗 (2) = ; 𝑠𝑖 𝜇𝑗 = 𝑐𝑡𝑒 = 𝜇 ,
1 1
∑𝑠𝑗=1
𝜇𝑗 + 1
𝜇𝑗2 ∑𝑠𝑗=1 𝜇
𝑗
En particular,

2 2𝜇 2𝜇(1 + 𝑠)
𝑠𝑖 𝜇𝑗 = 𝑐𝑡𝑒 = 𝜇: 𝜆𝑗 (2) = = , 𝑊𝑗 (2) =
𝑠 1 1 + 𝑠2 1 + 𝑠2
+
𝜇 𝑠𝜇

Al continuar la recurrencia se obtienen los parámetros del sistema para un número mayor de clientes en el sistema.

2) Consideremos una importante modificación a lo presentado en Ejemplo 7.3.5.1.a.2. Ahora permanentemente


habrán m paquetes en el sistema, en que la CPU al completar su tarea sobre un paquete este es reemplazado por
otro con probabilidad p; lo cual da origen a la sgte. representación de sistema cerrado

205
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CPU 1-p I/O

μ1 μ2

𝑠 2

para cada 𝑗 = 1, . . , 𝑠: 𝜋𝑗 = ∑ 𝜋𝑖 𝑝𝑖𝑗 } , como s = 2, se reduce a ∶ 𝑗 = 1,2: 𝜋𝑗 = ∑ 𝜋𝑖 𝑝𝑖𝑗 = 𝜋1 𝑝1𝑗 + 𝜋2 𝑝2𝑗 }


𝑖=1 𝑖=1

Pero: 𝑝11 = 𝑝, 𝑝12 = 1 − 𝑝, 𝑝22 = 0, 𝑝21 = 1, entonces:

1
𝜋1 =
𝜋1 = 𝜋1 𝑝11 + 𝜋2 𝑝21 = 𝑝𝜋1 + 𝜋2 2−𝑝
}
𝜋2 = 𝜋1 𝑝12 + 𝜋2 𝑝22 = (1 − 𝑝)𝜋1 1−𝑝
𝜋 =
{ 2 2−𝑝
Las tasas de llegadas, a los respectivos servidores j=1, 2 coinciden con a:
𝐶𝑚
, 𝑗=1
2−𝑝 𝜆𝑗 (𝑚) 𝐶𝑚 𝜋𝑗
{𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (𝑗, 𝑚) = 𝜆𝑗 (𝑚) = 𝐶𝑚 𝜋𝑗 = ; 𝜌𝑗 = =
1−𝑝 𝜇𝑗 𝜇𝑗
𝐶𝑚 , 𝑗 = 2
{2 − 𝑝

𝑛 𝑛
𝜌1 1 (1−𝜌1 )𝜌2 2 (1−𝜌2 )
, 𝑛1 + 𝑛2 = 𝑚
𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 ) = { 𝐶𝑚 , pero, debido a que
0, 𝑜. 𝑐.
1 𝑛 𝑛
1= ∑ 𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 ) = ∑ 𝜌1 1 (1 − 𝜌1 )𝜌2 2 (1 − 𝜌2 )
𝐶𝑚
𝑛1 +𝑛2 =𝑚 𝑛1 +𝑛2 =𝑚

𝑛 𝑛 𝑛 𝑚−𝑛1
𝐶𝑚 = ∑ 𝜌1 1 (1 − 𝜌1 )𝜌2 2 (1 − 𝜌2 ) = (1 − 𝜌1 )(1 − 𝜌2 ) ∑ 𝜌1 1 𝜌2
𝑛1 +𝑛2 =𝑚 0≤𝑛1≤𝑚
𝜌 𝑚+1
𝜌
𝑚
𝑛1 1 − (𝜌1 )
1 2
= (1 − 𝜌1 )(1 − 𝜌2 )𝜌2𝑚 ∑ ( ) = (1 − 𝜌1 )(1 − 𝜌2 )𝜌2𝑚 𝜌1
𝜌2 1 −
𝑛1=0 𝜌2
De esta manera, como en nuestro caso en desarrollo s=2:
𝑛 𝑚−𝑛1 𝑛 𝑚−𝑛1
𝜌1 1 (1−𝜌1 )𝜌2 (1−𝜌2 ) 𝜌1 1 𝜌2
𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 , 𝑛1 + 𝑛2 = 𝑚 ) = 𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑚 − 𝑛1 ) = 𝜌 𝑚+1
= 𝜌 𝑚+1
=
1−(𝜌1 ) 1−(𝜌1 )
(1−𝜌1 )(1−𝜌2 )𝜌2𝑚 2
𝜌
2
𝜌
1−𝜌1 1−𝜌1
2 2

𝜌
𝜌 𝑛1 1− 1 1−𝜌 𝜌1
𝜌2
= (𝜌1 ) 𝜌 𝑚+1
= 𝜌𝑛1 1−𝜌 𝑚+1 , al considerar 𝜌 = :
2 1−( 1 ) 𝜌2
𝜌2
Expresión de la forma expuesta en 7.3.1.5g; por lo cual el primer sistema del que estamos abordando, se comporta
como si fuese un Sistema de una fila un servidor de Capacidad Finita m (M/M/1):(GD/m/∞ ).

𝐶𝑚 𝜋1 𝜇2
𝜌1 𝜇1 𝜋1 𝜇2 2−𝑝 𝜇2
pero: 𝜌 = = = = =
𝜌2 𝐶𝑚 𝜋2 𝜋2 𝜇1 (1 − 𝑝)𝜇1 (1 − 𝑝)𝜇1
𝜇2 2−𝑝
lo cual indica: dependencia directa de 𝜇2 ( tasa de funcionamiento I/O) e inversamente a la probabilidad
206
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

(1 − 𝑝) de requerir de I/O y también a 𝜇1 ( tasa de funcionamiento de CPU).

Siendo p es la proporción de programas que requieren ser reemplazados, 𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (1, 𝑚) = 𝜆1 (𝑚); la tasa de
𝜆 (𝑚)
programas reemplazados es: 𝑝𝜆1 (𝑚) y consecuente con lo anterior, de la capacidad de utilización 𝜌1 = 1 de tal 𝜇1
primer sistema, es posible expresar lo siguiente:
𝜆1 (𝑚) 1−𝜌 1−𝜌
1 − 𝜌1 = 1 − = 𝑃𝑚 (𝑋𝑡1 = 0, 𝑋𝑡2 = 𝑚 ) = 𝜌0 𝑚+1
=
𝜇1 1−𝜌 1 − 𝜌𝑚+1

𝜆1 (𝑚) 1−𝜌 1−𝜌 1 − 𝜌𝑚+1 − 1 + 𝜌 1 − 𝜌𝑚


1− = 𝑚+1
 𝜆1 (𝑚) = 𝜇1 (1 − 𝑚+1
) = 𝜇1 𝑚+1
= 𝜇1 𝜌
𝜇1 1−𝜌 1−𝜌 1−𝜌 1 − 𝜌𝑚+1

1−𝜌 𝑚
De lo cual se obtiene explícitamente la tasa de programas reemplazados: 𝑝𝜆1 (𝑚) = 𝑝𝜇1 𝜌 1−𝜌𝑚+1
3)Para el sistema cerrado:
CPU I/O

μ1 μ2 μ3

En este caso s=3, donde la CPU actúa como fuente generadora de señales a una tasa λ=μ1.

𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 , 𝑋𝑡3 = 𝑛3 , 𝑛1 + 𝑛2 + 𝑛3 = 𝑚 ) = 𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 , 𝑋𝑡3 = 𝑚 − ( 𝑛1 + 𝑛2 )) =


𝑛 𝑛 𝑛 𝑛 𝑛 𝑚−𝑛1 −𝑛2
𝜌1 1 (1 − 𝜌1 )𝜌2 2 (1 − 𝜌2 )𝜌3 3 (1 − 𝜌3 ) (1 − 𝜌1 )(1 − 𝜌2 )(1 − 𝜌3 )𝜌1 1 𝜌2 2 𝜌3
= =
𝐶𝑚 𝐶𝑚

Según: 7.3.2.-. Una fila – un servidor – población finita (M/M/1):(GD /∞/m ), el primer subsistema cuenta con una
fuente generadora de señales (o llegadas), cuya tasa de efectividad:

𝜆𝑒𝑓𝑒𝑐𝑡𝑖𝑣𝑖𝑑𝑎𝑑 (1, 𝑚) = 𝜆1 (𝑚) = 𝜆(1 − 𝑃(𝑋𝑡1 = 0)) o tasa de ingreso (efectivo) de señales al sistema

donde:

𝑃(𝑋𝑡1 = 0) = ∑ 𝑃𝑚 (𝑋𝑡1 = 𝑛1 , 𝑋𝑡2 = 𝑛2 , 𝑋𝑡3 = 𝑛3 ) = ∑ 𝑃𝑚 (𝑋𝑡1 = 0, 𝑋𝑡2 = 𝑛2 , 𝑋𝑡3 = 𝑛3 )


𝑛1 +𝑛2 +𝑛3 =𝑚 𝑛2 +𝑛3 =𝑚
𝑛1 =0

Restringiendo a m=2 clientes ( paquetes):


𝑛 𝑛 2−𝑛1 −𝑛2
𝐶𝑚 = (1 − 𝜌1 )(1 − 𝜌2 )(1 − 𝜌3 ) ∑ 𝜌1 1 𝜌2 2 𝜌3 , 𝑛3 = 2 − 𝑛1 − 𝑛2
𝑛1 +𝑛2 +𝑛3 =2
= (1 − 𝜌1 )(1 − 𝜌2 )(1 − 𝜌3 )(𝜌12 + 𝜌22 + 𝜌32 + 𝜌1 𝜌2 + 𝜌1 𝜌3 + 𝜌2 𝜌3 )

𝑛 2−𝑛
𝜌2 2 𝜌3 2
𝑃𝑚 (𝑋𝑡1 = 0, 𝑋𝑡2 = 𝑛2 , 𝑋𝑡3 = 𝑛3 ) = ∑
(𝜌12 + 𝜌22 + 𝜌32 + 𝜌1 𝜌2 + 𝜌1 𝜌3 + 𝜌2 𝜌3 )
𝑛2 +𝑛3 =2

𝜌22 +𝜌32 + 𝜌1 𝜌2
=
(𝜌12 + 𝜌22 + 𝜌32 + 𝜌1 𝜌2 + 𝜌1 𝜌3 + 𝜌2 𝜌3 )

Otro sistema de fila de este mimo tipo de serie con población finita es un sistema abierto, en que c/cliente luego de
ser atendido por el servidor s abandona el sistema; lo cual corresponde al presente caso y habitualmente se
representa mediante
207
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Llegadas λ salida

μ1 μ2 μs
1
así también: 𝜋 = 𝑠 , el cual puede replantearse en tales términos de sistema cerrado, pero con s+1 servicios, ya que
la fuente generadora se agregó en su planteamiento como elemento (servicio) anexo.

7.3.7.- Linea Simple, con llegadas y servicios no constantes, distribuidos respectivamente con
distribución de Poisson y exponencial.

La llegada En muchas líneas se obliga que los servidores trabajen más rápido debido a
El servicio
factores de presión que ejercen quienes están en la fila lo que induce a que el
tiempo medio de servicio   cte, si además ocurre lo mismo con la llegada   cte, veremos que sucede en estos
casos:

Sea n = nc , n = 1, 2,... donde

n = número de clientes en el sistema.


n : tasa de servicio medio (promedio) cuando hay n clientes en el sistema (n  1).

1 : tasa de servicio medio “normal” (cuando no se ejerce presión, o c = 0) que son de casos anteriores.

c : coeficiente de presión de trabajo, c > 0. Indica el efecto de la gente que espera en la fila.

(la reducción del tiempo de servicio es proporcional al largo de la fila)


 1   n  n ,
si c   (la reducción del tiempo de servicio varía con la raiz del largo de la fila).
1 / 2   n  n  ,
 Si suponemos  = cte. = 0, y servicios variables n ; los valores de:
P0 : Probabilidad de que el sistema esté vacío en el en el tiempo t
W : nº esperado de clientes en el sistema
Están gráficados para varios valores de: c = 0.2, 0.4, 0.6
0
s = 1.2 en función de 1
c=0 s1
c=0.2
W 2 P0

1.0
c=0.6
c=0.4
c=0.06

c=0.4 c=0.4
c=0 c=0

0 1.0
0
s1 s1
s=1
s=2
208
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 En otros sistemas, más que cambiar la tasa de servicio se afecta la llegada de clientes. Por ejemplo se puede
disminuir su llegada desviándola a otros sistemas donde se prestan servicios similares. En este caso: n =
(n+1)-b 0 , n = 0, 1, 2,..., b > 0 y cuya interpretación es análoga al parámetro c.

Ejemplo7.6 (sala de urgencia)

Suponga que el tiempo promedio de servicio de emergencia (de posta) disminuye a medida que se llena la sala de
espera, debido a que los médicos de guardia empiezan a delegar parte de su trabajo (lo de menos complicación) a las
enfermeras.
Admita que un Doctor tarda en promedio:
24 [minutos] por paciente, si la sala de espera está vacía.
12 [minutos] por paciente, si llegan a haber 5 pacientes en espera (6 en el sistema).
Se requiere estudiar el sistema, suponiendo que los pacientes llegan en intervalos de ½ [hora] en (media)
con distribución Poisson, para los casos en que haya un médico de guardia, (s = 1) y dos médicos de guardia (s
= 2).

Solución
- Tiempo promedio de servicio
 Si nadie espera (o hay menos de 5 pacientes esperando)

60
n =
min / hora  2.5 [pacientes/hora]
24 minutos / pacientes 
60
 Si hay 5 o más pacientes esperando 6 =  5 [pacientes/hora]
12

lg( 5 / 25)
6 = nc 1  5 = 6c 1  5=6c 2,5  c lg 6 = lg 5/2,5  c= = 0.4
lg 6

  2
   0 ,8  1 si s  1
  1 2 ,5
Como  =2 [pacientes/hora] entonces:   
 2
   0 ,4  1 si s  2
 s 1 22 ,5 

Datos en los que de los 2 gráficos presentados se obtiene P0 , W :

S=1 S=2
P0 0.367 0.440
W 1.251 0.864

Por las fórmulas discutidas en sección 1 y 3 se tiene:

209
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

S=1 S=2
/(S) 0.8 0.4
P0 0.367 0.440
P1 0.294 0.352
L 0.618 0.16
W 1.251 0.864
Tq 18/2 [minutos]  5 [minutos]
Tw 37/2 (minutos)  29 [minutos]
P(Ts >0) 0.633 0.208

Al estimar, los costos de espera y servicio; se puede determinar, con cuántos doctores es más conveniente
proporcionar este servicio.

7.4.- Comportamiento prioritario de una línea de espera

En algunos sistemas existen prioridades entre los servicios que se proporcionaron a la población que los
solicita. Por ejemplo, un caso estable, en un servicio de salud de emergencia, no tiene la misma prioridad que un caso
crítico. Así también, en comunicaciones, lo es la transmisión de: imagen, sonido, datos.

Existen algunos resultados teóricos, derivados del análisis matemático con distribución de Poisson para este
tipo de las llegadas y servicios; donde los clientes son atendidos según la clase de prioridad que posean.

Denotando por,
S : número de servidores
 : promedio de servicio para c/servidor (todos los servidores atienden de manera similar)
k : tipo de prioridad existente entre r clases ; k = 1, 2,..., r.
k : promedio de llegada de clientes en la clase de prioridad k
n

Se tiene:    k ,  , considerando el caso  , y las siguientes expresiones:
k 1 
k

 S    s1  j
 i
A = S!    S B0 = 1, Bk = 1- i  1 k = 1, 2,...,r
  s
S
 j 0 j!
Para un cliente de clase k, k = 1, 2,..., r :
1 1
Twk   ,
ABk  1 Bk 
1
Además: 𝑇𝑞𝑘 = 𝑇𝑊𝑘 − 𝜇 , 𝑊𝑘 =  𝑘 𝑇𝑊𝑘

Estos resultados, son válidos para un sistema denominado “sin aborto de servicio” (no se suspende el servicio a un
cliente, por la llegada de otro, con mayor prioridad). En estos casos un cliente con prioridad mayor que los que
esperan entra al sistema colocándose adelante de la fila, pero debe esperar que un servidor se desocupe para que él
entre a servicio.
Existen resultados para sistema con aborto de servicio, donde se suspende el servicio a un cliente, para atender a otro
con prioridad mayor. Para el caso de un servidor (S=1), se tiene el siguiente resultado:
1/ 
Twk  k = 1, 2,...,r
Bk  1 B k

210
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo7.7 (servicio de urgencia – Hospital)

Se reciben pacientes y clasifican en 3 grupos prioritarios de acuerdo a como sea el caso:


Alta : críticos (de vida o muerte)
Media : serios (deterioro rápido si no se atiende de inmediato)
Baja : estables (la espera no deteriora la condición del paciente)

En este servicio durante el último período se ha presentado un:


30% de los casos, como críticos (Alta) = A
60% de los casos como serios (Medio) = M
10% de los casos, como estables (Baja) = B

El servicio de emergencia tiene una política abortiva; es decir se interrumpe el tratamiento de un caso:
- Estable para dar cabida a un caso serio o crítico
- Serio para dar entrada a un caso crítico

El estudio “mostró” complementariamente que en promedio, la atención a un paciente dura 20 minutos, que los
casos críticos se presentan en promedio cada 5 horas, los serios uno cada 100 minutos y los estables, 1 cada 50
minutos.

Describir cuantitativamente el comportamiento de la línea de espera, bajo política abortiva y no abortiva.

Solución

Se tiene: Prioridades A, M, B

60  minutos/ hora   paciente


    3 
20  minutos/ paciente  hora 

 1
  pacien / hora, k 1
0.2, k  1
 5
 1  pacientes minutos   paciente
k    60   , k  2  0.6 k  2  
 100  minutos hora    hora 
 1  pacientes minutos  1.2 k  3
 50  60  minutos hora  , k  3
  

Por lo tanto :  = 1 + 2 + 3 = 0.2 + 0.6 + 1.2 = 2   paciente 


=2  hora 

Por lo tanto, se recibe un paciente cada 30 minutos, independiente de su prioridad.

 2
Además:     0.66  1 , entonces, para un número de servidores S=1,y S=2:
 3

211
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Política Abortiva Política no Abortiva


S=1 S=2 S=1 S=2
A 4.500 4.500 36.000
 B0 1.0 1.0 1.0
B
 1 0.933 0.933 0.967
Bk 
 B2 0.733 0.733 0.867
 B3 0.333 0.333 0.667

Tw 21 [min] 34 [min] 21.5[min]


 1 29 [min] 39 [min] 22 [min]
Twk Tw2
T 82 [min] 74.5 [min] 22.5 [min]
 w3

1.5 [min] 14.5 [min] 2 [min]


𝑇𝑞1
9.5 [min] 19.5 [min] 2 [min]
𝑇𝑞𝑘 {𝑇𝑞2
𝑇𝑞3 62 [min] 53.5 [min] 3 [min]
W1 0.07 [pac.] 0.11 [pac.] 0.07 [pac.]
W2 0.29 [pac.] 0.39 [pac.] 0.22 [pac.]
W3 1.64 [pac.] 1.47 [pac.] 0.46 [pac.]
1
1     0  0   
Para s  1  A  1!     1   
  s0 0! 
1

Con un proceso como el de la siguiente sección se podrá concluir el número óptimo de servidores que equilibre el
costo social de espera (costo de (perder) una vida humana) y el costo de operar y mantener el servicio.

7.5.- El Proceso de decisión en las Líneas de espera

Las decisiones más comunes en cualquier línea de espera, se refieren a fijar el nivel de parámetros que a
continuación se mencionan, tal que se logre un equilibrio en el costo de operar el sistema y el costo asociado a la
espera. El nivel de estos parámetros se puede fijar individualmente o combinando unos con otros. Estos parámetros
son:

a) Número requerido de servidores en una unidad de servicio.


b) Número requerido de unidades de servicio.
c) Eficiencia (rapidez) del servicio.

Si se combina el número de servidores con el costo de espera, se obtiene una función de costo similar a la de la
figura siguiente:

212
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

costo Costo total C(T)=C(S)+C(E)

Costo del sistema C(S)

Costo de la espera C(E)

1
S* S:número de servidores

Donde el costo del sistema aumenta si se incrementa el número de servidores, mientras que el costo de espera
disminuye. El costo total que es la suma del costo del sistema más el de servicio, obtiene su mínimo en: S*.

La dificultad está en la determinación explícita de los costos de espera, no tanto así los costos del sistema. Estos
últimos sólo son la erogación monetaria (fija y variable) correspondiente a la operación y mantenimiento del sistema.
En realidad, dada la característica aleatoria de una línea de espera, se debe hablar de valores esperados de costo, y no
del costo propiamente tal. Por lo tanto, si g(n) representa el costo esperado de demora de n clientes y Pn es la
probabilidad de que existan n personas en el sistema en un período de tiempo determinado, el valor esperado del
costo de demora, E[g(n)] es:
n
E[g(n)] =  Pi g ( i ) , n = 1, 2, 3,...,+.
i 0

Ejemplo7.8

Suponga que en una clínica que atienda a los obreros de una fábrica, se ha realizado un estudio de costos y se ha
concluido empíricamente, que el costo de espera de un obrero que acuda a la clínica es función de la pérdida en la
productividad diaria de la fábrica.

La Empresa tiene dos obreros cuya función específica es cubrir las vacantes de todas aquellas que acuden a
la clínica. Por lo tanto, la falta de dos obreros, en cualquier período de tiempo, tiene un costo de espera nulo. Se ha
calculado que cuando faltan más de dos obreros por día, se pierde en productividad cien pesos por obrero por día.
Esto origina una función de costo:
 0, n  0 ,1,2
g(n)= 
100( n  2 ), n  2

Del estudio realizado en la clínica se derivan las siguientes estimaciones de Pn , la probabilidad de que en un período
de tiempo determinado, se encuentren n obreros en la clínica. (Esperando servicio y en atención médica). Las
estimaciones de Pn se han hecho bajo la situación real de tener un solo grupo de médicos (dos doctores y dos
enfermeras, s=2).
Se supone que la llegada de obreros a la clínica es aleatoria, con un promedio de  llegadas por hora, mientras que
los servicios de salud tienen una distribución exponencial con un valor medio de  servicios por hora.

Se estudia al sistema con uno y dos grupos médicos. Utilizando las respectivas expresiones:

   1, Pn  1    n , al considerar S=1, un grupo de médicos;

213
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa


  nP , si 0nS
 0
Pn   , para el caso S2
 n
 P0 , si n  S
 S ! S n  s 

1
 1  n   s    
1

con P0 =      1    , entonces


 n0 n!  S!   S  

n 0 1 2 3 4 5 6 7 8 9 10
Pn S=1 0.271 0.217 0.173 0.139 0.097 0.058 0.029 0.012 0.003 0.00 0.00
S=2 0.433 0.346 0.139 0.055 0.019 0.006 0.000 0.000 0.000 0.00 0.00
g(n) 0 0 0 100 200 300 400 500 600 700 800
Pn g(n) S=1 0 0 0 14 19 17 12 6 2 0 0
S=2 0 0 0 6 4 2 0 0 0 0 0

10
70 $ por día , si S 1
E[g(n)]=  Pn g(n)= 
S2
n 0 12 $ por día , si

Suponga que el costo de operar y mantener la clínica es de $40 por día si se dispone de un grupo médico y de $65
por día si se tienen dos.
Entonces el costo total esperado será de: 70+40 =110 $ por día para un grupo médico.
12+65 =75 $ por día para dos grupos médicos.

La decisión en base a uno o dos grupos, entonces será por: 2 grupos médicos en esa clínica.

Un análisis más exhaustivo, puede realizarse estudiando esta clínica para 3, 4, 5,... grupos médicos y obtener los
respectivos costos (de nº de servidores, en este caso grupos de médicos); para determinar el número óptimo (que
minimice el costo total) de grupos médicos.

Los problemas de decisión de líneas de espera pueden ser de tres tipos:

Tipo 1 Dada la función de costo de espera (o el costo esperado), una función de costo de servicio del sistema, los
parámetros  y ; se desea encontrar el número óptimo de servidores, S, que minimizan el costo total
esperado.

Tipo 2 Dada una función marginal de servicio por unidad de tiempo para  fija, el valor de  y un rango
permisible de variación de , se desea encontrar el número de servidores S y el valor de , que minimizan
el costo total. (e.d. calcular la mejor eficiencia del sistema (rapidez con el menor número de servidores
posibles), ajustando  y S. Este sería el caso de sistemas referentes a trabajos de carga y descarga de
muelles, trabajos de mantenimiento o de supervisión, vigilancia o inspección.

Tipo 3 Dado un costo marginal de servicio por unidad de tiempo, un costo fijo de servicio por unidad de servicio
por unidad de tiempo, un valor de  y , se desea encontrar el número de estaciones de servicio y el
número de servidores por estación, que minimizan el costo total. Este sería el caso de encontrar, por
ejemplo, el número de baños para hombres y mujeres en un aeropuerto y dentro de cada baño,
214
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

calcular el número de toilets y lavamanos. Los baños serían las estaciones de servicio y los toilets de cada
baño serían los servidores dentro de cada estación de servicio.

Si basamos nuestro proceso de decisión de una línea de espera en el equilibrio de dos costos:
Costo de espera (costo social) y
Costo de servicio.

El proceso de decisión requiere de una evaluación cuantitativa de la línea de espera (cálculo de P n, L, W, Ts,
Tw, etc.,...) y una estimación de la forma explícita de las funciones de costo asociadas a la espera y a la operación y
mantenimiento del sistema. Esta última estimación (de costos) es en la vida real, difícil y laboriosa al determinar.

Ejemplo7.9

Estudio de líneas de espera, población de gineco-obstetricia (centro) de un pequeño hospital de 174 camas.
El problema de decisión consiste en:
- El número adecuado de camas con que debe contar dicho centro a fin de equilibrar el
- Costo de espera de las parturientas con el.
- Costo de operación y mantenimiento del centro.

Al estudiar el problema en la situación presente el centro disponía de:


- 22 camas
- un personal de 3 enfermeras
3 auxiliares
1 ama de piso(coordinadora de servicios generales requeridos en el centro)
- el personal se reduce en el turno nocturno.

La pregunta es si las 22 camas satisfacen los requerimientos del hospital en forma eficiente.
De una muestra aleatoria de 4 meses (enero, junio, septiembre y octubre) se obtuvo la siguiente información:

Días de Pacientes Probabilidad


perma- de perma-
nenecia nencia.
Mes Mes Mes Mes Total Oi valor Distribución Cálculo de 2
1 2 3 4 esperado P(=3.42) (Qi-Ei)2/Ei
teórico Ei
0 3 2 2 4 11 0.038 10 0.033 0.1
1 8 6 3 7 24 0.083 33 0.114 2.45
2 10 10 16 12 50 0.173 56 0.193 0.64
3 17 24 25 13 79 0.273 63 0.219 4.06
4 15 16 12 13 56 0.194 54 0.186 0.07
5 10 10 7 10 37 0.128 36 0.126 0.03
6 6 1 3 7 17 0.059 21 0.072 0.76
7 3 2 1 2 8 0.059 10 0.035 0.4
8 1 1 1 1 4 0.014 4 0.015 0.0
9 0 1 1 1 3 0.010 2 0.006 0.5
75 73 71 70 289 289 9.01

1
ˆ  X  ((0)11+...+(9)·3) = 3.42 = 1, permanencia media observada
289

12 ( k  p  1)  120.05 (10  1  1)   02.95 (8) = 15.507, entonces una apropiada distribución para la
permanencia en el centro es P(), =3.42 .
215
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

(en rigor no se dispone de evidencia para afirmar que el comportamiento de la permanencia en este centro difiera
significativamente de Poisson , a un nivel del 5% de significación)

Luego de observar la frecuencia de utilización, en días, de las camas del centro, se procedió a calcular el número de
pacientes días (frec. en días por nº de camas):

así: 6 camas utilizadas en un día, observada 28 días; produce 6·28 =168 días – pacientes.

xi mi 3588
Promedio de camas ocupadas o pacientes: X    9.83  ˆ  2
n 365
Se dispone entonces de la información suficiente para obtener: L, W, Ts y Tw para diferentes valores de s.
El promedio de pacientes que llegan al centro (después de salir de sala de partos) es una v.a. Poisson
  camasocupadas
P ,   2 
9.83
 2.87  
1 3.42  día 

El promedio de pacientes que se les proporciona una cama por día es:
1 1
   0.292  el factor de utilización del centro es:
1 3.42
 2.87 9.83
s    , 0s24 S: número de camas
s s0.292 s

Nº total de camas Frecuencia en días Días paciente Probabilidad real Probabilidad teórica
usadas en 1 día mi xi mi (observada)Oi o esperada Ei-según
xi mi/n P(=9.8)
0 0 0 0.0 0.0001
1 0 0 0.0 0.0005
2 1 2 0.0027 0.0027
3 1 3 0.0027 0.0087
4 4 16 0.0110 0.0213
5 18 90 0.0493 0.0418
6 28 168 0.0767 0.0682
7 27 189 0.0740 0.0955
8 55 440 0.1507 0.1170
9 51 459 0.1397 0.1274
10 35 350 0.0959 0.1249
11 42 462 0.1151 0.1112
12 37 444 0.1014 0.0908
13 19 247 0.0521 0.0685
14 15 210 0.0411 0.0479
15 18 270 0.0493 0.0313
16 8 128 0.0219 0.0192
17 2 34 0.0055 0.0111
18 2 36 0.0055 0.0060
19 1 19 0.0027 0.0031
20 0 0 0.00 0.0015
21 1 21 0.0027 0.0007
22 0 0 0.00 0.0003
23 0 0 0.00 0.0001
24 0 0 0.00 0.0001
Total 365 3588 1.0 0.9999
216
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Luego como se aprecia en la tabla siguiente, dicho centro con 22 camas esta sub-utilizada. Lo que en términos de
costo quiere decir; que se pagaba un gran costo adicional por operación y mantenimiento, para evitar el riesgo de que
una parturienta se quedará sin atención (con las consecuencias del caso).

Si se reduce el número de camas a 16 , S=16 entonces

L = 0.0795 pacientes esperando una cama; W= 9.9 pacientes en el centro esperando por día
días
Tq = 0.0277  40 , lo que no es grave, ya que en promedio, no se esperaría más de 40
paciente
minutos (menos de una hora) por servicio.
días
Tw = 3.45  3 días, 10 horas, 481 minutos/paciente
paciente
días horas
Con 12 camas la espera es: Tq = 0.6526  16 y L=1.87 son casi dos personas esperando
paciente paciente
una cama; esto si pondría en aprietos al sistema. La recomendación entonces es de reducir el número de camas de
22 a 16.

Es claro que S  10, ya que de lo contrario s > 1 ,  

 s 1  s 1
  
s
   s
P0  
      1 
s!  s!  

s  
, L
s - 1! s   2
P0
 s 0 

  
1
s s 1
1  
s P0 (s-)2 L Ts W Tw

1     
1 0 s!  
[días/pacientes] [días/pacientes]

 s 
s!
s
s 1
   
s   s!   

10 58.40 2323.00 11239.24 144579.4 0.0025 53.9204 18.7859 63.7412 22.2106


11 4.39 2075.00 13314.24 30723.9 0.1170 5.3294 1.8568 15.1582 5.2815
12 5.53 1702.00 15016.24 22726.3 0.4020 1.8731 0.6526 11.7919 4.0773
13 4.1 1285.00 16301.24 20284.7 0.8575 0.8051 0.2805 10.6334 3.7052
14 3.36 903.60 17204.84 19337.3 1.4835 0.3695 0.1287 10.1983 3.5534
15 2.90 591.60 17796.44 18920.5 2.2801 0.1705 0.0594 9.9993 3.4841
16 2.59 363.90 18160.34 18738.9 3.2472 0.0795 0.0277 9.9083 3.4524
17 2.37 210.40 18370.74 18658.9 4.3848 0.0364 0.0127 9.8652 3.4374
18 2.2 115.10 18485.54 18624.0 5.6930 0.0162 0.0056 9.8450 3.4303
19 2.07 59.43 18545.27 18608.9 7.1717 0.0077 0.0027 9.8365 3.4274
20 1.97 29.24 18574.51 18602.4 8.8209 0.0029 0.0010 9.8317 3.4257
21 1.88 13.68 18588.19 18600.2 10.6406 0.0012 0.0004 9.83 3.4251
22 1.81 6.11 18594.30 18599.3 12.6309 0.0005 0.0002 9.82 3.4249
 L 1
w L ,Ts  ,Tw  Ts 
  
pacientes esperando cama
pacientes en el sistema
en S=22; Ts= 0,0002 días/paciente  17 [segundos/paciente], Tw = 3.42 [días/paciente]  3 días y 10
horas/paciente.
217
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Problemas

1. En una estación de gasolina los autobuses llegan a una bomba diesel con una distribución que
se aproxima a la de Poisson, mientras que los servicios tienen una distribución exponencial.
El promedio de llegadas es de 8 autobuses por hora mientras que se proporcionan 7 servicios
por hora. Sólo se puede proporcionar servicio a un autobús a la vez en cada bomba y la
disciplina de la cola es “primero que llega, primero que se sirve”. Suponga que los costos de
operación y mantenimiento de cada bomba son de 13000 pesos día, mientras que los costos
de operación y mantenimiento de cada autobús (sueldos, refacciones, seguros, depreciación,
etc.) son de 500 mil pesos/,mes. Suponga que el autobús trabaja 22 días al mes, 18 horas
por día y carga diesel en esa bomba dos veces al día. Analice el problema para 2, 3 y 4
bombas suponiendo una población infinita de autobuses. ¿Cuántas bombas sugiere usted que
se instalen en ese lugar?

2. Resuelva el problema anterior considerando una población finita de 6 autobuses.

3. La única ventanilla de atención al público recibe gente de acuerdo a una distribución de


Poisson, a razón de 20 personas/hora. Se proporciona en promedio servicio a 22 personas
por hora, siendo esta una variable aleatoria distribuida exponencialmente. Suponiendo que
dicha ventanilla esté vacía en el tiempo t=0, ¿cuál es la probabilidad de que exista una fila
de 10 personas a la tercera hora de operación, dado que hubo una fila de 5 personas a los 60
minutos de estar operando?.

4. Un inventario de 100 credenciales metálicas se consume de acuerdo a una distribución de


Poisson con valor medio de 7 por día. ¿Cuál es la probabilidad de que después de un período
de 9 días queden por lo menos 25 credenciales? ¿No queda ninguna?

5. Un cajero electrónico que proporciona servicio a los clientes en sus respectivos automóviles
opera con las siguientes características. La llegada de clientes tienen una distribución de
Poisson con valor medio de 8 por hora. El tiempo de servicio tiene una distribución
exponencial con valor medio de 4 minutos. El espacio frente a la ventanilla tiene capacidad
para un máximo de 4 automóviles, incluyendo al carro que se le está proporcionando servicio.

a) ¿Cuál es la probabilidad que un automovilista maneje directamente a la ventanilla sin formar


cola?
b) ¿Cuál es la probabilidad de que un automovilista tenga que esperar en la cola?
c) ¿Cuál es el tiempo promedio de espera antes de que se proporcione servicio a un
automovilista?

6. Resuelva el ejemplo que denominamos: aviones y fallas de turbinas, para 2 y 3 grupos


especializados de reparación . ¿Cuál es el costo de espera por avión en el sistema? ¿Cuál es
el costo del equipo de reparación? ¿Cuál sería un buen punto de equilibrio?

7. Repita el ejemplo que denominamos: estaciones de peaje S=5 casetas, para 3 y 4 casetas,
suponiendo que cada caseta está atendida en cada turno por 2 personas que se
complementan, con un sueldo diario de 200 pesos por persona. Las casetas trabajan 3 turnos
de 8 horas por día. Describa cuantitativamente al sistema y compare estos resultados con el
costo de los recursos humanos necesarios para atenderlas ¿Qué es lo mas conveniente?

218
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

8. Suponga que para corregir un sistema de servicio al público se proponen las 3 alternativas
que se ilustran a continuación:

Servidor 1

a) Llegadas Salida
Servidor 2

Servidor 1
b) Llegadas Salida

Servidor 2

c) Llegada Servidor Salida


supereficiente

En el caso a), la llegada de clientes en cada cola tiene una distribución de Poisson con  =
4.5 por hora. Cada servidor procesa clientes con una distribución exponencial negativa a
razón de 12 por hora.

En el caso b), la llegada de clientes tiene una distribución de Poisson con  = 9 por hora.
Cada servidor procesa clientes igual que en la alternativa a).

En el caso c), la llegada de clientes es igual a la de b), pero el servidor, supereficiente procesa
a 24 clientes por hora, con una distribución exponencial negativa.

Para los casos a) y b), cada servidor recibe un salario diario de 1000 pesos. Para el caso c),
el salario del superservidor es de 30000 pesos.

¿Que alternativa tiene un mejor equilibrio entre el costo de espera y el costo de proporcionar
el servicio?

9. Repita el ejemplo de la sección 4 para 3, 4 y 5 grupos de mantenimiento y una flota de 8


aviones. ¿Cuál es su recomendación en cuanto al número adecuado de grupos de
mantenimiento?

10. Si el número de horas del ejemplo anterior se reduce a 8 por turno, con 3 turnos de trabajo
por día y el número de aviones aumenta a 15, cuantifique usted el sistema de
mantenimiento para 2, 3, 4 y 5 grupos de mantenimiento por turno. ¿Cuál es su
recomendación?

11. En un proceso de producción una pieza al salir de forja pasa a troquelado, niquelado y
empaquetado. Para cada proceso se cuenta con una máquina especial. El insumo
219
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

de todo ese proceso es una barra de acero. Se reciben en promedio 150 barras de acero
cada hora.

De lo cual se dispone de la siguiente información:

Actividad Forja Troquelado Niquelado Empaquetado

Tiempo
promedio de
1/8 1/4 1/5 1/2
servicio de una
pieza en
minutos

¿Cuál es la probabilidad de que al entrar una barra de acero al sistema, existan 2 piezas en
forja, ninguna en troquelado, dos en niquelado y ninguna en empaquetado? Describa,
cuantitativamente, a la línea de espera.

12. Suponga que para digitar la información de un censo industrial, una digitadora profesional
tarda, en promedio 4.76 minutos. Sin embargo, si se llegan a acumular 10 formas censales
en el proceso (una en digitación y nueve en espera), las digitadoras, bajo la presión de sus
supervisores, aceleran el trabajo llegando a digitar dicha información en 3 minutos promedio
por forma. Si se supone que las formas censales arriban con una distribución de Poisson a
razón de 11 formas por hora, describa al sistema bajo 1 y 2 digitadoras. La distribución del
tiempo de digitación es exponencial negativa.

13. Suponga que un aeropuerto considera 4 tipos de prioridades para autorizar un aterrizaje.
a) Prioridad cero o baja, aterrizaje normal.
b) Prioridad uno o media, aterrizaje cuando algún instrumento o aparato no crítico del
avión muestra una falla.
c) Prioridad dos o alta, aterrizaje cuando algún instrumento o aparato crítico del avión
muestra una falla.
d) Prioridad tres o crítica, aterrizaje cuando el aparato tiene un incendio o el
combustible se ha agotado.

Observando el funcionamiento anual del aeropuerto, se encontró que el 80% de los casos
son de prioridad cero, el 15% de prioridad uno, el 4.997% de prioridad dos y sólo el 0.0003%
es de prioridad tres. La llegada de aviones al aeropuerto es una variable aleatoria con
distribución de Poisson. El aeropuerto recibe un vuelo normal cada 18 minutos, en
promedio; un vuelo de prioridad media cada hora, 36 minutos en promedio; un vuelo de
prioridad dos cada 4 horas 48 minutos, 10 segundos en promedio y un vuelo de prioridad
crítica cada 333 días 7 horas 55 minutos 12 segundos, en promedio.

El servicio que presta la torre de control para que aterricen los aviones es una variable
aleatoria con distribución exponencial y valor medio de 2 ½ minutos por avión. En la torre
de control se tiene un grupo de controladores por pista de aterrizaje que está en servicio.

Describa cuantitativamente el comportamiento de la línea de espera para una pista de


aterrizaje con política abortiva y para una y dos pistas de aterrizaje bajo una política no
abortiva.

14. Las llegadas a un conmutador telefónico tienen una distribución de Poisson con valor medio
de 4 llamadas por hora. La duración de la respuesta a la llamada telefónica tiene una
distribución exponencial con valor medio de 12 minutos. El costo de cada operador
220
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

telefónico es de 50 pesos/hora. El costo social de la espera se ha estimado en función al


número de clientes que se pierden por no contestarles la llamada y asciende a 500
pesos/hora por el primer cliente y 750 pesos/hora por cada cliente adicional.

Determine el número de operadores telefónicos que minimizan el costo total esperado por
hora del sistema.

15. Suponga que la empresa que administra el Metro de Santiago considera necesario pintar los
carros del Metro una vez por año. La primera alternativa, acorde a la política de generación
de empleo, supone que los carros se pintan a mano por 2 grupos de pintores. El tiempo
promedio de pintura de un carro es de 8 horas, y el costo anual total de esta alternativa es
de 10 millones de pesos. La alternativa dos consiste en mecanizar el proceso de pintura por
medio de una máquina especializada. El tiempo promedio de pintura es de 5 horas y el
costo total anual es de 14.3 millones de pesos. La llegada de carros del Metro al taller de
pintura es una variable aleatoria con distribución de Poisson y valor medio de 1 carro cada
12 horas. Los tiempos de pintura en ambas alternativas son variables aleatorias con
distribución exponencial. El costo del tiempo de espera de un carro que no puede
proporcionar servicio al público, porque se encuentra en el taller de pintura se ha estimado
en 7.50 pesos/hora. El taller de pintura en ambas alternativas trabaja las 24 horas los 365
días del año es decir 8760 horas por año. ¿Que alternativa recomienda para esta empresa?

16. Suponga que la llegada de furgones de ferrocarril cargados con gramíneas (maíz, trigo,
arroz), a los correspondientes silos, es una variable aleatoria con distribución de Poisson y
valor medio de un furgón cada 2 horas.

El tiempo de descarga del furgón por un grupo de estibadores (10 estibadores) tiene una
distribución exponencial con valor medio de 1 hora con 20 minutos.

El costo de agregar un grupo extra de estibadores (10 estibadores) es de 500 pesos/hora.


El costo de tener un furgón esperando a ser descargado es de 750 pesos/hora.

¿Cuántos grupos de estibadores recomienda usted bajo los siguientes dos supuestos):

a) el tiempo medio de servicio de un grupo es proporcional a su tamaño.


b) El tiempo medio de servicio de un grupo es proporcional a la raíz cuadrada de su
tamaño.

221
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

CAPITULO VIII

SIMULACIÓN

Toda representación de un experimento, en que dispongamos en forma ficticia de sus resultados se considera una
simulación u emulación. Como bien sabemos, los experimentos no determinísticos o aleatorios son nuestros
experimentos de interés, los cuales se pueden modelar mediante variables aleatorias asociadas a funciones de
distribución (discretas, continuas, mixtas o singulares). En este documento la simulación que abordaremos está
orientada a la emulación de experimentos aleatorios regidos por la realización de variables aleatorios discretas o
continuas.

Como veremos más adelante toda simulación está basada en que se dispone de una muestra aleatoria tamaño n de
una variable aleatoria uniforme, es decir, se asume que disponemos de n números aleatorios. Tal hecho
habitualmente se trabaja en base a distribución uniforme (0,1), y por ende, habrá de disponer de n números
aleatorios en tal intervalo.

Los mecanismos que se utilizan para simular números aleatorios son muy próximos a dar resultados con bondad de
ajuste que puede considerarse satisfactoria, por tal motivo es que se les denomina números pseudo-aleatorios.

A partir de la generación de números pseudo aleatorios, simularemos variables aleatorias por diversos métodos ,
exponiendo el más apropiado en cada caso, en términos de la complejidad ( esperada ) del algoritmo asociado.

Continuaremos, con la simulación de procesos, que constituyen la base de los fenómenos de espera, que comúnmente
se deben analizar en estudios de sistemas de: producción, comunicaciones (datos, sonido, imagen), flujos viales, y
servicios, entre otros. Finalizando con la entrega de los elementos que permitan diseñar algoritmos de simulación de
procesos de las más diversas arquitecturas y los elementos a exigir en la entrega de resultados de tales
procedimientos computacionales.

8.1.- MÉTODOS MONTECARLO

8.1.1.- Números pseudo-aleatorios


En virtud de lo ya mencionado, para disponer de respuestas aleatorias nos basaremos en la construcción de
subconjuntos de los n enteros mediante reglas u operaciones. Tales operaciones son las que se denominan
congruencia-módulo, definidas de la siguiente manera.

Definición
Consideremos tres números enteros, a,b,c, tales que: a, b  ZI,c IN
Se define a R b (a relacionado con b ) ssi b – a = k · c, V k  ZI
Esta vinculación a R b es una relación que se denota: a  b mod c, lo cual se lee a congruente con b módulo c.

223
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Observación

1)La relación congruencia módulo es una relación de equivalencia en ZI.


demostración
a  a mod c  a – a = k c  k = 0  aRa
a  b mod c  b – a = k c  -(b - a) = -k c  a – b = (-k) cb  a mod c  b R a
a R b, b R d entonces b – a = k1 c , V k1  ZI,
d – b = k2 c , V k2  ZI
------------------------
d – a = (k1 + k2) · c, k = k1 + k2  ZI
d–a=k·c aRd

 
2)ZIc = 0,1, 2,..., c  1 es la partición originada, mediante congruencia módulo c.
demostración
dados b ZI,c IN , siconsideramos: a R b  a  b mod c, c IN,como una ecuación
para determinar a, el representante de la clase con que b se encuentra asociado ,
a R b  b – a = k · c, V k  ZI, c > 0.
b a b a
  k   k  = entero + resto, 0 resto<1
c c c c
 a  {0, 1, 2,…, c - 1}  a  b / a  b mod c , ZI=  a
aZI c

Ejemplo8.1:

Determinar explícitamente ZIc, para los siguientes casos

1. c = 1: entonces ZI1 = 0 
a  b mod 1  b – a = k · 1 = k, diferencia de entero siempre es un entero, luego si a = 0  b – a = b – 0
= b, entonces los congruentes con 0, también son aquellos enteros cuya diferencia es un entero y por lo tanto
todos los enteros están en la misma clase, así b  0  b  ZI,  0 = ZI

2. c = 2 :entoncesZI2 = 0,1
a  b mod 2  b–a=k·2=2·k
si a = 0  b – a = b – 0 = b = 2 · k  0  b / b es par 
si a=1  b - 1 = 2k  b = 2 k + 1  1  b / b es impar 
3. c = 3 :entonces ZI3 = 0,1,2
a  b mod 3:  b–a=k·3=3·k
si a = 0  b – a = b – a = b = k · b múltiplo de 3
si a = 1  b–1=3·k b = 3 k + 1  b es el siguiente de un múltiplo de 3.
si a = 2  b = 3 k + 2  b es el sub-siguiente de un múltiplo de 3
luego 0 = {0, 3, 6, 9,…}, 1 = {1, 4, 7, 10,…} y 2 = {2, 5, 8, 11,...}

224
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo8.2

Determinar en qué clase de ZI3 se encuentra el entero b=500.

La pregunta puede también plantearse como: ¿con que número 500 es  mod 3?.
Lo que equivale a plantearse la ecuación para a: a b mod 3,
b a 500  500  a
k , V k  ZI,  
 3  3
en tal caso
c c 3
 500  500   2
entonces a     ·3  (166, 6  166)·3  0, 6·3  ·3  2
 3  3  3

Observación
 b b  
Dados c  IN, b  ZI , la ecuación b  a mod c; tiene solución a      ·c
 c c 
Definición

Dados x0  IN, c  IN, una sucesión {xn}, dada recursivamente mediante: xn = xn-1 mod c,
forma una secuencia de clases, denominada pseudo-aletoria congruencial, cuyo primer término x0 se denomina
semilla.

Observación

1) Los números pseudo-aleatorios congruenciales forman una secuencia en


{0,1,...,c-1}, cuyos valores son, representantes de la partición ZIc de los números enteros. Luego, estas secuencias si
bien son de infinitos términos, a lo más tienen c valores diferentes.
Por tal motivo, se crean tipos muy particulares de números pseudo-aleatorios congruenciales, que se califican
dependiendo del tipo de recurrencia que lo genere , según se presenta a continuación:
Multiplicativo: xn  a xn-1 mod c, para a  IN, fijo
Mixto : xn  (a xn-1 + b) mod c , para a, b IN fijos
En tales casos se puede lograr que : para cualquier semilla, la sucesión recursiva así lograda asemeje una m.a. U [0,1]
, el número de términos a generar antes de comenzar a repetirse es grande y sus valores se pueden obtener con gran
precisión en computadores personales de 32 bits con a=75 , c=231-1, o 36 bits mediante a= 55 , c= 235-1.

2) Para gestar números aleatorios entre 0 y 1 se procede de la siguiente manera:


Consideremos f : {0,…, c-1}  [0,1] , x f(x), tal que f (0) = 0, f (c – 1) = 1
0 1 1 1
Que origine el segmento desde (0,0) a (c-1,1); entonces  
0  (c  1) 1  c c  1
x
 f ( x)   x {0,…, c-1}
c 1

Ejercicio

Realizar secuencias de números pseudo-aleatorios en [0,1] a partir de los 3 criterios señalados: congruencial,
multiplicativo y mixto con semilla 100, a = 7, b = 3; calculado directamente y al efectuar programa en Turbo C para
simular números entre 0 y 1 al incluir procedimiento de su rutina interna random y comparar resultados.

225
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

8.1.2.- Métodos Montecarlo para el Cálculo Aproximado de Series e Integrales

Para estudiar este tipo de problemas, es necesario disponer de algunos conceptos y resultados, de uso frecuente en
este ámbito y que dicen relación con tipos de convergencia de variables aleatorias. Tales definiciones, fueron
abordadas en el Capítulo 3 y Capítulo 4, que ahora reunimos en el siguiente párrafo:

Se dice que una sucesión de v.a. {Xn}todas discretas o continuas converge a una v.a. X, lo que anotaremos Xn  X.
a) Débilmente: (o en probabilidad) anotándose Xn  X siempre y cuando:
  0 : lim P( X n  X   )  0
n

b) Fuertemente: (o casi segura) anotándose X n 


c ·s
X

P lim X n  X  1
n

c) Media Cuadrática: anotándose X n 
m·c
X siempre y cuando lim IE[(Xn - X)2]=0
n 

Existen diversos resultados respecto a este tipo de convergencias, los que se conocen como Leyes de los grandes
números. Además, en la literatura, se refieren a los casos a) y b) como leyes débil y fuerte de los grandes números
(LDGN, LFGN), respectivamente. El caso (c) se utiliza ampliamente para estudiar eficiencia de estimadores.

Uno de los resultados centrales a que se recurre es el Teorema (L.F.G.N. Kolmogorov), el cual considera una
sucesión {Xn} de v.a. discretas o continuas i.i.d.
 X n  
c ·s
i) Si IE [Xi] = 
ii) Si IE [Xi] =  , V [Xi] =2  S2 = X n2  X n2 
c·s
2

Estos resultados constituyen la base del cálculo para evaluación de “sumas”, series e integrales; metodología que se
conoce como Métodos Monte Carlo.

Problema: Para una función g:]a,b[  IR , x g (x), calcular aproximadamente el valor


b
de I   g ( x )dx, a, b  IR
a

Caso1: Región de Integración ]a.b[=]0,1[

Solución
1, 0  x 1
1
 U 0,1, densidad uniforme
I   g ( x)·1 dx = 0 g ( x)·dF ( x) , con dF ( x)  0
1

0 EOC

 I = IE [g(X)] = 

Siendo X1,…,Xn m.a(n) de U [0,1] entonces, g(X1) . . . g(Xn) es m.a.(n) de Y = g(X).

g  X 1   ...  g  X n  c. s
Bajo la existencia de I = , entonces. Yn    , con Yi = g (Xi)
n

226
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo8.3
1
I   e  x dx
2
Calcular aproximadamente:
0
Solución:
 x2 1, 0  x  1
g(x)= e ≤ 1 ,  x  [0,1],  existe I= = IE [g (X)] con dFx   =U [0,1] Simulando una
0, o.c.
m.a.(5) de X, se obtienen los siguientes valores xi , de observaciones de una m.a.(5) U[0,1], y podemos calcular
g(xi)

i 1 2 3 4 5
xi 0.1 0.3 0.4 0.2 0.7
g(xi) 0.99 0.91 0.85 0.96 0.61
5
g ( xi )
Luego, g   0.865    I
i 1 5

Ejemplo8.4

1 1
Calcular aproximadamente: I  e
 x2  y2
dxdy
0 0
Solución
  
 x1 ,..., xn   g ( x ) , I   ... g x dx   ,
1 1
En términos generales si g[0,1]k  IR, x
0 0
 
puede apreciarse que: I = IE [g( X )], X  U[0,1]k entonces X1,…, Xk, v.a. i.i.d U[0,1]
   
Disponiendo de m.a.(n) de X , X 1 ,..., X n , con X i   X i1 ,..., X in  , {Xij}v.a.i.i.d. U[0,1] ,i,j.


  n
 xi 
Entonces: g x     I , donde: g  x    g
c. s
.
i 1 n
 x2  y2
En este ejemplo g (x, y) = e ≤ 1, luego al disponer de (xi,yi) m.a.(6)Uniforme en [0,1]x[0,1], o
equivalentemente dos m.a.(6) Uniforme en [0,1]:
I 1 2 3 4 5 6
xi 0.1 0.5 0.8 0.3 0.7 0.5
yi 0.3 0.2 0.4 0.9 0.4 0.6
g(xi,yi) 0.72 0.58 0.4 0.38 0.44 0.45

Luego g = 0.495   = I

Caso 2: Región de Integración ]a, b[ , con a, b arbitrarios


Solución
Reduzcamos este problema al caso anterior, mediante un cambio de variable, a través de h:[a, b]  [0,1] , x  h(x)
1 0 1 h( x )  0 1
una recta; tal que h(a) = 0 , h(b) = 1, por lo tanto de pendiente    
ba ba xa ba
xa
h x    x  h(b  a )  a  dx  (b  a )dh
ba

 I   g x dx   g a  hb  a · b  a dh   g~( x)dx


b 1 1
, con g~ (h) = g (a+h(b-a)) · (b-a)
a 0 0

227
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Caso 3: Región de Integración ]a,b[=]0, + [, (no acotado).


Solución
Al igual que el caso reciente, lo podemos reducir al primer caso, ahora mediante una transformación h:[0, + [ 
1 x
[0,1], x  h(x)= , entonces h(0) = 1, h(x)  0
x 1
1 1
x  1 1
de donde x + 1 =   dx  2 dh
h h h
 0 1  1  1  1 
 I   g x dx   g   1· 2 dh =  g   1 2 dh   g~( x)dx , con g~ (h) =(1/h-1)1/h2
1 1

0 1
h  h 0
 h  h  0

Ejemplo8.5

I   e  x dx
2
Calcular aproximadamente:
0
Solución
Sabemos que I existe y que además I=  / 2  0.8862 . Ahora, en los actuales términos,
2
1 
1  1  1 1
I= 
0
e x 
x 2
dx   g~( x )dx  E[ g~( X )]  g~( x )
0

Así que al disponer de una m.a.(10) de una v.a. X , Uniforme en [0,1], con observaciones:

i 1 2 3 4 5 6 7 8 9 10
xi 0.0016 0.8756 0.3740 0.7461 0.1854 0.9591 0.7302 0.5386 0.0384 0.9961
g~ (xi) 0 1.2781 0.4308 1.5998 0 1.0849 1.6361 1.6548 0 1.0077

~( x )  0.8695 como aproximación de I. Resultado, que puede ser mejorado al considerar


De lo cual se obtiene: g
un tamaño muestral mayor y una muestra de mejor ajuste.

Ejemplo8.6

Obtener m.a.(6) mediante Xn = 40 Xn-1 mod 70 con X0 = 10, y efectuar las integrales que se señalan:
X  40 X mod 70
  b  a  k ·c  40·10  x1  k ·70  x1  400  k ·70
1 0 c
a b

con k 5  x1  50

x2 = 40 · 50 mod 70  2000-x2 = k · 70, k = 28  x2 = 40


x3 = 40 · 40 mod 70  1600- x3 = k · 70, k = 22  x3 = 60
x4 = 40 · 60 mod 70  2400- x4 = k · 70, k = 34  x4 = 20
x5 = 40 · 20 mod 70  800 - x5 = k · 70, k = 11  x5 = 30
x6 = 40 · 30 mod 70  1200-x6 = k · 70, k=17  x6 = 10

Como tales números pseudo aleatorios se sitúan entre {0,1,....,69} entonces x/69 [0,1]; x/69 representa a las
observaciones de U[0,1] , así originadas.

228
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

i xi xi/69
0 10 0,145
1 50 0,725
2 40 0,58
3 60 0,87
4 20 0,29
5 30 0,435
6 10 0,145

1
1) 0 sen x2 dx  sen(0,725)2+sen (0,53)2+sen(0,87)2+sen(0,29)2+sen(0,435)2+sen (0,145)2
= 0,0092 + 0,0059 + 0,0132 + 0,0015 + 0,0033+0,0004 = 0,0056

 ln  y  2 dy  3,0074+2,8434+3,1629+2,4857+2,6698+2.2894= 2,7431
3 1
 ln x 3 dx 
3
2)
2 0

Ejercicios

Disponiendo de una m.a.(10) , mediante método congruencial Xn= 53 Xn-1 mod 93, X0 =13, evaluar cada una de las
siguientes integrales:

ln 1  x 2  y 2  z 2 dxdydz , 
3   x2  y 2 dxdy
3 ln x  dx , 
1 1 1

1
e ,
0 0 0 2 0

senx 2  y 2 dxdy , cosx 2  y 2 dxdy


4 6 2 
 
3 2  
 3

Ejemplo8.7

Obtener aproximación del número 

Teniendo en cuenta, que el valor , representa el área de la circunferencia unitaria, y que ésta se encuentra inserta en
un cuadrado también con centro cero y de lados 2:
Considerando:

un vec.a.X  ( X 1 , X 2 ) uniforme sobre el cuadrado [-1,1]x[-1,1],


 
A = A( X )= B(0,1)= X / X 1  X 2  / , la Bola unitaria ( de centro cero y , radio 1);
2 2


Px  A 
#A Área de A
entonces     4 PX ( A) ,
#  Área del cuadrado 4
luego, nuestro objetivo se reduce a, calcular aproximadamente PX (A) .
 
Deduzcamos entonces la distribución de X a partir de Y  Y1 ,Y2  uniforme sobre el cuadrado [0,1]x[0,1]; el que
está conformado por Y1, Y2 v.a. i.i.d. U[0,1]

229
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa


  c, x   1,1   1,1
X ~ f X x     c·I 1,1 ( x1 )· I 1,1 ( x2 )
0, e. o. c
Construyamos f X a partir de f Y ; lo que se reduce a obtener fxi a partir de fyi. Ahora, podemos lograr una v.a. X
v.a. U[-1,1], como una transfomación de una v.a. Y  U[0,1], de la siguiente manera:
nos planteamos x = h(y), para lo cual basta considerar h una recta tal que h(0)=-1, h(1)=1,

dh dh 1 1
así h(y) = 2y – 1 , 2 , 
dy dy 2
 1
 f Y1  y1 ·2 ; h 0  x1  h 1  2
1
;  1  x1  1
 
 f X1 x1    
 0 ; eoc 0 ; o. c.
 
entonces:
 
PX  A   f x x1 , x2 dx1dx2 
11
· dx dx
1
dx dx E
 I 
 2 2 1 2 B0,1 4 1 2 X A 1 2 Y A (Y )
  x , x   E
 I X   
B 0,1 B 0,1
  
 2 2

A( X (Y ))  Y  Y1 , Y2  / 2Y1  1  2Y2  1  1 : A(Y ) 
  
Disponiendo de una simulación de y1 ,..., y n m.a.(n) de puntos y i  [0,1]  [0,1], correspondientes a observaciones

simuladas de Y  Y1 ,Y2  uniforme sobre el cuadrado [0,1]x[0,1], calcularemos:

 
1 , yi  A(Y )
 
zi   entonces z    4z .
0 4
 , e.o.c.

A continuación expondremos los métodos que se disponen para simular v.a. regulares (v.a. discretas o continuas).

8.2.- Generación de Variables Aleatorias Discretas

Los métodos que se expondrán para generar este tipo de variables continuas se basan en disponer de una simulación
previa, de n observaciones de una variable aleatoria U[0,1].

8.2.1.- Algoritmo del Método de Transformada Inversa


Consideremos un conjunto de subíndices, I = {0,1,2,…}, X v.a. discreta con función de cuantía fX (xi) = pi ,  iI,
con soporte D={x0, x1,…}, no necesariamente un conjunto de valores previamente ordenados.

Siendo  v.a. continua U [0,1], la siguiente asociación nos permite simular X:


Si :  < p0  X = x0
p0 <  < p0 + p1  X = x1
p0 + p1 <  < p0 + p1 + p2  X = x2
i 1 i

 ph <  <
h 0
p
n 0
h  X = xi

230
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Algoritmo ( para simular X  U{1,…,n})


P1) Simular  ~ U [0,1]
P2) X = [n ] + 1; Fin
Siendo c: complejidad de este algoritmo, c = 1

Algoritmo para simular X ~ G(p), geométrica de parámetro p


P1) Generar   U [0,1]
 ln  
P2) X   1 ; Fin
 ln q 
Entonces su complejidad es c = 1

Observación

Para una v.a. X con soporte previamente ordenado, en la práctica, el algoritmo de la transformada inversa: para F(xi –
1) ≤  < F(xi), actúa asignando X = xi, es decir, el valor simulado de tal v.a. X, es el primero en que su distribución
acumulada, supera un valor ya simulado de   U [0,1] .
A continuación veremos dos casos muy conocidos de v.a. en que su algoritmo de simulación por el presente método
es de mayor complejidad.

Algoritmo para P(  ), poisson de parámetro lamda.


P1) Generar   U [0,1]
P2) i = 0 , p = e- , F = p ;
P3) Si  < F  X = i ; Fin;

P4) p p ; F = F + p; i = i+1
i 1
P5) ir a (P3)

La complejidad del algoritmo es orden: X + 1.


Luego su complejidad (media) : c= + 1

Algoritmo para una v.a. X  B(n, p)


P1) Simular  ~ U [0,1]
p
P2) i = 0; b = ; p = (1 – p)n ; F = p
1 p
P3)  < F ; X = i ; Fin ;
ni
P4) p = p ·b ; F = F + p ; i = i +1 ;
i 1
P5) ir a P(3)

La complejidad de este algoritmo es: X + 1 , luego c  E [X  1]  np  1

Algoritmo para una Binomial Negativa (p, r)


P1) Generar  ~ U[0,1]
P2) j = r ; f = pr ; F = f
P3) Si  < F ; X = j ; Fin;
 j 1  p  
P4) f =   · f ; F = F + f; j=j+1;
 j 1 r 
P5) Ir a P3)

231
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

8.2.2.- Aplicaciones de simulación de v.a. discreta.

A1) Generación de Permutaciones (Aplicación de v.a. uniforme)


Siendo A = {a1,…, an} un conjunto de n elementos, se pueden generar permutaciones de tamaño n de A “totalmente”
aleatorios, mediante la siguiente estrategia: seleccionar aleatoriamente uno de los elementos de A, reemplazarlo por
un valor de un lado extremo de A y marginarlo dejándolo en su lugar, fijándonos ahora sólo en estos elementos, al
iterar este proceso los términos que se van acoplando hacia tal extremo formarán una permutación.

Algoritmo:
P1) Sea P1,…,Pn un reordenamiento de A.
P2) Dado  ~ U [0,1]; i = [n ]+1
P3) Intercambiar Pi con Pn
P4) n = n -1 ; n < 1 ; Fin
P5) Ir a (P2)

A2) Aproximación de Sumas y Series

La similitud entre Serie y Suma ( de números reales) radica en lo siguiente: si los últimos términos de la sucesión son
0, la serie formada por tales términos, se reduce a una suma (sumatoria de números).
Consideremos {ai}iN (una sucesión arbitraria) de términos general : entendemos por serie convergente de término

n 
general ai , que anotamos a
i 1
i   ; cuando la sucesión  ai  converge a un número real, siendo éste el
 i 1  n
valor que asume la serie. En otro caso, se dice que la serie diverge.

Establecida la convergencia de una serie, el presente método tiene como objetivo aproximarnos a su valor

a   ai .
i 1

Además si el conjunto D, de índices de la sucesión subyacente difiere de lo clásicamente descrito como


{1,2,…,n,…}=IN ; siendo también un conjunto numerable, tal serie tiene la forma: ai . 
iD

De esta manera, al considerar una X v.a.d. que sepamos simular, caracterizada por una cuantía dFx(x) = f(x), con
soporte D: esta v.a. asume los valores X = xi = i , i  D, luego f(i) = P(x = i).
ai ai
Siendo a =  a   f (i) · f (i)   b · f (i) ,
iD
i
iD iD
i con bi =
f (i )
= g (i),

entonces a = E [bX] = E [g(X)].

Sabiendo que la media muestral es un buen estimador de a, basado en X1,…, Xn v.a. i.i.d. , es decir m.a(n) de X, para
lo cual debemos simular x1,…, xn , n respuestas X ~ f, para estructurar g(x1),…, g(xn), y así disponer de aˆ  g x  ,
como una aproximación válida de a.

Este criterio, no sólo se restringe a series de números reales, ya que no depende de la operación u estructuras
algebraicas que gestan la serie, si no sólo del como seleccionar sus elementos.

232
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo8.8
n
ai
Aproximar n
i 1
n n
ai 1 1
Solución:  n   a ·n
i 1 i 1
i , i  D = {1,…, n} , f(i) =
n
, i  D, luego f es cuantía: UD .

En el desarrollo anterior bi = ai , así a = E [ai ] = E [aX ] = E[g(X)] , X ~ U{1,…,n}

Siendo 1,…, k simulación de U [0,1]; xi = [n i]+1, dispondremos de x1,…, xk, observaciones de X, para formar
a xi , i  1,..., k , y obtener aˆ  a muestral.

8.2.3.- Métodos Recursivos


Hacemos referencia de esta manera, a los métodos basados en la simulación de una o más variables aleatorias para
generar una de interés, como es el caso de lo métodos aceptación –rechazo y composición, que se presenta a
continuación.

8.2.3.1.- Método de Aceptación – Rechazo


Este método es para generar una v.a. utilizando otra v.a. ya simulada; basado en un resultado, de que es posible de
lograr, aceptando sus valores con probabilidad proporcional a la razón de las cuantías involucradas.

Teorema:
Sean X, Y v.a. discretas con soporte y funciones de cuantía
f x  j  p j j  D   p j  pj
 , sea c cota superior de   , es decir c  , j .
f y  j  q j j  D   q j  jD qj
entonces mediante el siguiente algoritmo se simula X ~ fX
Algoritmo:
P1: Simular Y = j , v.a. cuantía fy ; fy(y) = qy
P2: Simular  v.a. U[0,1]
pj
P3:  < ; X = j ; Fin
cq j
P4: ir a P1

Ejemplo8.9

Simular m.a.(3), de una v.a. X, discreta una función de cuantía fX dada por:

X=x -2 0 3 -10 1
fX (x) 0.1 0.3 0.1 0.2 0.3

Solución:
pj = fX (j), j  D = {-2,0,3,-10,1}
~ ~
Sea Y ~ uniforme en {1,2,3,4,5}, entonces al considerar Y= Y ( Y ) , asociación mediante:
~y 1 2 3 4 5
~
Y( y ) -2 0 3 -10 1
1
se obtiene Y uniforme en D , así fY (j) = qj = = 0.2, jD
5
~
a) simulemos Y , para luego generar Y para ser utilizada como v.a. de referencia para X
233
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Siendo  ~ U (0,1) 
~y = [5  ] + 1

 0.3 0.7 0.2 0.9 0.25 0.3 0.15 0.4 0.6 0.8
~y 2 4 2 5 2 2 1 3 4 5
y 0 -10 0 1 0 0 -2 3 -10 1

b) Simular la v.a. X
 p j   p j 
b1) Obtención de c = sup  , j  D  , como D es finito, entonces c= máx  , j  D
 q j   q j 

j -2 0 3 -10 1
Pj 0.1 0.3 0.1 0.2 0.3
qj 0.2 0.2 0.2 0.2 0.2
pj 1 3 1 1 3
qJ 2 2 2 2

3
c = = 1.5 número medio de intentos para simular cada valor de la variable aleatoria x.
2
b2) Algoritmo
P1: Simular Y = j
P2: Simular  ~ U[0,1]
2 pJ
P3:  < ; X=j
3q J
P4: ir a (P1)

Simular Simular valor de Acción X


Y  comparación (aceptar, rechazar)
0 0.7 1 Aceptar 0
-10 0.3 0.6 Aceptar -10
0 0.55 1 Aceptar 0
1 0.6 1 Aceptar 1
0 0.1 1 Aceptar 0
0 0.11 1 Aceptar 0
-2 0.84 0.3 rechazar .
3 0.23 0.3 Aceptar 3
-10 0.005 0.6 Aceptar -10
1 0.47 2 Aceptar 1

234
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

8.2.3.2.- Método de Composición

Este método, se basa en que la variable aleatoria de interés, puede representarse, a través de una descomposición
basada en combinaciones lineales de otras variables aleatorias.

Supongamos: X1, X2 v.a.d. con soporte en D tales que:


f X 1 (j) =pj ,  J  D
f X 2 (j) = qj ,  J  D

Se desea simular X v.a.d. de la forma: fX (j) =  pj + (1 - ) qj , j  D , 0 <  < 1

Solución: La v.a. X , podemos descomponer de la siguiente manera:

X con probabilid ad 
X  1
X 2 con probabilid ad 1  

En efecto: fx (j) = P (X = j ), ahora utilizando la partición existente.


= P (X = X1) · P (X1 = j / X = X1) + P (X = X2) · P (X1 = j / X = X2)
=· f X 1 (j) + (1 - ) f X 2 (j)
=  · pj + (1 - ) qj

El algoritmo asociado a este método debe contemplar los siguientes pasos:


P1: simular  ~ U(0,1)
P2:  ≤  ; simular X1 =x1; X = x1 ; Fin;
P3: simular X2 = x2 ; X = x2 ;Fin;

Comentario
1. El soporte D de la variable aleatoria X que queremos simular nos permite buscar variables aleatorias X1, X2 con
soporte contenido en D y reducir cálculos de simulación a tales variables; cuyo soporte sea lo más reducido posible,
mientras tal descomposición lo permita.
2. Se recomienda estudiar descomposiciones de la v.a. X en términos de distribuciones que simplifiquen los cálculos
como por ejemplo explotar ampliamente las v.a. uniforme.

Ejemplo8.10

Simular X v.a.d. con soporte D = {1,2,3,4,5,6,7} con función de cuantía:


0.2, j  1,2,3
f X  j  
0.1, j  4,5,6,7

Solución:
1
A partir de X1 ~ UD  f X 1 (j ) = =: pj ,  J  D, , por determinar , qj , tal que:
7
2 1
Primeramente = + (1 - ) qj ,  j {1,2,3}
10 7

235
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

1 2  (1   ) 1
al asumir : qj = , j D, = + = ()
7 10 7 7 7
2  17
qj = 0 , j  {1,2,3}, = = > 1 ()
10 7 7
1 2  (1   )
qj =  j  {1,2,3}, = +   = 7/3 > 1 ()
10 10 7 10
2  14  10
qj = a ,  j  {1,2,3}, = + (1 - ) a  a 
10 7 70(1   )
14  5 9
si  = 0.5  a = 
35 35
1 
Ahora con  = 0.5, al analizar el caso:   (1   )q j ,  j {4,5,6,7}; qJ = 2/35.
10 7

1
Entonces X1 ~ f X 1 (j ) = , J D
7

9 / 35 , J  1,2,3
f X 2 (j ) = 
2 / 35 , J  4,5,6,7
X2 ~

1 1
X ~ f X (j ) = f X 1 (j ) + f (j )
2 2 X2

Algoritmo:
P1: Simular u ~ U[0,1]
P2: u ≤ ½ ; Simular X1 = x1 ; x = x1; Fin
P3:  > ½ ; Simular X2 = x2 ; x =x2 ; Fin

Notemos que esto involucra simular X1 , X2 respectivamente mediante:

1 ~ U[0,1] , X1=[7 1 +1]


 9
 u2  35  X 2  1
2 ~ U[0,1] , si: 
9 18
  u2   X2  2
 35 35

Comentario:
k
Si una v.a. X tiene distribución f X ( j )   i f X i ( j ) , j  D numerable , se puede simular de la
i 1
siguiente manera:
se considera el conjunto I ={1,2,…, k} cuyos elementos tienen probabilidades i.
simular valor uniforme  para simular un valor de iI , para luego simular valor xi de la v.a. Xi asociada al valor
anterior.

236
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

8.3.- Simulación de Proceso Poisson

8.3.1.-Proceso Poisson

Observación:
Siendo {Nt} Proceso Poisson que nos indica el número de arribos en el lapso [0,T], T = 1; intervalo donde los eventos
ocurren de manera independiente, con frecuencia  de ocurrencia, y en lapsos pequeños a lo más sucede una
ocurrencia; se deduce (véase sección 3.1.2.2) que tales variables aleatorias Nt poseen distribución Poisson de
parámetro , así, para un lapso T arbitrario Nt ~ Poisson de parámetro T.

Determinemos una metodología para simular el número de eventos Poisson que ocurre dentro de un lapso unitario T
= 1:
Al apreciar un proceso subyacente {Xi}, que nos indica el instante del tiempo en que ocurre el un evento del proceso
{Nt} desde que ocurrió el anterior evento, i IN; el cual podemos reconocer como el proceso constituido por v.a.i
que señalan los tiempos entre ocurrencias Poisson. Entonces
X1 : instante en que el 1er evento Poisson ocurre.
X2: tiempo en que ocurre el 2º evento desde que ocurrió el anterior.

i-1 i
0| | | | 1

X1 Xi

Entonces Xi representa el instante de ocurrencia del i-ésimo evento desde que ocurriera el
(i-1) -ésimo.
1
Xi ~ exp (), de media  

N1: número de eventos que ocurren hasta t = 1.
N1: número total de llegadas cuyo tiempo entre ellas no exceda el valor de T = 1.

 n

N1 = máximo n /  X i  1
 11 
Simulación de N1:
Recordemos que los tiempos entre llegadas son v.a. iid, exp ( ).
1
Simulando i ~ U[0,1], entonces Xi = ln i ~ exp ()

 n 1 
N1 = máximo n /   ln  i  1
 11  
n 1 n n n
Pero  
ln i ≤ 1   ln i  -  ln  i  -   i  e-
i 1 i 1 11 11

 n  
Así: N1 = máx n /   i  e  (1)
 i 1 
n
Entonces N1+1 es tal que  i < e-
11
Por lo tanto:
237
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 n  
N1 = mín n /   i  e   1 (2)
 i 1 
Luego disponemos de expresiones alternativas (1) o (2), para simular la cantidad o número de eventos Poisson que
ocurren en lapso de tiempo T = 1.

Además, podemos extender este resultado, para un lapso arbitrario de amplitud T=t ,
NT : nº de ocurrencias en [o, t]

 n t 
NT = mín n /   i  e   1
 i 1 
Simulemos ahora los tiempos de ocurrencia de los eventos Poisson en [o, t]

Objetivo: Simular instantes de arribo y registrar número de eventos, en horario no superior a T, de un Proceso
Poisson .

Algoritmo:
Paso 1: t = 0 ; I = 0
Paso 2: Generar  ~ U[0,1]
1
Paso 3: t = t + ln ; t > T ; Fin

Paso 4: Número de ocurrencias I = I + 1 ; S (I) = t ; hora de llegada del evento I.
Paso 5: Ir a P.2

Ejemplo:  = 3

I=I+1  1 S(I) = t
ln 
3
1 0.2 0.54 0.54
2 0.3 0.4 0.54 + 0.4 = 0.94
3 0.25 0.46 0.94 + 0.46 = 1.4 > 1

Algoritmo:
P1) t = 0, I = 0
P2) Generar  ~ U[0,1]
1
P3) t = t ln u ; t > 1 ; Fin
3
P4) I = I + 1 ; S (I) = t
P5) Ir a (P2)

llegaron o ocurrieron 2 eventos, en los instantes t = 0.54 y t = 0.94 respectivamente.

238
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

8.3.2.- Proceso Poisson no-homogéneo

Un proceso de esta naturaleza es aquel que se define con las propiedades del proceso Poisson ya mencionado
levantando la exigencia de incrementos estacionarios, por ende, imponiendo la condición de que la tasa de
ocurrencias en un instante t es función del tiempo.

Siendo NT un proceso Poisson no homogéneo con tasa de ocurrencia t , t > 0 satisface lo siguiente:
a) N(0) = 0
b) Número de ocurrencia en intervalos disjuntos es independiente. (N(t), N(t + s) – N(t) v.a.i)
ocurra un evento en t , t  n
c) lim IP   (t )
n 0 n
IP ocurra un evento en [t, t + n] ~  t · n n – pequeño.
ocurra un evento en t , t  n
d) lim IP 0
n 0 n
Observaciones:
1. Un proceso no homogéneo con tasa de llegadas  (t) = , cte. se denomina homogéneo y es coincidente con
el proceso Poisson mencionado anteriormente.
2. Los incrementos son variables Poisson con la siguiente propiedad:
N (t + s) – N (t) es una v.a. Poisson con m (t + s) – m (t) P(m (t + s), m (t))

0  s ds
t
m (t) =
3.  (t) (Tasa de ocurrencia) de un proceso Poisson no-homogéneo también se denomina función de
intensidad.
4. Una de las interpretaciones que más nos interesa corresponde a una de sus aplicaciones más importantes.

Si un proceso Poisson homogéneo de tasa  ocurre, e independientemente registramos en cada instante t del
tiempo tales ocurrencias pero con probabilidad p (t); entonces el proceso así originado es un Poisson no homogéneo
con tasa  (t) =  · p (t).

Demostración:
Sea {z t} el proceso que consiste en contabilizar con probabilidad p(t) la ocurrencia de un evento regido por un
proceso Poisson con tasa  de ocurrencia.
Por demostrar que la función de intensidad (t) asociado a {Zt} está dada por (t) =  p(t)

Zt: contabiliza con probabilidad p(t) el nº de eventos en lapso [0, t] de un proceso Poisson con tasa  de ocurrencias.

Sea h pequeño:
P (registrar un evento en [t, t + h])
= P ((ocurra un evento en [t, t + h] ^ este evento sea registrado) v (ocurra más de un evento en [t, t + h] ^ la
registremos)).
= P ((ocurra un evento en [t, t + h] ^ este evento sea registrado) + P (ocurra más de un evento en [t, t + h] ^ la
registremos)).

  
 
= P ( ocurra un evento en t , t  h ^ sea registrado )



B A
= P (ocurra un evento en [t, t + h] · P (sea registrado / ocurra un ciento))
=  · h · p (t)
registra un evento en t , t  h hpt 
P(   pt 
h h

Simulación de un Proceso Poisson no-homogéneo con función de intensidad (t).

239
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 t 
Podemos descomponer (t) =  · = p (t)

 t 
 p (t) = probabilidad de contabilizar ocurrencias de Proceso Poisson con tasa .

Para  >  (t)  > 0, fijo

Para reducir complejidad, es conveniente considerar  como la menor de las cotas superiores de  (t). Esto nos
conduce obligatoriamente a la determinación de puntos extremos de  (t).

Algoritmo: Este algoritmo debe reflejar ocurrencias de proceso Poisson con tasa  y ser registrados según p (t) =
 t 

P1) t = 0 ; I = 0;
P2) Generar , ~ U[0,1]
1
P3) t = t - en , ; t > T; Fin;

P4) Generar n 2 ~ U[0,1]
 t 
P5) 2 > p (t) = ; ir a P2)

P6) I = I + 1 ; S(I) = t;
P7) Ir a P2).

Ejemplo8.11

Estudiemos en un lapso de amplitude T = 1; un proceso Poisson no-homogéneo con función de intensidad  (t) = 2 +
t, efectuando su simulación.
 (t) = 2 + t < 2 + 1 = 3
 t  2 1
Tal proceso puede ser descrito como el registro con probabilidad p (t) = - de eventos Poisson con tasa 
 3
= 3 de ocurrencia

1 1 T P(t) n2 I = I +1 S(I)
- en 1
3
0.72 0.109 0.109 0.703 0.44 1 0.109
0.74 0.100 0.209 0.736 0.93 1 0.109
0.52 0.217 0.426 0.809 0.91 1 0.109
0.39 0.313 0.739 0.913 0.93 1 0.109
0.27 0.436 1.175 0.22
0.53 0.211 0.18
0.17 0.590 0.60

Resultado de Simulación: nº de registros -1 media de registros instante t 0.109.

mt     s ds   2  5ds  25 


t t 5
0 0 2
Este algoritmo, al igual que los anteriormente presentados, nos permiten simular una muestra aleatoria de tamaño
1(m.a (1)) del fenómeno en estudio.
Por tal motivo, los programas a realizar deben ser estructurados para simular muestras aleatorias tamaño n. Es decir
240
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

n-emulaciones de realizaciones en lapso [0, T]; y calcular las correspondientes estadísticas de las variables en
estudio.

Demostraciones pendientes
a) Los tiempos Xn hasta que ocurre el evento n luego del  -1 (tiempo entre los sucesos  -1 y n); son v.a.
exponenciales exp ().

Demostraciones:
X1: es el tiempo hasta que transcurre el primer evento Poisson P().
{X1 > t} es un suceso que representa la ocurrencia de que el 1º evento P() ocurra más allá de t instantes.
 en [0, t], N(t) = 0
con N(t) = número de ocurrencias del Proceso Poisson ( ) hasta el instante t.

P(x1 > t) = IP (N(t) = 0) , con N(t) ~ Poisson ( t), entonces IP (N(t) = 0) =


t º e t  e t
0!
Además: P(X1 > t) = 1- P(X1 ≤ t) = 1- FX1 (t)

d dFX1 t 
1 – FX1 (t) = e-t / , que al derivar resulta -  -e-t
dt dt

e t , t  0

 FX 1 t    Así, X1 ~ exp ()

 0 e.o.c.

Para X2: tiempo hasta que ocurre el 2º evento luego de ocurrido el 1º.

P (X2 > t / X1 = 0) = P (X2 > t ^ X1 = S) / P (X1 = S)= P (X2 > t + S / X1 = S)


= P (X2 > t)  X2 ~ exp ()

n
Además: Sn =  xi ~  (n, ) / * Gamma*/
i 1
b) En {N (t)} Proceso Poisson, se satisface: N (t) ~ P (t) ; N (t + s) – N (t) ~ P (t)

Demostración:


t
/ n

0
t

t
Dividamos el lapso [0,t] en n-segmentos de igual amplitud:
n
t
Siendo h =   0; es válido en c/u de estos segmentos que: la probabilidad de que ocurra un evento
n grande
n nao
es proporcional al lapso.
t t
P(N (h) = 1) =  h  P (N ( )= 1) = = t = p = 
n n
 ht h  1t 
Luego en  n , n  tenemos:
241
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

  h  1t   ht   t ht  t 
P  N    N      h  1     p 
  n  n  n n n 

t
En cada intervalo de amplitud disponemos de una v.a. Y~ p (1, p).
n
t  t  ht 
Fy = FN   = FN  h  1   N  
n  n n
De esta manera:
n   ht   t 
N(t) = N(t) – N(0) =   N  n   N  h  1 n  
 
k 1 
Yk
n
=  yh , tq Fyk  Fy y ~  1, p 
h1

Como los incrementos son v.a.; esto es yh-1, yh son v.a.; además id  (1, p)

N (t) es un suceso de n v.a.  (1, p)


N (t) ~  (n, p), para cada n.

t
Además: np = n = t = cte ; n grado.
n

 lim FN t x  
t x e t = Poisson P(t)
n x1

8.4.- Simulación de Variables Continuas

8.4.1.-Método de la Transformada Inversa

Este método se refiere a la metodología basada en la generación de números aleatorios descrita en 3.1.3.3),
mediante aplicación directa de la transformada inversa de la función de distribución que describe la ley de
aleatoriedad de la variable de interés.

8.4.2.- Método Aceptación – Rechazo

Este método es una extensión de su similar expuesto anteriormente para v.a. discretas. Bajo condiciones de
 F  y 
regularidad la constante C  sup yD  X  , D; soporte de X e Y.
 FY  y  
A diferencia de lo anterior ahora podría ser obtenida como punto extremo de tales cuocientes utilizando cálculo
diferencial (derivando con respecto de Y luego obtener puntos críticos y entonces extremos)

Características de este algoritmo: Son idénticas al algoritmo anterior en su estructura como en su complejidad.

242
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo8.12

3   x r 1
Sea X ~   ,1 ; e-x ;x > 0
r 
FX(x) =
2 

 3
Simular X x ,  =1
2

Solución:
r X r 1
FX (x) = e-x
3
 
2
(1) 3 / 2 x 3 / 21  x x ex
e 
=
3 / 2  32 
3 3  3  1 1 
     1  1    
2 2  2  2 2 2

 2
 · xe  x ,x  0
 FX  x    

 0 e.o.c.
+
D = soporte de v.a. X = IR

Además si Dx soporte de X, Dy es el soporte de Y, basta con que:


Px (Dx) = Py (Dy) = 1

e y
 ,y 0
Siendo Y ~ exp (); Fy (y) = 

 0 e.o.c.
D: soporte v.a. Y = IR+

Podemos iniciar método de aceptación – rechazo


 f x  y  
a) Determinación de C = sup 
y 0 
 fy  y 
2 /  y1 / 2 e  y 2
h (y) = FX (y) = = y1/2 ey(-1)
y
e  2

 1 1 y 1 
 y1/ 2   1e y  1 
dh 2 
 e
dy   2 y 
 

243
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 1 1 
e y  1 
2
=  y 2   1
  2 y 
 

dh
   1 y  0
1
0 
dy 2 y
 1 + 2 ( - 1) y = 0
1
 y
2  1

Casos a considerar

2
=1  h (y) = y½ , y > 0 : no acotada.

1
>1  h (y) = <0 D
2  1
0 <  < 1 ; valores factibles para  (parámetros útiles).
1
2  1  1
e 2 1
  2  1
C = C () =

2 1 1
= · e 1/ 2
  21   
Complejidad (media) del algoritmo es C() que la podemos reducir, considerando
C = min C ()
0 1


 2e
1 / 2
1 

= min  · 
0 1  2  1    
 
C (0) = C  
max 0 1   = 0 1  0
0 1

1   y obtengamos 0
Sea g () = 
dg  1
() = 1    · (-1) = 2 (1 - ) - = 2 -3
d 1  2

dg 2
() = 0  2 - 3 = 0  0  punto crítico y máximo.
d 3

2e 1/ 2 1 3 1
C = C (0) = · 3  1.25
2 2 1 2 e
3
3
b) valor de comparación:

244
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

2 1 y  2 1
 y 2 e 3
2
Fx  y  h y  3

cF y  y 
=
c 3 1
3
2  e
2 12 y 32 1 1
= y e 
3 2
2 y3
= ye e
3

3
c) Algoritmo para simular v.a. X ~   
2
2
Simular v.a. Y ~ exp  
3
3
P1 Generar n1 ~ U[0,1]; y = ln u ;;
2
P2 Generar n2 ~ U[0,1]
2
P3 Si n2 < y e e-y/3 ; X = y
3
P4  a P1

Determinar algoritmo para simular X ~  (r, 1)


r = entero  suma de exp ()
r = racional  ver este algoritmo

Ejercicio8.13

Simular X = |z| , z ~ N (0,1)

Solución:
a) Identificar distribución de la v.a. X para x > 0.
Fx (x) = P (X ≤ x)
= P (|z| ≤ x)
= P (-z ≤ x ≤ z)
= Fz (x) – Fz (-x)
= Fz (x) – (1 – Fz (x))
= Z Fz (x) – 1 , z ~ N (0,1) regular

Fx x   Z Fz x   1 = 2 fz (x)
d d
 fx (x) =
dx dx
Si x < 0: P(|z| < x) = P () = 0  Fx (x) = 0  fx (x) = 0
2 f x  , x  0
 f x x    z
 0 , e.o.c.

245
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 2 2
 x2
 e ,x  0
=  2

 0 ,x  0

b) Propuesta de Variable Aleatoria y de referencia para aplicar método de Aceptación – Rechazo.


/* soporte */ (Donde está sustentada la variable)
Dx = Soporte de la v.a. X = IR+
(opcional) Sea Y ~ exp (), ya que Dy = Dx, además es de la forma exponencial.

c) Identificación de Y, es decir precisar .


y2
2 
e
 , y > 0
2
f x y 2 2 y
 y 2 
c1) h (y, x) =   e
f y y  e y  2

Encontrar el valor que maximize la cantidad:


y 
 y      y 
  min  y    
2 2
máx e 
2 
C () = h () = h (y0, ) = máx h (y, ) =
 2
=
 2
exp
 y  
  2

y 
Sea g (y) = y  
2 
g’ (y) = y -  = 0  y = 

 2
y
0

y
-  = 0  y = 2
z
 
Si y =   -=- <
2 2
  
2
  
g (y) = g () = 
2  2
2     2  2
c () = exp      2 e2
 2   2    2
  

246
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

2
2  2
C ( ) = e
 2

Luego toda exponencial puede utilizarse como referencia y la complejidad A – R es este valor C ()

c2) Reducción de Complejidad.


Determinar 0 tal que C = C (0) = min C  
 0
dc 2    1 1  2
 e   2  ·  
d 2  2     

2 2  1 
= e 1  2 
2 2   

dc 1 
  1  0
2
 0  1 2  0  
d    1

Pero  > 0 ; || = 1   = 1.


Por la forma C () se aprecia que 0 = 1
 y ~ exp (1)

d) Punto de comparación para algoritmo Aceptación – Rechazo.


2 1 e
C (1) = e 2 2
2 2
2  y22
f x y
 2  e
e
 1  y 2y 1  
c f y y
h (y) =
e y e
2 e
2
 1 2   1 y2 2y 
= exp    y  y  = exp     
 2 2   2 2 2 
 
 1

= exp   1  y  2 y 
2 

 2 
 1 2
h (y) = exp   1  y  
 2 

e) Algoritmo A – R para la v.a. X basado en Y ~ exp (1)

Simular Y = y P1) Simular , ~ U[0,1]; y = -ln 1


P2) Simular 2 ~ U[0,1]
 1 2
P3) n2 < exp   1  y   ; X < y
 2 
P4) Ir a (P1)
247
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Además podemos reescribir tal algoritmo al apreciar lo siguiente


 1 2
U2 < exp   1  y  
 2 
ln u2 <  1  y  / -1
1 2
2
-ln u2 > 1  y 
1 2
2
pero w = -ln u2 ~ exp (1)

Algoritmo:
P1) Simular y, w: v.a. exp (1) independientes.

P2) w >
1
1  y 2 ; X = y
2
P3) Ir a (P1)

Algoritmo resultante:
P1) Generar , u2 v.a. U[0,1]
P2) y = ln n1, w = -ln u2

P3) w >
1
1  y 2 ; X = y
2
P4) Ir a (P1)

Un ejemplo emblemático de esta metodología lo constituye el siguiente caso especial.

8.4.3.- Caso especial: Simulación de la Distribución Normal Standard


Los resultados anteriores nos permiten construir un algoritmo para simular variables aleatorias normales Z, de la
siguiente manera:
Sea z ~ N (0,1) ; x = |z|
 2 2
 x2
 e ,x  0
x ~ fx (x) =  2

 0 ,x  0
2
1  x2
z ~ fz (x) = e , x IR
2
2
1  x2
fx (x) = 2· e = 2 fz (x) , x > 0
2

2 f z x  ; x  0

Así: fx (x) =
 0 ;x  0
 1
 f x x  , x  0
fz (x) =  2
 f x  x  x  0
1
2

Sea z, una v.a. definida mediante:


248
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 1
 X , si n
Z1 =  2 , n ~ U 0,1
1
 X , si n
 2

Demostraremos que Fz = Fz1


En efecto:
Fz, (t) = P (z1 ≤ t) = P (z1 ≤ t ^ n  IR)
Para U ~ U[0,1]
Fz, (t) = P (z1 ≤ t, 0 < n < 1)
 1 1 
0<~<1  0  n      n  1
 2 2 
  1  1 
Fz1 (t) = P  z1  t   u    u    
 2  2   
 
Fz1 (t) = P ((z1 ≤ t ^ n ≤ ½ )  (z1 ≤ t ^ u > 1 )
2
= P (z1 ≤ t ^ n ≤ ½ ) + P (z1 ≤ t ^ u > 1 )
2
= P (u ≤ ½ ) P (z1 ≤ t / n ≤ ½ ) + P (n > 1 ) P (z1 – t / n > ½ )
2
= 1 P (X ≤ t) + 1 P (-x ≤ t)
2 2
= 1 Fx (t) + 1 P (X ≥ - t)
2 2
= 1 Fx (t) + 1 (1 – P (X < t))
2 2
Fz1 (t) 1 1
= 2 Fx (t) + 2 (1 – Fx (-t)),  t  IR

Si t > 0 ; Fz1 (t) = 12 Fx (t) + 12 (1 – Fx (-t))

= 1 Fx (t) + 1
2 2
dFz1 1 dFx 1 f (t) = f (t)
fz1 (t) = = · =
dt 2 dt 2 x z

Si t < 0 ; Fz1 (t) = 12 Fx (t) + 12 (1 – Fx (-t))

= 12 - 12 Fx (-t)
dFz1
 fz1 (t) = = - 12 fx (-t) (-1)
dt
= 12 fx (-t) = fz (t)
 fz1 (t) = fz (t) ,  t  IR

Algoritmo : (Para simular z ~ N (0,1))

2
2  x2
P1) Simular X ~ fx (x) = e , x>0
2
P2) Simular ~ N U[0,1] 249
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

P3) ~ ≤ ½ ; z = x
1
P4) ~ > ; z = -x
2
P5) w =  + z , (con lo que opcionalmente se logra w ~ N (, 2))

8.4.4.- Simulación de Distribución Normal Multivariada

8.4.4.1.- Caso General


Corresponde ahora el simular comportamientos gausianos de orden mayor o dimensión superior, teniendo presente
que somos capaces de simular m.a. de Normal Estándar, podemos mediante, transformaciones lineales lograr
vectores aleatorios normales arbitrarios de la siguiente manera:

Siendo X1,… Xk v.a.i.i.d. N (0,1) entonces:


 
X = (X1,…, Xk) ~ N ( o , Ik)
   
X = A X + B ~ N (IE [ y ], VAR [ y ])
  
donde IE [ y ] = IE [A X + B] = A IE [ X ] + B
 
VAR [ y ] : matriz varianza covarianza de y
   
VAR [ y ] = VAR (A X + B) = VAR (A X ) = A VAR ( X ) = A A’

 y ~ N (B, AA’)

Ejercicio propuesto: Exponer en detalle método para simular v.a. normales con Matriz
Var-covarianza especificada y programa correspondiente.

8.4.4.2.- Caso Normal Bidimensional – Método Polar


Sin embargo así como el caso unidimensional. Para el caso bidimensional, además, también se dispone de un
algoritmo directo, que en su primera parte se identifica con las ecuaciones de BOX – MULLER y su refinamiento
denominado, método polar.

Simulación: De VECTOR aleatorio.


 
X = (X1, X2) ~ N ( o , I2)

Simularemos v.a. pares de v.a.i ~ Normales estándar

250
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

X2


X1

Coordenadas Cartesianas Coordenadas Polares

r  x12  x22 


 1  
X ~ f x (x1, x2) = fx1 (x1) · fx2 (x2) = e 2
X1, X2  IR
2



D X : Soporte de X D X = IR x IR = IR2

 x1  M cos 
 g Coordenadas polares
 x2  M sen 

     X  
g : IR2 IR+ x IR , x = (x1, x2)  g ( x ) = (M ( x ),  ( x )) =  X 12  X 22 , arcta 2 
 X1 
Sea:
D = M2  M = d

Entonces:
 x1  d cos 

 x2  d sen 

Sea:
 
g1 : IR2 IR+ x IR1 , x = (x1, x2)  g1 ( x )

con g1 ( x ) = (d, )

=
 2 X  
 X 1  X 22 , arctg 2 
 X1 

a) Determinación del comportamiento de g1

251
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 Od Od  2 x1 2 x2
 
 Ox1 Ox2 
Jg1 =   = 1  X2 1 1
 O  · ·
 O  X 
2 X
1 X 
2 X1
 Ox  1   2  1   2 
 1 Ox1   X1   X1 

2 x1 2 x2
2 X1 X2
Jg1 = =
 X2 X1 X 12  X 22  X 2 X1
X 12  X 22 X 12 X 22

Jg1 =
X 12
2
 X 22
X   X 
2
1
2
2

1
Jg1-1 =
2
Así
 f x x d , Jg11 d ,   g1 Dx 

g1 = (d, ) ~ fg (d, ) = 

 0 e.o.c.
Pero:
 X12  X 22 
  d 
f x x  
1 1
e 2 e2 
2 2
1 d 1
(d, ) ~ f(d, ) (d, ) = e 2· (d, )  R+ x [0, 2]
2 2
Además:
f(d, ) (d, ) = U U( ) exp (d; ½)
0,2 

 ~ U[0,2]
d ~ exp (1/2)

, d independientes.

De esta manera al utilizar que


1
d= ln 1 = -2 ln 1 1 ~ U[0,1]
1/ 2

 = 22 2 ~ U[0,1]
1 , 2 v.a.i.

Se dan forma a las ecuaciones de Box – Muller


252
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

X1 = M cos  = d cos  =  2 ln 1 cos (2  2)


X2 = M sen  = d sen  =  2 ln 1 sen (2  2)

b) Método Polar
Siendo 1 , 2 v.a.i.i.d. U[0,1]
V1 = 2 1 -1 V1,V2 v.a.i.i.d U[-1,1]
V2 = 2 2 -1

Denominemos por:
B(0,1) = w  V ,V  / V
1 2 1
2
 V22  1 

Consideremos entonces, este conjunto de puntos w en el espacio bidimensional, que son uniformes en el disco
unitario, región, que usualmente se anota de la forma señalada.
1 
 w  V1 ,V2   B0,1
Así f w (V1,V2) = 

 0 eoc

V1 V1 V2 V2
cos  =  sen  = 
V12  V22 R V12  V22 R

V  R cos 
R= V12  V22   1
V2  R sen
Determinar comportamiento de (R, ) = h (V1, V2)
h
(V1, V2) 
 (R, )

OV1 OV1
OR O cos   R sen
Jn-1 =  =R
sen R cos 
OV2 OV2
OR O

 f w wR, ·J n1 hB0,1
f(R, ) (R, ) = 
 0 eoc
1
 R, 0  R  1 0    2

= 


 0, o.c.
1
 2R , 0  R  1,0    2
 2
f(R, ) (R, ) = 


 0, o.c.
253
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

= U   · fR (R)
0, 2 

2 R, 0  R  1
Con fR (R) = 
 0 eoc
dR 1
Siendo S = IR2  R = S  
dS 2 S
dR 1
FS (S) = fR (R(S)) ·  2 S· ,0<S<1
dS 2 S
1, 0  S  1
fS (S) = 
0, eoc

S ~ U[0,1] inde 

Algoritmo Método Polar


P1) Simular 1, 2 v.aiid U[0,1]
P2) V1 = 21 – 1 ; V2 = 22 -1 S = V1
2
 V22
P3) S > 1  a P1)
Vi
P4) Xi =  2 ln S · i = 1, 2
V12  V22
Vi Vi  2 ln S
Además: Xi =  2 ln S ·   2 ln S = Vi i = 1, 2
V12  V22 S S

Ejemplo8.14
Considere la siguiente secuencia de mínimos aleatorios en [0,1] para simular una m.a.(2) de
a) Una v.a. X ~ N (2, 9)

b) Una v.a. X
 ~ N (0,
 I2)
c) Una v.a. Y = A X + B, donde

X es N (0, I)
 b1   a1 a2 
B =   A =  
a 4 
,
 b2   a3

1 2 3 4 5 6 7 8 9 10
1 0.1 0.6 0.7 0.3 0.5 0.6 0.7 0.8 0.9 0.99
2 0.9 0.4 0.2 0.9 0.47 0.75 0.83 0.91 0.9 0.8
3 0.8 0.3 0.9 0.4 0.72 0.4 0.2 0.4 0.9 0.4

Solución:
X 2
Al considerar X ~ N (2, 9), entonces Z = ~ N (0,1)
3
Siendo Y = |Z|, resulta
254
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

 2  y 22
 2 e ,y0
Y ~ fy (y) = 

 0 y0

Algoritmo para simular |Z|


P1) Generar 1, 2 ~ U[0,1]
P2) y = -ln 1 , w = -ln 2,
1
P3) w > (1 – y)2 ; |z| = y,
2
P4) Ir a P1)

Algoritmo para |Z|


P1) 1, 2, 3 ~ U[0,1]; y = -ln 1, w = -ln 2,
1
P2) w > (1 – y)2 ; |z| = y;
2
P3) Ir a P1)
1
P4) Si 3 ≤ ; z = |z|
2
1
P5) Si 3 > ; z = - |z|
2
P6) X = 3 Z + 2; (ya que debemos recordar que X~ N (2, 9) puede rescribirse mediante
X 2
Z= ~ N (0,1), como X = 3 Z + 2);
3

u1 u2 u3 u4 y w 1 w>h |z| z x
(1 – y)2 = h
2
0.1 0.9 0.8 no 2.3 0.105 0.848 no - - -
0.6 0.4 0.3 si 0.51 0.916 0.119 si 0.51 0.51 3.532
0.7 0.2 0.9 no 0.357 1.609 0.207 si 0.357 -0.357 0.929

Muestra de tamaño 2.

b) Un v.a. X ~ N (0, I2)
P1) Simular u1, u2 v.a. iid U[0,1]
P2) V1 = 2 u1 -1 ; V2 = 2 u2 -1 ; S = Y1
2
 Y22 ;
P3) S > 1 ; Ir a P1)
Vi
P4) xi =  2 ln S ; i =1, 2
S

V1 V2 S
 2 ln S
Xi = Ui i = 1.2
u1 u2 2 u1 -1 2 u2 -1 V12  V22 S>1 s
0.3 0.9 -0.4 0.8 0.8 no X1 = -0.298 ,X2 = 0.597
0.5 0.47 0 -0.060 0.0036 no X1 = 0 ,X2 = -3.355
0.6 0.75

255
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

8.4.5.- Método de Composición (variables continuas)

Siendo v.a.c. un soporte Dx y función de densidad asociada fx (x):

1.- Situémonos en una v.a. x tal que Dx = [0,1] , f(x) ≥  , 0<x<1

f (x) =  + f (x) - 
f x   
=  + (1 - )
1
 f x   
=  · 1 + (1 - )
1

1 ,0  x  1  U 0,1

g (x) = 
0
 e.o.c.
= f (x) = = U[0,1]

f x    f  x    f1  x 
f2 (x) = =
1 1
Así: f (x) =  f1 (x) + (1 - ) f2 (x) 0<x<1

Por lo tanto:
Fx (x) = P (X ≤ x)
= P (Población 1) P (X ≤ x / x  Población 1) +
P (Población 2) P (X ≤ x / x  Población 2)
Pob. 1 V Pob.2 = Viceversa.
(Pob. 1)  (Pob. 2) =  (disjuntas)

pob
Población 1 con comportan f1   
Población 2 con comportan f2  1 - 
Fx (x) =  P (X ≤ x | x ~ f1) + (1 - ) P (X ≤ x | X ~ f2)
x x
=  f1 (t) dt r (1 - )  f2 (t) dt
x
=  ( f1 (t) + (1 - ) f2 (t)) dt
x
=  f (t) dt

Comentario: Para poblaciones que por ejemplo presenten una característica bimodal es posible que ellas obedezcan a
una mezcla, composición o combinación lineal de leyes de comportamiento de varias poblaciones; el desarrollo
anterior muestra el como efectuar tal descomposición en un caso simple.
Además el declarar
f(x) =  f1 (x) + (1 - ) f2 (x)
256
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

indica que para simular x se deben efectuar los siguientes pasos:

Algoritmo:
P1) Simular n ~ U[0,1]
P2) Si n <  ; simular y1 ~ f1 ; x = y1
P3) e.o.c. ; simular y2 ~ f2 ; x = y2

Siendo el valor  grande ( 1) se presenta la conveniencia de utilizar este método ya que al simular la variable X
tiende a parecerse a una uniforme.

Ejemplo8.15

Para X v.a.c. con densidad f (x), siendo 0 <  < 1; f (x) =  f1 (x) + f (x) -  f1 (x)
f1 : densidad de apoyo.
f x    f1 x 
f (x) =  f1 (x) + (1 - )
1
con f2 (x) = (f (x) -  f1 (x)) / (1 - )

f (x) =  f1 (x) r (1 - ) f2 (x) , jx

Descomposición (mezcla de x)
Algoritmo: (Para simular x)
P1) Simular n ~ U[0,1];
P2) n <  ; simular y1 ~ f1; X = y1
P3) Simular y2 ~ f2 ; X = y2;

Este método tiene restricciones:


f (x) -  f1 (x) ≥ 0

f ( x)
 = , jx
f1 ( x )

 f x  
basta considerar:   inf xDx  
 f1  x  

3. Caso General: La v.a. X es mezcla de varias poblaciones, digamos  + 1 poblaciones:


n 1
f x     i f i ( x)
i 1

con 1 + 2 +…+ n + n+1 = 1 0 < i < 1  i = 1 ,…, n + 1

n
f x     i f i x 
f n1 x   i 1
n
1   i
i 1

257
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Algoritmo para simular X:


P1) Simular n ~ U[0,1]
j 1 j
P2)  i ≤n≤  i
i 1 i 1
Simular yJ ~ fJ ; X = yJ

8.5.- Simulación de Procesos Mediante Simulación de Eventos Discretos

El objetivo de esta sección es simular el flujo resultante de un modelo probabilística que se caracteriza por el ingreso
de objetos a un sistema en donde son procesados de acuerdo a reglas específicas del particular sistema, para
posteriormente abandonar el sistema. Procederemos a estudiar desde el punto de vista de la simulación aquellos
problemas conocidos como experimentos de espera, filas de espera que escapan a lo abordado en Capítulo VII.

Esta área puede ser identificada también como el estudio de fenómenos cliente – servidor, ya que gran parte de tales
fenómenos la componen objetos que concurren a un sistema a requerir un servicio para luego retirarse.

1. Los clientes se aproximan a una caja para cancelar un servicio.


2. Los alumnos ingresan a un programa de estudios para someterse a una malla curricular cuyo objeto es un
título profesional.
3. Pacientes que llegan a estación de emergencia hospitalaria.
4. Transmisión de señales de comunicación (datos – imagen – sonido)
5. Fenómenos de flujos en redes (hidráulicas – viales – eléctricas)
6. Ensamble en serie y/o paralelo con re-proceso.

En nuestro estudio nos interesa disponer de estimaciones de las cantidades de objetos que circulan en el sistema e
instantes en que ocurren eventos dentro del sistema.

Para simular situaciones como las anteriores consideramos dos tipos de elementos

Parte 1: Para ejecutar una simulación se realiza un seguimiento permanente de ciertas variables
que son identificadas como:
a) Variable tiempo (t): que se refiere al tiempo t transcurrido.
b) Variables de conteo o contadores: Se registra el recuento del nº de veces que ciertos eventos han
ocurrido, hasta el instante t.
(Es decir, contabiliza lo ocurrido en (0, t))
c) Variable Estado del Sistema: (ES) Naturalmente describe el nº de elementos en los distintos estados
del sistema.
- Los tiempos en que ocurren los eventos.
- La cantidad de particulares eventos que han ocurrido.
- Las cantidades de eventos que se encuentran en los distintos estados del sistema.

Parte 2: Cada vez que ocurre un evento valores de tales variables son actualizados.
Como salida se reúnen los datos de interés para determinar el momento de ocurrencia del siguiente evento
se mantiene una lista de eventos y el momento en que se espera acontezcan.
Los modelos de filas que consideramos a continuación representarán sistema de llegada y servicios con
distribución.

258
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

G (General o arbitraria)

Considerando que las más diversas arquitecturas de sistema se pueden descomponer en combinaciones o
acoplamiento de sub-internas en serie o paralelos a continuación simulaciones basadas en estos dos tipos.

8.5.1.- Una fila un servidor

Salida
Entrada
(arriba)
Servidor

Cliente: elemento que llega a un sistema a requerir un servicio.


En este tipo de sistema los clientes llegan a requerir un servicio proporcionado por un único servidor. El lapso de
llegada entre clientes se rige por una distribución.

Ga (entre llegadas consecutivas) y el tiempo de servicio por: G1

La modalidad del servicio es que el servicio atiende al primero que llega al sistema y luego continuará con el que ha
esperado más tiempo.

 t – fijo, luego del cual no se sostienen más llegadas entonces el servidor atiende a todos los que están en el
sistema.

Nos interesa simular cantidades como la siguiente y tiempo X de cada cliente en la fila, ene. Sistema hora y hora X
en que el servidor termina la tarea, es decir, hora en que sale del sistema el último cliente.

Nota: Los elementos centrales a considerar para simular un sistema como el señalado son los siguientes.

1. Los eventos: llegada – salida (de un cliente)


2. Las variables:
a) Variable tiempo (t) es el t – simulado transcurrido.
b) Las variables de conteo, nº de llegadas hasta el instante t o := NA
Nº de salida hasta el instante t o := ND
c) Variables de estado del sistema: = N. nº de elementos en el sistema en el tiempo t.
3. Lista de eventos: Se encuentran las variables que registran los instantes en que ocurren las entradas y
salidas. tA, tD
tA : instante de llegada del siguiente cliente.
tD : instante en que concluye el servicio del servidor que está en el sistema.
4. Variables de salida: A(i) , D(i)
A(i) = Es la hora de llegada del i-ésimo cliente.
D(i) = Es la hora de salidad del i-ésimo cliente.

Su diferencia (D(i) - A(i)) es el tiempo en que el i-ésimo cliente permanece en el sistema.

tp : Tiempo extra o sobre tiempo en el tiempo más allá del T, en que sale el último cliente.
¿A qué hora sale el último cliente?
T + tp hora de salida del último cliente.
Algoritmo: Una fila, un servidor en [0, t]

259
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

S
A D
Arribos Salidas
Servidor

Etapa 1: t=0; NA=ND =N=0

Simular arribo de 1º cliente y ~ GA y = t0; tA = t0


tD = t /Nunca termina de atender a nadie/

Etapa 2: En un avance del tiempo estaremos en:


t : tiempo transcurrido.
N=n : nº de elementos en el sistema en el instante t.

LE = (tA, tD)

Etapa 3: Para actualizar el sistema avanzamos en el tiempo hasta que ocurre el siguiente evento. Por lo tanto nos
enfrentamos a uno de los siguientes casos dependiendo del menor elemento de la lista e eventos.

0 t

Situaciones:
tD
1) tA ≤ tD
tA ≤ T

0 tA t
Llega un cliente antes que (cierre el servicio) el servidor se
desocupará.
t = tA;
NA = NA + 1;
N = n + 1;

Variables de salida: A (NA) = t registrando la hora de arribo del cliente NA.

Se modifica LE:

Generamos t según GA la hora de llegada del siguiente cliente según GA;


tA= t : la hora de llegada del siguiente cliente.
Si n=1; generamos t´ según GA, t1 según G1; tD= t + t1
y ~ G, ; tD = t + y
Si n  1 ir a etapa 2)

2) tD ≤ tA tD ≤ T
tA
Ocurre una salida antes que alguien
llegue.
tD = t;
ND = ND + 1;
n = n – 1; 0 tD t

260
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Variable de salida: D (ND) = t;


Se modifica la LE:
Si n > 0; generar la hora de salida del siguiente.
Y ~ G1 tD = t + y
Si n = 0; tD = valor inicial; ir a etapa 2)

3) n > 0 hay gente dentro del sistema T < min {tA, tD}

Hay elementos en el sistema y sólo deben registrarse salidas:


t = tD ; ND = ND+1 ; n = n – 1
D (ND) = t

Si n > 0 y ~ G1 ; tD = t + y
Proceder nuevamente como en 3.
Si n = 0 ir a 4)

4) n = 0 ; T < mín {tA, tD}


El sistema por primera vez está vacío.
t – T: tipo extra de labor del servidor.

Tp: máx {0, t - t} demora más allá del T que el servidor necesita para retirarse (atender al último cliente)
(tiempo extra del servidor para terminar su labor)

Orden de la traza del experimento (funcionamiento del algoritmo):


t NA ND N yA tA yD tD A(NA) D(ND)
=================================================================

Ejemplo8.16
[0,10] [minutos]

arribo P (2) salida


P (1) servidor
GA
G1
donde 1 = 3 , 2 = 4

1 0.1 0.3 0.0 0.4 0.3


ln n1
1
Y ~ GA 0.767 0.401 0.035 0.305 0.074 9x tD = 10.4
Y ~ G1
1 0.08 0.4 0.2 0.3 0.02
ln n2
2
N2 0.7 0.2 0.4 0.3 0.9

t NA ND n tD tA A(NA) D(ND)
0 0 0 0 +
0.76 1 0 1 + 0.76 0.76
0.76 1 1 0 0.76+0.08 0.76 0.76
1.16 2 1 1 + 1.16 1.16
1.19 3 2 1.19 1.19

261
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

tA tD NA ND n
0.76 + 1 0 1
0.76 0.84 1 1 0
1.16 1.56 2 1 1
1.19 1.56 3 1 2
1.49 1.56 4 1 3
1.56 1.56 5 2 3
1.78 5 3 2
2.08 5 4 1
2.1 5 5 0

8.5.2.- Una fila y dos servidores en serie

En esta ocasión nos interesa los tiempos que un cliente pasa por cada sistema en forma secuencial, así también como
las llegadas y salidas del sistema completo.

1) Los eventos: nos interesan las llegadas y salidas del sistema.


Llegada de clientes a el sistema y salida del sistema (completo).

2) Las variables:
a) La variable tiempo t.
b) Conteo; NA: nº de llegadas al sistema en [0, t]
NA: nº de salidas del sistema en [0, t]
c) Estado del sistema: ts = (n1, n2)
n1 = nº de elementos en subsistema 1.
n2 = nº de elementos en subsistema 2.

3) Lista de eventos: LE = (tA, t1, t2)


tA: hora de la siguiente llegada.
t1: hora de salida del subsistema.
i = 1,2: hora de término del servicio n en que el cliente está siendo atendido.

4) Registro de Salida:
D (n): hora de salida del cliente n-ésimo (del sistema)
Ai (n): hora de arribo al sub-sistema del cliente n-ésimo.

E1) Iniciación:
t=0 NA = ND = 0 ts = (n1 = 0; n2 = 0) t1 = t2 = + 
Generamos t0 = hora de arribo del 1º cliente tA = t0.

E2) en un avance en el t0
Estamos en instante (hora) t; ES = (n1, n2)

LE = (tA, t1, t2) las situaciones a analizar dependen del menor valor de LE.

E3) Actualizamos:
Nos movemos en t hasta que ocurre un evento registrado en t0 LE. Sea yi ~ Gi: t0 demora de el cliente en servidor i.

Situaciones:

1) tA = mín (tA, t1, t2)


262
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

t = tA
NA = NA+1 n1 = n1+1
Generamos TT hora de siguiente llegada tA = Tt;
Si n1 = 1 generamos su salida de este sub-sistema.
t1 = t + Y1 ; Sea Yi ~ G1
Registrando salida; A (NA) = t
2) t1 = mín (tA, t1, t2)
t = t1 ;
n1 = n1-1 , n2 = n2+1;
Si n = 0, t1 = ;
En otro caso t1 = t + Y1 Y1 ~ G1
Si n2 = 1 generamos Y1 ~ G1 t1 = t + Y2; registro de salida A2: (NA – n1) = t
3) t2 = mín (tA, t1, t2)
t = t2
ND = ND+1
n2 = n2-1
Si n2 = u ; t2 = + 

En otro caso generamos hora de la siguiente salida t2 = t + Y2 Y2 ~ G2


Algoritmo de salida D (ND) = t

Tarea
1) Estudiar algoritmo para k-servidor.
2) Listados:
tA t1 t2 NA N1 N2 A1 A2 ND D
0.5 + + 1 1 0 0.5 0 0 0

3) Estadística: tipo medio de espera en cada fila sistema nº de medio de elementos de cada fila.

8.5.3.- Una fila y dos servidores en paralelo

Queda como ejercicio propuesto, para analizar según las diversas opciones que deban contemplarse en base a las
siguientes consideraciones:
G: Distribución del tipo de atención
T: tiempo fijo

Variables de tiempo
t: vble. o tipo

Variables a conteo
NA : nº de llegadas
ND : nº de salidas

Variables de estado del sistema


n: nº de clientes en el sistema.

tA :hora en la siguiente llegada.


tD : hora de salida del cliente que se esta atendiendo.

/* Si no hay clientes tD =  */

A (i) = hora que llegó a la fila el cliente;


D (i) = hora de salida.
T (p) = tipo de salida del último cliente después de T.

263
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Algoritmo:
Paso 1 : t = NA = ND = 0
ES = 0
Paso 2 : T0 = tA

Hint: el algoritmo debe permanentemente mantener una lista actualizada de los clientes en el sistema según el
instante en que llegan a las diferentes etapas de éste.

Casos ilustrativos de planteamiento y determinación de parámetros en Problemas de Filas, de manera formal y


mediante simulación.

Ejemplo 8.17

a) Una fila- Un servidor- Población infinita

En una empresa de certificación de calidad en motores de inducción mono-polares trifásicos de imanes perpetuos,
ocupados en grandes cantidades en correas transportadores de la minería debido a sus muchas prestaciones y
confiabilidad, trabaja con un sistema experto que es el encargado de realizarle las pruebas necesarias para la
certificación de ellos. El sistema consta de una correar transportadora que se encargar de llevar los motores hacia una
cúpula donde se encuentran los brazos robóticos, manejados por el sistema experto, que se encargan de realizarle las
pruebas necesarias para certificar los motores. En la Fig.1 se muestra un esquema del sistema.

Fig.1: Sistema de certificación.

Para poder optimizar el funcionamiento del sistema experto implementado se necesita calcular los parámetros del
sistema, además se desean calcular las siguientes probabilidades:

- Probabilidad de que un motor encuentre la fila vacía


- Probabilidad de que se encuentre un motor recibiendo el servicio y dos en la fila
- Probabilidad de que en el sistema se encuentren más de 12 motores
- Probabilidad de que la espera en la fila sea mayor a 45 minutos
- Probabilidad de que un motor espere en el sistema más de 1 hora
Por otro lado se sabe que el promedio de llegadas de motores es 17 por hora mientras que el servicio promedio
atiende a 20 motores por hora, además las llegadas de los motores muestran una distribución aproximadamente de
Poisson, mientras que el servicio muestra una distribución exponencial y por último se sabe que el sistema puede
dar servicio a un motor a la vez y se sirve a los motores por orden de llegada.

264
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Desarrollo:

El factor de utilización del sistema está dado por:

17
𝜌= = 0,85
20

El valor esperado del número de motores en el sistema es:

𝜆 17
𝑊= = = 5,667 [𝑀𝑜𝑡𝑜𝑟𝑒𝑠]
𝜇 − 𝜆 20 − 17

El valor esperado del número de motores en la fila, esperando para ser atendidos es:

𝐿 = 𝜌𝑊 = 0,85 ∗ 5,667 = 4,817 [𝑀𝑜𝑡𝑜𝑟𝑒𝑠]

El tiempo medio de espera en la fila:

𝑊 5,667
𝑇𝑠 = = = 0,283 [ℎ𝑜𝑟𝑎𝑠]
𝜇 20

El tiempo medio esperado para salir del sistema:

𝑇𝑠 0,283
𝑇𝑤 = = = 0,333 [ℎ𝑜𝑟𝑎𝑠]
𝜌 0,85

Probabilidad de que un motor encuentre la fila vacía

𝑃0 (𝑡) = 1 − 𝜌 = 1 − 0,85 = 0,15

Probabilidad de que se encuentre un motor recibiendo el servicio y dos en la fila

𝑃𝑛 (𝑡) = 𝜌𝑛 (1 − 𝜌) Con n=3 𝑃3 (𝑡) = 0,853 (1 − 0,85) = 0.0921

Probabilidad de que en el sistema se encuentren más de 12 motores

𝑃(𝑀 > 𝑚) = 𝜌𝑚 Para m=12 𝑃 (𝑀 > 12) = 𝜌12 = 0,8512 = 0,1422

Probabilidad de que la espera en la fila sea mayor a 45 minutos

𝑃(𝑡𝑠 > 𝑔) = 𝜌𝑒 −𝜇(1−𝜌)𝑔 Para g=0,75 𝑃(𝑡𝑠 > 0,75) = 0,85𝑒 −17(1−0,85)0,75 = 0,1255

Probabilidad de que un motor espere en el sistema más de 1 hora

𝑃(𝑡𝑠 > ℎ) = 𝑒 −𝜇(1−𝜌)ℎ Para h=1 𝑃(𝑡𝑠 > 1) = 𝑒 −17(1−0,85) = 0,07808

265
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

b) Una fila- Un servidor- Población finita

Un sistema de control debe manejar la descargar de 7 estanques que realizan mezclas primarias de un componente
para luego ser descargadas hacia un camión. La salida de cada estanque está conectada a una tubería central que da
hacia el camión, esto se muestra en la Fig.2. El sistema de control activa la descarga de un estanque cuando este
alcanza la temperatura de mezcla ideal, pero a su vez se preocupa de que mientras un estanque descarga los otros que
estén listos queden a la espera de ocupar la tubería central teniendo en cuenta que el primero que entra en espera es el
primero en ser atendido.

Fig.2: Esquema de estanques que esperan por ocupar la tubería central.

Por otro lado el tiempo promedio de mezclas listas sucesivas es de 1 hora por estanque mientras que el tiempo
promedio de descarga por estanque es de 20 minutos.

Desarrollo:

Se tiene que:

𝜆=1

1
𝜇= =3
1
3

Por lo tanto

1
𝜌= = 0,33
3

266
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑃𝑛(𝑡)
n m m!/(m-n)! 𝜌𝑛 𝑃0 (𝑡)

0 7 1 1 1
1 7 7 0,33333333 2,33333333
2 7 42 0,11111111 4,66666667
3 7 210 0,03703704 7,77777778
4 7 840 0,01234568 10,3703704
5 7 2520 0,00411523 10,3703704
6 7 5040 0,00137174 6,91358025
7 7 5040 0,00045725 2,30452675

Entonces se tiene que:

𝟕
𝑃𝑛 (𝑡)
∑ = 45,73
𝑃0 (𝑡)
𝒏=𝟎

𝑃0 = 0,00219

El valor esperado del número de estanques esperando descargar (o sea en la fila):

𝜆+𝜇 1+3
𝐿=𝑚− (1 − 𝑃0 ) = 7 − (1 − 0,00219) =3.00876 [Cantidad de estanques]
𝜆 1

El valor esperado del número de estanques activos en el sistema es:

𝑊 = 𝐿 + 1 − 𝑃0 = 4,0656 + 1 − 0,00219 = 5,0634 [𝐶𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑒𝑠𝑡𝑎𝑛𝑞𝑢𝑒𝑠]

El tiempo medio esperado de espera en la fila:

𝐿 4,0656
𝑇𝑠 = = = 1,3582 [𝐻𝑜𝑟𝑎𝑠]
𝜇(1 − 𝑃0 ) 3(1 − 0,00219)

El tiempo medio esperado para salir del sistema:

1 1
𝑇𝑤 = 𝑇𝑠 + = 1,3582 + = 1,6915 [𝐻𝑜𝑟𝑎𝑠]
𝜇 3

267
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo 8.18

a) Una fila- Servidores múltiples en paralelo- Población infinita

Una fábrica de producción de carbón vegetal posee 7 hornos que se encargan de carbonizar paquetes de maderos (un
paquete es igual a 100 kilos de madera) que entran a ellos manejados por una correa transportadora. El esquema de
esta distribución se muestra en la Fig.3. Por su lado el sistema de control se encarga de manejar todo el
accionamiento de la correa y la carbonización en los hornos para lo cual posee sensores que avisan cuando un horno
está ocupado y en tal caso la correa transportadora deberá direccionarse hacia otro horno, creando así una fila de
espera con varios servidores para carbonizar los maderos

Fig.3: Distribución de los hornos y la correa transportadora.

Por otro lado la cantidad de paquetes que llegan en promedio a la correa transportadora es de 1 por segundo y
además cada horno se demora 5 segundos en promedio en quemar un paquete.

Desarrollo:

Se tiene que:

𝜆 = 1 [𝑃𝑎𝑞𝑢𝑒𝑡𝑒𝑠/𝑆𝑒𝑔𝑢𝑛𝑑𝑜]

1
𝜇= = 0.2 [𝑃𝑎𝑞𝑢𝑒𝑡𝑒𝑠/𝑆𝑒𝑔𝑢𝑛𝑑𝑜]
5

𝑆 = 7 [𝐻𝑜𝑟𝑛𝑜𝑠]

Por lo tanto el factor de utilización del sistema es:

𝜆 1
𝜌= = =5
𝜇 0.2

Se tiene que:

268
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

𝑆−1 𝑆−1
1 𝑛 1 𝑆 𝑆𝜇 −1 1 1 7 ∗ 0,2 −1
𝑃0 = (∑ 𝜌 + 𝜌 ) = (∑ 5𝑛 + 57 ) = 0,00598
𝑛! 𝑆! 𝑆𝜇 − 𝜆 𝑛! 7! 7 ∗ 0,2 − 1
𝑛=0 𝑛=0

El valor esperado del número de paquetes esperando entrar a un horno (o sea en la fila):

𝜆𝜇𝜌 𝑆 1 ∗ 0,2 ∗ 57
𝐿= 𝑃0 = ∗ 0,00598 = 0,81037 [𝑃𝑎𝑞𝑢𝑒𝑡𝑒𝑠]
(𝑆 − 1)! (𝑆𝜇 − 𝜆) 2 (7 − 1)! (7 ∗ 0,2 − 1)2

El valor esperado del número de paquetes en el sistema es:

𝜆 1
𝑊=𝐿+ = 0,81037 + = 5,81037 [𝑃𝑎𝑞𝑢𝑒𝑡𝑒𝑠]
𝜇 0,2

Considerando los cálculos anteriores tenemos que el tiempo esperado de espera de los paquetes de madera en la
correa es:

𝐿 0,81037
𝑇𝑠 = = = 0,81037[𝑠𝑒𝑔𝑢𝑛𝑑𝑜𝑠]
𝜆 1

Y el tiempo esperado de espera de los paquetes para ser quemados es:

1 1
𝑇𝑤 = 𝑇𝑠 + = 0,81037 + = 5,81037 [𝑠𝑒𝑔𝑢𝑛𝑑𝑜𝑠]
𝜇 0,2

b) Una fila- Servidores múltiples en paralelo- Población finita

La empresa que maneja el sistema de control del problema 1b ha decidido agregarle una segunda tubería y un
segundo camión para la descarga, para así disminuir el tiempo de espera en la fila.

Desarrollo:

Entonces de acuerdo al problema 1b lo siguiente:

1
𝜆 = 1, 𝜇 = 1 =3
3

1
Por lo tanto S=2 , 𝜌 = 2∗3 = 0,1667

Además se tiene que:

𝑚 𝜆
( ) ( )𝑛 0≤𝑛≤𝑆
𝑃𝑛 𝑛 𝜇
=
𝑃0 𝑚! 𝜆
( )𝑛 𝑆<𝑛≤𝑚
{(𝑚 − 𝑛)! 𝑆! 𝑆 𝑛−𝑆 𝜇

269
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Con lo que tenemos la siguiente tabla:

n m Pn/P0 Pn
0 7 1 0,10196161
1 7 2,33333333 0,23791042
2 7 2,33333333 0,23791042
3 7 1,94444444 0,19825868
4 7 1,2962963 0,13217245
5 7 0,64814815 0,06608623
6 7 0,21604938 0,02202874
7 7 0,03600823 0,00367146
Tabla 1

El valor esperado del número de estanques esperando descargar (o sea en la fila):


𝑚 7

𝐿 = ∑ (𝑛 − 𝑆)𝑃𝑛 = ∑(𝑛 − 2)𝑃𝑛 = 0,76733 [𝐶𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑒𝑠𝑡𝑎𝑛𝑞𝑢𝑒𝑠]


𝑛=𝑆+1 𝑛=3

El valor esperado del número de estanques activos en el sistema es:


𝑚 7

𝑊 = ∑ 𝑛𝑃𝑛 = ∑ 𝑛𝑃𝑛 = 2,32550 [𝐶𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑒𝑠𝑡𝑎𝑛𝑞𝑢𝑒𝑠]


𝑛=0 𝑛=0

El tiempo medio de espera en la fila:

𝑊 2,32550
𝑇𝑆 = = = 0,49749 [𝐻𝑜𝑟𝑎𝑠]
𝜇(𝑊 − 𝐿) 3 ∗ (2,32550 − 0,76733)

El tiempo medio esperado para salir del sistema:

1 1
𝑇𝑊 = 𝑇𝑆 + = 0,49749 + = 0,83082 [𝐻𝑜𝑟𝑎𝑠]
𝜇 3

Ejemplo8.19

Fila con servidores múltiples en serie

Una empresa de ensamblaje de motores de inducción mono-polares trifásicos de imanes perpetuos posee una línea de
montaje de 4 estaciones las que se detallan a continuación:

1.- Montaje de los rodamientos del rotor

2.- Montaje del estator con el rotor

3.- Montaje de las tapas delantera y trasera del motor

4.- Fijación de los pernos para cerrar el motor

270
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Por otro lado se sabe que se reciben en promedio 30 motores por hora y el servicio en cada estación es de 50, 40, 35
y 37 motores por hora respectivamente.

Además se quiere saber la probabilidad de que en la respectivas filas estén el siguiente numero de motores: 6, 3, 3 y
0 respectivamente.

Desarrollo:

Se tiene que la probabilidad pedida está dada por:


𝑛
𝑍
𝑃(𝐿1 = 𝑍1 , … , 𝐿𝑛 = 𝑍𝑛 = ∏ 𝜌𝑖 𝑖 (1 − 𝜌𝑖 ) = 0,0000335
𝑖=1

Por lo tanto esa probabilidad es de un 0,00335% de que ocurra.

Los cálculos parciales de los parámetros del sistema están en la siguiente tabla:

λ μi ρi Wi Tsi Twi Pi
30 50 0,6 1,5 0,03 0,05 0,0186624
30 40 0,75 3 0,075 0,1 0,10546875
30 35 0,85714286 6 0,17142857 0,2 0,089962516
30 37 0,81081081 4,28571429 0,11583012 0,14285714 0,189189189

Ahora los resultados finales son los siguientes:

El valor esperado de motores en la línea de ensamblaje es:


𝑛
𝜌𝑖
𝑊 = ∑( ) = 14,7857 [𝑀𝑜𝑡𝑜𝑟𝑒𝑠]
1 − 𝜌𝑖
𝑖=1

El tiempo esperado de motores en la línea de espera es:


𝑛
𝜌𝑖 1
𝑇𝑠 = ∑( ) = 0,3923 [𝐻𝑜𝑟𝑎𝑠]
1 − 𝜌𝑖 𝜇𝑖
𝑖=1

𝑛
1 1
𝑇𝑊 = ∑( ) = 0,4929 [𝐻𝑜𝑟𝑎𝑠]
1 − 𝜌𝑖 𝜇𝑖
𝑖=1

271
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

8.5.4.- Implementación en Simulink

En Simulink se pueden implementar los sistemas descrito en estos problemas de dos maneras, la primera, utilizando
el Toolbox Simevents que está diseñado para trabajar con problemas de teoría de líneas de espera. En el anexo 1 se
explica con más detalle el funcionamiento de dicho Toolbox, además, el problema 1.a se desarrollo usando esta
herramienta.

También es posible hacer un diagrama de bloques, incorporando las ecuaciones que son necesarias para resolver
estos problemas, lo cual es más lento, pero más ilustrativo, por lo cual fue la opción escogida para desarrollar los
respectivos sistemas, descritos en los problemas anteriores.

Ejemplo 8.20

Resolución de Ejemplo8.17 usando SimEvents.

A la fila llegan entidades con una distribución exponencial, que se obtienen de los bloques “Generador entidades” y
“Distribución exponencial”. La salida del bloque “fila” ingresan al bloque “Servidor” del tipo FIFO, que tiene
distribución Poisson, obtenida del bloque “Distribución Poisson”, la salida del bloque Poisson se conecta a un bloque
terminador para cerrar sistema. El resto, es visualizar las salidas a través de los bloques “Display`s”. Cabe destacar
que todos los bloques utilizados están en la librería de SimEvents.

Finalmente, se simula el sistema completo. En los bloques “Display’s” se observa que los valores obtenidos en forma
manual y a través de la simulación coinciden.

Cabe destacar, que para obtener estos valores, fue necesario realizar una conversión entre el tiempo de trabajo
utilizado en Simulink y las unidades empleadas en el cálculo manual de este problema, esta es la razón por la cual los
valores obtenidos usando SimEvents están en minutos, y las obtenidas manualmente están en horas.

Parte a:

Se implemento el problema utilizando los bloques estándar de Simulink. El diagrama de bloque se muestra a
continuación:

272
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Mediante los bloques “Lambda” y “Mu” es posible variar los parámetros para poder simular distintas condiciones.
Para obtener las respuestas del sistema “L, W, Ts, Tw”, se emplean bloques “Embedded Matlab Function” en los que
es posible programar rutinas a voluntad. A continuación, a modo de ejemplo, se muestran las rutinas programadas
para obtener W y Ts:

Rutina para obtener W:

Rutina para obtener Ts:

Los resultados obtenidos se muestran a continuación:

273
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Se observa una concordancia en los resultados obtenidos. Es importante señalar que los resultados de los tiempos se
encuentran en horas.

Parte b

Para contrastar resultados es implemento el problema en MATLAB utilizando un archivo *.m file. El código se
muestra a continuación:

Se implementaron las formulas para calcular los parámetros. La simulación entrego los siguientes resultados:

274
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Los resultados obtenidos son similares a los cálculos formales realizados previamente.

275
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejmplo8.21

Resolución de Ejmplo8.18

Parte a

El diagrama de bloques utilizado se muestra a continuación:

A través de los bloques “lambda, mu y S” es posible ingresar los parámetros del sistema. La ventaja de esta
implementación es que se pueden variar los parámetros a voltuntad y obtener rápidamente las respuestas del sistema.
En nuestro caso, basta con hacer una simulación de 0.5 segundos (incluso menos) para obtener los resultados. Los
valores de “lambda, mu y S” se setean en 1, 0.2 y 7, respectivamente, para comprobar los resultados obtenidos al
resolver este ejercicio en forma manual.

Para obtener las respuestas del sistema “L, W, Ts, Tw”, se emplean bloques “Embedded Matlab Function” en los que
es posible programar rutinas a voluntad. A continuación, a modo de ejemplo, se muestran las rutinas programadas
para obtener L y W:

276
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Para obtener L, es necesario primero calcular el valor de P0, por lo que también se incluye dicha rutina:

Rutina para obtener L:

Rutina para obtener W

Finalmente, se simula el sistema completo. En los bloques “Display’s” se observa que los valores obtenidos en forma
manual y a través de la simulación coinciden.

Parte b.

El diagrama de bloques utilizado se muestra a continuación:


277
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

A través de los bloques “lambda, mu y S” es posible ingresar los parámetros del sistema, que se setean en 1, 3 y 2,
respectivamente. Para obtener las respuestas del sistema “L, W, Ts, Tw”, también se emplean bloques “Embedded
Matlab Function”. A continuación, a modo de ejemplo, se muestran las rutinas programadas para obtener L y W:

Rutina para obtener L:

278
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Rutina para obtener L:

Finalmente, se simula el sistema completo. En los bloques “Display’s” se observa que los valores obtenidos en forma
manual y a través de la simulación coinciden

279
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Ejemplo 8.22

Usando Sumulink, resolución de ejemplo 8.19

A través de los bloques “lambda, mu” es posible ingresar los parámetros del sistema. En este caso, el valor de
lambda es 30, y el valor de mu es un vector que contine los valores para los mu i= [50 40 35 37]. Para obtener las
respuestas del sistema “L, W, Ts, Tw”, también se emplean bloques “Embedded Matlab Function”. A continuación,
a modo de ejemplo, se muestran las rutinas programadas para obtener Ts y W:

Rutina para obtener W:

280
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Rutina para obtener Ts:

Finalmente, se simula el sistema completo. En los bloques “Display’s” se observa que los valores obtenidos en forma
manual y a través de la simulación coinciden:

Ejemplo8.23

Prelación o clientes preferenciales mediante SimEvents.

Para estudiar las potencialidades de este Toolbox se desarrolla el siguiente problema:

Es necesario hacer el testeo de dos tipos de rectificadores eléctricos para encontrar posibles fallas. El primer tipo de
rectificador es de la familia de los SCR y el segundo tipo es de la familia de los BJT. Los rectificadores tipo SCR
llegan para ser testeados cada 10 minutos puesto son mucho menos comunes que los rectificadores BJT que lo hacen
cada 1 minuto. Ambos tipos de rectificadores llegan son almacenados en una correa transportadora que puede
almacenar 1000 unidades, una vez completas las 1000 unidades, los rectificadores SCR se despachan primero al
escáner, y luego lo hacen los rectificadores BJT. El tiempo para hacer el testeo de calidad de los rectificadores SCR
es de 2 minutos, y solo 1 minuto para testear un rectificador tipo BJT. Dependiendo del tiempo de testeo, los
rectificadores son atendidos por el escáner A o escáner B, respectivamente. Se requiere saber el tiempo total de
atención esperado para un rectificador tipo SCR y para uno tipo BJT.

El diagrama de bloques implementado en Simulink es el siguiente:

281
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Funcionamiento:

A través de los bloques “time-based entity generator” se crean las entidades que representan a los rectificadores.
Cabe notar, que el bloque “set attribute” define a qué tipo de rectificador corresponde cada entidad, 1 para los tipo
BJT y 2 para los tipo SCR.

Luego, las entidades representantes de los rectificadores tipos SCR y BJT ingresan al bloque “Path combiner” que
acepta entidades desde cualquiera de sus puertas y las despacha por su única salida. Esto permite que las entidades
entren a una misma cola, bloque “Priority Queue”, que almacena hasta 1000 unidades para luego despachar las
entidades correspondientes al tipo SCR, y posteriormente despachar al tipo BJT. A través del bloque “Output
Switch”, las entidades con atributo 2 son atediadas “Single server1”y las con atributo 1 son atendidas por “Single
server”.

Luego, a través de los bloques “Signal scope” es posible encontrar los tiempos de espera deseados:

282
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Observando los gráficos, se puede ver que el tiempo que toma el testeo de los rectificadores tipo SCR es cercano a
cero, pues en la correa transportadora se despachan siempre primero. En cambio, el tiempo que toma el testeo de los
rectificadores tipo BJT se incrementa conforme pasa el tiempo de simulación pues, siempre se les da prioridad a los
rectificadores tipo SCR.

Observación:

La teoría de filas de espera puede ser una herramienta muy utilizada por los ingenieros controlistas. Dentro de los
innumerables procesos que se realizan dentro de una fábrica existen muchas formas en la que las filas de esperas se
encuentran presentes. Tener en consideración estos detalles permite tener un correcto diseño de las instalaciones,
asegurando un buen desempeño del proceso de producción.

Se implementó en MATLAB una serie de ejemplos que previamente habían sido resueltos, permitiendo comparar los
resultados; constatando la validez, flexibilidad y riqueza de resultados que proporciona la programación utilizada.

Las simulaciones realizadas en MATLAB Simulink tienen la ventaja de ser graficas y permitir modificar de forma
simple e intuitiva los parámetros involucrados en el sistema. Logrando implementar distintos sistemas en poco
tiempo con resultados reales.

Se realizo una implementación en archivo *.m file que resulto un poco más tediosa. A simple vista puede ser más
complicada de entender pero tiene correspondencia con los sistemas implementados en MATLAB Simulink.

Los clientes preferenciales no son muy vistos dentro del área de control de procesos. Pero presentan gran
importancia por el tipo de problemas y lo frecuente de su uso en los mas diversos procesos de atención de público,
sistemas de comunicación, tramitaciones, flujos en redes, en general sistemas de producción y servicios.

Es importante señalar lo necesario de distinguir, reconocer y utilizar resultados formales de de la teoría de filas de
esperas cuando corresponda.

Por otra parte, en la práctica es frecuente el no cumplimiento de las condiciones para su aplicación formal ya que
como se ha visto en el Capítulo 8, son pocas las variantes de arquitecturas, que contemplan conductas Poisson en
este tipo de sistemas y entonces se requiere aplicar simulación para una clara apreciación del proceso, para la
ineludible determinación de los parámetros del sistema. Sin lo cual, a este respecto, no es posible efectuar estudios
validos o tomar decisiones con respaldo estadístico.

283
Referencias

Billingsley P., Probability and Measure, J. Wiley & Sons, 1995

Conway R. Maxwell W.L. y Miller L. Theory of Scheduling. Addison Wesley, 1967.

Cooper R. B. Introduction to Queueing Theory. McMillan 1972.

Cox, D.R, y W.L. Smith, Queues, London Methuén & Co., 1961

Cruon R., Queueing Theory. Recent Developments and Applications. American Elsevier, 1967

Feller W. An Introd. to Probability Theory and its Applications, Vol. I.J. Wiley & Sons. 1965

Feller W. An Introd. to Probability Theory and its Aplications, Vol. II, J. Wiley & Sons, 1966

Gnedenko B., Theory of Probability, Gordon and Breach Science, 1997

Gross, D. y Harris C.M. Fundamentals of Queueing Theory, J. Wiley & Sons 1974.

Jaiswal N.K. Priority Queues, Academic Press 1968.

Khintchine A. Y. Mathematical Methods in the Theory of Queues, Hafner Publisching, 1969.

Kleinrock L. Queueing Systems, J. Wiley 1976

Lee A, Applied Queueing Theory, McMillan 1966

Leon-Garcia A., Probability and Random Processes for Electrical Engineering, Add.-Wesley,1994

Métivier M., Notions Fundamentales de la Théorie des Probabilitiés, Dunod, 1972

Morse P, Queues, Inventory and Maintenance, J. Wiley & Sons, 1958

Newell G.F. Applications of Queueing Theory. Chapman & Hall, 1971

Panico J.A. Queueing Theory, Prentice Hall, 1969

Parzen E., Modern Probability Theory ans Its Applications, J. Wiley & Sons, 1960

Prabhu N.U. Queues and Inventories, J. Wiley & Sons, 1965

Rao C.R. Linear Statistical Inference and Its Applications, John Wiley & Sons, 1965

Ross, Sheldon M., Stochastic Processes, John Wiley & Sons,1996

Ross, Sheldon M., Simulation, Academic Press, 2012

Saaty T., Elements of Queueing Theory, Mc. Graw Hill, 1961

Scheffé H. , The Analysis of Variance, John Wiley & Sons, 1959

Siegel S. Nonparametric Statistics for the Behavioral Sciences, McGraw-Hill, 1956

Taha H.A., Investigación de Operaciones, Alfaomega, 1995

284
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

INTRODUCCIÓN A

PROCEDIMIENTOS

ESTADÍSTICOS
MATLAB

285
286
Contenido

Sección Tema
1 Base de datos 291
1.1 Importar a tabla de datos 292
1.2 Importar datos Excel 292
1.2.1 Mediante opción en menú 292
1.2.2 Etapas para importación mediante sentencias 292
1.2.2.1 Importación para lectura 292
1.2.2.2 Formato operativo 293
1.3 Ingreso de datos por pantalla 294
2 Objetos 294
2.1 Construcción de objetos 294
2.2 Funciones para caracteres 295
3. Operadores lógicos 295
4 Operaciones algebraicas 296
4.1 Operaciones entre escalares 296
4.2 Operaciones entre vectores y matrices 296
4.3 Operaciones elemento a elemento 296
5 Desagregación y Concatenación 296
5.1 Desagregación 296
5.2 Concatenación 297
6 Gráficos 297
6.1 Grafico con grilla 298
6.2 Grafico de aplicaciones con dominio restringido 298
6.3 Gráficos simultáneos 298
6.3.1 Gráficos en una misma imagen 298
6.3.2 Gráficos superpuestos 298
6.4 Gráficos de curvas dadas por secciones 299
6.5 Anotaciones 299
7 Funciones PCHIP y SPLINES 299
8 Área achurada 300
9 Derivación , integración y ecuaciones formales o simbólicas 301
10 Estadística Descriptiva 301
10.1 Tablas de frecuencias 301
10.1.1 Tablas de frecuencias para variables cualitativas 301
10.1.2 Tablas de frecuencias para variables cuantitativas 301
10.1.3 Tablas de frecuencias bi-dimensionales 302
10.2 Gráficos estadísticos 302
10.2.1 Gráfico circular 302
10.2.2 Gráfico de barras separadas 302

287
10.2.3 Gráfico de Pareto 303
10.2.4 Gráfico de barras agrupadas 303
10.2.5 Gráfico de barras sub-divididas 303
10.2.6 Gráficos de cajas ( Box-Plot) 303
10.2.7 Histogramas 303
10.2.8 Ojiva con ajuste Normal 304
10.2.9 Gráficos Línea simultáneos 304
10.3 Medidas de Posición 305
10.4 Medidas de Dispersión 306
10.5 Medidas de Forma: Asimetría y Curtosis 306
10.6 Medidas de Asociación: Covarianza, Correlación, Chi-cuadrado 306
11 Probabilidades 307
12 Variables Aleatorias 307
12.2 Histogramas con ajuste a distribución arbitraria 308
12.3 Valores de v.a. para probabilidad acumulada dada (Comando inv) 308
12.4 p-valor 308
12.5 Transformaciones de una distribución 309
13 Gráficos de distribuciones marcando puntos notables 309
13.1 Gráfico para N(0,1) marcando puntos en +-1.96l 309
13.2 Gráfico N(mu,sigma), marcando areas de colas uni o bi-laterales 309
13.3 Áreas bajo la curva de distribuciones arbitrarias 309
13.3.1 Gráficos de curva y curva con 95% de área achurada 309
13.3.2 Áreas críticas Normal de dos colas y una cola superior al 5% 310
14 Generación de muestras aleatorias 310
14.1 Uso de comando rand 311
14.2 Uso de comando rnd 311
14.3 Técnicas de Re-Muestreo mediante Bootstrap 311
14.3.1 Dada una muestra, obtención de medias en muestras Bootstrap 311
14.3.2 Dada una muestra bi-dimensional, obtención de correlaciones en 311
muestras Bootstrap
14.3.3 Generación de muestras Bootstrap de v.a. con distribución 311
especificada
15 Inferencia 312
15.1 Dócimas en muestras procedentes de poblaciones Normales 312
15.1.1 Una m.a. 312
15.1.1.1 Intervalo de confianza para la media, con varianza conocida 312
15.1.1.2 Test respecto a la media 312
15.1.2 Dos m.a. 313
15.1.3 Una m.a. pareada 313
15.2 Tests de Bondad de ajuste: ᵡ2 ,K-S , S-W, Lill 313
15.2.1 Gráficos de superposición entre F distribución empírica 313
estandarizada de X y F teórica dada por N(0,1).
15.2.2 Test Chi-cuadrado 314
15.2.3 Test K-S 314

288
15.2.3.1 Caso Normal totalmente especificada 314
15.2.3.2 Caso General y no totalmente especificada 314
15.2.4 Test Lilliefors 314
15.2.5 Test Shapiro-Wilk 314
16 ANOVA 314
16.1 ANOVA a un factor o comparación entre tratamientos 314
16.2 ANOVA a dos factores e interacción 315
17 Regresión Mediante Mínimos Cuadrados 315
17.1 Mínimos cuadrados desde Command Windows 315
17.2 Obtención del modelo clásico MICO 315
17.3 Tabla ANOVA para modelo clásico MICO 315
17.4 Ajuste polinomial 315
18 Simulación de Procesos 316
18.1 Simulink 316

289
290
MATLAB

El software MATLAB es un producto Mathworks (empresa transnacional orientada al desarrollo de


software), orientado para ser utilizado en estudios de matemática, ciencias e ingeniería, tanto en la
formación profesional como para el ejercicio profesional e investigación multidisciplinaria.

Combina un entorno de escritorio perfeccionado para el análisis iterativo y procesos de diseño a


través de un lenguaje de programación que se expresa en términos de operaciones matemáticas de
matrices y arreglos. Lo que se comprende al ser ello, resultado del proyecto Matrix Laboratory, que
dio origen al nombre del producto.

Las herramientas de programación, que proporciona MATLAB, entre ellas es de nuestro interés
Simulink ( orientada a la simulación de procesos), se construyen con equipos de profesionales, tanto
en la etapa de diseño como revisión y proporcionando una amplia difusión de sus respaldos.

Dispone de aplicaciones interactivas que permiten apreciar el funcionamiento de diferentes


algoritmos, realizar iteraciones hasta obtener los resultados deseados y, generar automáticamente
un programa de MATLAB para reproducir o automatizar su trabajo.

Es un software con capacidad de lograr resultados tanto operacionales como simbólicos y además
escalable, ya que los análisis a través de agrupaciones de datos, GPU y a nivel de nubes de internet
se implementan con ligeros cambios de código. No siendo necesario volver a escribir en otros
códigos, rehacer o aprender otra programación para trabajar con Big Data al hacer uso de
información en forma remota.

Nuestro interés es proporcionar las herramientas y recomendaciones necesarias, para ilustrar las
aplicaciones en estadística que contempla el presente curso, y orientar hacia mayores desarrollos
en este ámbito.

De esta manera hemos considerado los siguientes aspectos para entregar de manera ágil y directa
lo que se ha estimado como necesario, para el presente texto.

1.-Base de datos

Existen diversos procedimienos para importación de datos:

importdata(A) : es un procedimiento muy robusto, permite importar un archivo A de


imágen o datos. Para su visualización en caso de imagen, debe ejecutar: image(A).

Para importar datos se requiere especificar tipo de separación entre columnas y declarar
línea donde se encuentran los nombres de las columnas:
filename = 'miarchivo.txt';

291
delimiterIn = ' ';% delimitación por espacios
headerlinesIn = 1;% nombres en primera linea
A = importdata(filename,delimiterIn,headerlinesIn);
Para desplegar las columnas se debe crear un ciclo:
for k = [2, 7]; % señalamos las columnas de interés
disp(A.colheaders{1, k})
disp(A.data(:, k))
disp(' ')
end
Cuando la delimitación es por comas , basta con: [A,delimiterOut]=importdata('miarchivo.txt')
También permite importar datos desde el clipboard (memoria virtual), mediante un copy
paste especial: basta con copy y luego A= importdata('-pastespecial')
Mayores detalles, encontrará en:
https://www.mathworks.com/help/matlab/ref/importdata.html

1.1.- Para Importación como tabla de datos , desde diversos tipos de


formatos de archivos texto (txt, .dat, or .csv ) o planillas( xls, .xlsb, .xlsm, .xlsx, .xltm, .xltx,) , lo
cual se recomienda por lo directo de su proceder, mediante : readtable(
miarchivo). Lo cual denomina miarchivo.variable a la correspondiente
columna de datos, de nombre variable.
Sub-entiende separaciones por espacio entre columnas y nombres de
variables en primera línea. Lo cual admite diversas opciones,
mediante:
readtable(nombre de archivo, 'Delimitación','lectura de variables',false)

1.2.- Importación de datos Excel

Para importar bases de datos por ejemplo datos21.xlsx que contempla


variables cuantitativas y cualitativas con respectivos nombres en
primera línea, cuyo archivo también anexamos.

1.2.1.- Se recomienda no proceder directamente a través de la primera


intención que nos motive el menú en su opción Import Data:

xlsread('datos21.xlsx');

ya que origina transtornos como pérdida de variables, asume que la


primera linea es una dato ( respuesta) en que confunde nombre de
variables como valor de la variable e ingresan directamente al
workspace las columnas completas como variables ,y no reconociendo a
todas.

1.2.2.- Etapas para importación mediante sentencias


1.2.2.1.- Importación para lectura
Se deben utilizar propiedades de asignación de xlsread; previamente
setear el Current Folder para ubicar el archivo de interés:
datos21.xlsx e utilizar la siguiente sentencia:
[numerosdedatos21,textosdedatos21,tododatos21] =
xlsread('datos21.xlsx');

De esta manera se guardan 3 matrices de datos, la matriz:


- "numeros":guarda solo los digitos del archivo Excel

292
- "textos" guarda string y arreglos de letras, y
-"todo" guarda todo, osea, es un conjunto de digitos y
arreglos/letras.
Por ello, es de nuestro interés, siempre recurrir a la matriz
"todo", aunque no reconozca los nombres como tal de las variables que
figuran en la primera fila.

Así todas las columnas con sus registros por fila completos,
automáticamente se les da lectura como una base de datos estadística,
mediante vectores columnas (de variables), pero en formato "cell"
Con las siguientes instrucciones se despliega la información,
reconocen y denominan las variables :
disp(tododatos21); id = tododatos21(:,1);
disp(id);
CompPesq=tododatos21(:,2); Tipo1=tododatos21(:,3);
Produccion=tododatos21(:,4); Exportacion=tododatos21(:,5);
Capital=tododatos21(:,6); Tipo2=tododatos21(:,7);
Si queremos los datos de la tabla, tomamos desde la fila 2 en adelante
(hasta 28 en este caso particular)

Para especificar ese rango de filas, anotamos "2:28" en vez de ":"


id = tododatos21(2:28,1);
CompPesq = tododatos21(2:28,2);
Tipo1 = tododatos21(2:28,3);
Produccion = tododatos21(2:28,4);
disp(Produccion);
Exportacion=tododatos21(2:28,5);Capital=tododatos21(2:28,6);
Tipo2=tododatos21(2:28,7);

1.2.2.2.- Formato operativo


Para disponer operativamente de los datos importados; una vez lograda
la importación según el paso anterior, se debe cambiar el formato de
c/u de las variables de dicha base de datos, a través de comando
cell2mat
Ahora que ya hemos reconocido la base de datos, tenemos un
inconveniente, todas las variables han sido guardadas en formato
"cell", las cuales no sirven para graficar y calcular valores
estadísticos, por lo que se hace necesario convertir cada vector de
"cell" a "double" mediante el comando "cell2mat".
Produccion =cell2mat(Produccion);
Exportacion =cell2mat(Exportacion);
CapitalInicial=cell2mat(Capital);
Tipo2 =cell2mat(Tipo2);
Tipo1 =cell2mat(Tipo1);
CompPesq =cell2mat(CompPesq);

A partir de ahora todas las variables de datos21.xlsx están


disponibles en Matlab: operacionalmente y para uso en gráficos.

% indica inicio de comentario, hasta el final de la línea de edición

disp(objeto) imprime objeto


disp('tex to') imprime texto
La sentencia:

293
format long; permite extensión máxima en precisión de resultados,
otras opciones son: short ( que viene por defecto),
shortE,longE,shortG, shortEng,, longEng, bank, hex..
fx >> home en Command Windows , limpia el ambiente Cwindows

1.3.- Ingreso de datos por pantalla


Comando input
n=input('ingrese número de datos:') ;

Permite el ingreso de un dato


Ahora, para ingresar datos uno a uno hasta que se satisfaga
condición
de parada:
for i=1:n ;
Y(1,i)=input('Ingrese valor de Y:') ;
i=i+1;
end;
for i=1:n ;
X2(1,i)=input('Ingrese valor de X2:') ;
i=i+1;
end;
for i=1:n ;
X3(1,i)=input('Ingrese valor de X3:') ;
i=i+1;
end;
Disponemos de tres variables con la misma cantidad de datos n. Con lo
que podemos formar una base de datos 8 observaciones) de un vector
estadístico de información o características Z=[Y;X2;X2]';

Secuencias programadas: para disponer de un vector x


x= -5:5; considera 11 números formados por los enteros desde -5
hasta 5
x=0:.2:12; Valor inicial : Distancia entre valores : Valor final
x= linspace(0,12,200); 200 valores espaciados entre 0 y 12
uniformemente
entre el 0, y 12 (por defecto entrega 100
datos)

2.- Objetos
Los objetos que se consideran este software son datos (expresiones,
caracteres,o números) en forma de:Vectores o matrices

2.1.- Construcción de objetos


Tales objetos se definen entre corchetes e ingresados por filas.
Los elementos de una misma fila se separan por comas (,)
Las filas se separan pulsando enter o mediante punto y coma (;);
Las respectivas dimensiones de tales objetos, se verifican en
Workspace

a=[7 8 9 1 3 2] vector fila,que también se origina con


[7 ,8, 9, 1, 3, 2]
c=[7; 8; 9; 1; 3; 2] vector columna
A=[7 8 9; 1 3 2; 4 6 2; 34 0 1] es una matriz de 4x3

294
Los elementos de los vectores se identifican entre paréntesis redondos
mediate indice y en matrices se hace con ambos sub-índices:
a(3); b=a',; b(3); son formas de identificar el mismo elemento
A(3,2): elemento 3,2 de A, es lo mismo que A(7) ya que Mlab lee por
columnas
M=[1 2 3;4 5 6;7 8 9; 1 3 2]; es una matriz 3x3 separando filas con
punto y coma
vec(2:5); rescata componentes dos a la 5 del vector vec
M(:,2:3); columnas 2 y 3 completas de M
2.2. Cadenas de caracteres
Tales elementos se escriben entre ' '
Si necesita escribir comillas, estas se escriben dentro de las otras y
forman parte del carácter.
c1='nombre'; distingue mayúculas y espacios
size(c1); una fila y 6 caracteres
d=[c1, ' NotasPEP1']; c2=' NotasPEP1'

2.2.- Funciones para caracteres


double(c1) ; convierte en ascii c/caracter
char(double(c1)); función inversa que devuelve caracteres
char(c1,c2) ; convierte dos cadenas en matriz de caracteres
strcmp(c1,c2) ; compara cadenas
num2str(pi,8) ; transforma cadena de caracteres en número 8
dígitos
size(M); tamaño o dimensión de M filas columnas
size(XXX); filas columnas de la tabla XXX
length([7 8 9 1 3 2]); longitud, largo o número de coordenadas de v
vector o data
length(M);n=length(XXX); tamaño muestral ;
modificaciones de una matriz:
j=M>4; j entrega los casos verdaderos
isa(j,'logical'); verifica que j es matriz lógica
M(j)=-30; modifica todos cambiándoles por el valor -30
format long; para extensión máxima en precisión de resultados
numéricos

https://www.youtube.com/watch?v=xZ47J4c8Yrg
hhttps://www.youtube.com/watch?v=DIc-dWvrOmU

3.- Operadores Lógicos


eq - Igual == para comparar valores o expresión
= para asignar valores
ne - desigual ~=
lt - menor que <
gt - mayor que >
le - menor o igual que <=
ge - mayor o igual que >=
and(p,q) - Logical AND (p)&(q)
or(p,q) - Logical OR (p)|(q)
not(p) - Logical NOT ~(p)
while –expresión lógica para asignaciones:
v=1:9;
i=1;

295
while v(i)<7
disp('Es menor que 7')
v(i)=0
i=i+1;
end
v

4.- Operaciones Algebraicas


4.1.- Operaciones entre escalares
+ - * ^ corresponde a suma resta producto y potencia,
/ división a la derecha que es lo usual
\ división a la izquierda que representa: A\b = inv(A)*b
cumsum(X) suma acumulada de x
sort(x) , dsort(x) ordena ascendente,descendente,para variable ordinal
double(x) convierte x a doble precisión, es decir a 8 decimales con
punto flotante
pi es el número pi
log10(10); logaritmos en base 10
log(exp(1)); logaritmos naturales
floor(5.8333);parte entera
ceil(5.8333);parte entera +1, es decir entero siguiente a la parte
entera
ma=max(Produccion); mi=min(Produccion); para determinar máximos y
mínimos

4.2.- Operaciones entre vectores y matrices


Las operaciones básicas se anotan como en escalares: + - *
A=[1 2 3; 3 4 5]; B=[6 3 4 5 ;4 3 8 9; 5 7 4 2 ]; A*B producto A por
B
mpower(A,3) = A^3=A*A*A, lo cual no rige para vectores
inv(A) es inversa de matriz A
Más general que invertir, podemos resolver sistemas de ecuaciones sin
recurrir a inversas:
x= inv(A)*b=A\b solución de Ax=b;
x=b*inv(A)=A/b solución de xA=b
A' transpuesta de A

4.3.- Operaciones elemento a elemento:


.* multiplicar vectores o matrices término a término:
./ dividir vectores o matrices término a término:
.^ elevar los términos de un vector o matriz a una cierta potencia
length() : cantidad de elementos
dot(,) :producto punto entre vectores
norm() : norma o magnitud de un vector
cross(,) : producto vectorial o producto cruz

5.- Desagregación y Concatenación


5.1.- Desagregación, es un proceso de eliminación de filas y/o columnas,
Así para eliminar:
-columnas desde la 3 hasta la 7 se realiza mediante :
archivo(:,[3:7])=[] o bien

interactivamente con mupad para A matriz linalg::delCol(A, [3,5,8..])

296
variables X1 y X2.. del espacio de trabajo : clearvars X1 X2
eliminar variables excepto X1 y X2: clearvars -except X1 X2
- filas 3 a la 7 usando: archivo(3:7,:)=[]
o bien: linalg::delRow(A, list)

filas en listado a, como consecuencia de restricción para eliminar

observaciones de una matriz A, mediante:

a=find( condición lógica para A), A(a,:)=[]; A

5.2.-Concatenación
Es un proceso de al agregar líneas o columnas, así
tenemos, que al adicionar líneas o columnas se realiza una
Concatenación Horizontal (de filas)y/o
vertical(columnas)respectivamente.
Dispongamos de las sgtes. variables:
x1=CapitalInicial;x2=Exportacion;
x3=Produccion
- concatenación hacia abajo u horizontal, agrega filas
XX=[x1;x2;x3]; disp(XX);
- concatenación hacia el lado o vertical, agrega columnas
XXX=[x1 , x2 , x3 ] o bien XXX==[x1 x2 x3]; disp(XXX');
Lo cual también se puede hacer entre vectores, matrices y/o arreglos,
siempre que las respectivas dimensiones lo permitan.

Para leer más:


http://www.monografias.com/trabajos36/matlab-programacion/matlab-
programacion2.shtml#ixzz4wRGWtPm8
Cálculo simbólico Practicas cursos 01 al 08
http://ocw.uniovi.es/pluginfile.php/650/mod_resource/content/1/1C_C116
66_0910/practicas/curso09_10/Practica6.pdf

http://www.fce.unal.edu.co/media/files/documentos/uifce/proyectos/ANAL
ISIS%20ESTADISTICO%20EN%20MATLAB.pdf
https://issuu.com/cristiangils/docs/analisis_estadistico_en_matlab
http://caminos.udc.es/info/asignaturas/obras_publicas/103/pdfs/matlab.
pdf

6.- Gráficos
Para graficar y =f(x) en el plano, basta con ejecutar la
sentencia: plot(x,y).
x4=[2 5 8 9 10]; y4=[2 0.7 2 3 3.3]; plot(x4,y4)
Eso sí, que la sentencia supone una curva y ante valores discretos,
construye la correspondiente poligonal, y puede que la resultante no
sea una función.Pero grafica los puntos en el plano si agregamos un
carácter en la sentencia, como por ejemplo: plot(x4,y4,’o’), o bien
plot(x4,y4,’+’)

Al omitir x y ejecutar plot(y), solamente graficará la secuencia de


valores para y. para vlores en el conjunto de los números complejos
plot(y) automáticamente reconoce el graficar plot(parte real de, parte
imaginaria de y.

297
Se pueden implementar diversos tipos de líneas, al agregar una tercera
componente A de tipo carácter, en tal sentencia, mediante
plot(x,y,A)con A cualquier combinación de elementos de
color{b,g,r,c,m,y,k}, marcas {-,:,-.,--} y/o
símbolos{.,0,x,+,*,s,d,v,^,<,>,p,h}.
x4=[2 5 8 9 10]; y4=[2 0.7 2 3 3.3]; plot(x4,y4)
Para gráficos 3D, véase:
http://www.sc.ehu.es/sbweb/fisica3/basico/graficos/graficos.html
http://personales.unican.es/corcuerp/Matlab_Simulink/Slides/Matlab_gra
ficos3D.pdf
http://www.utm.mx/~vero0304/HCPM/12-Graficas-3D(primera%20parte).pdf
Principales funciones para gráficos tridimensionales: plot3(x,y,z), comet3(x,y,z)
,mesh(z) o mesh(x,y,z), surf(z) o surf(x,y,z), shading interp,
shading flat, colormap(map_name) contour(z) o contour(x,y,z),
surfc(z) o surfc(x,y,z), pcolor(z) o pcolor(x,y,z), respectivamente
generan gráficos tridimensionales: de manera lineal, una versión animada de plot3,una
superficie de malla, superficie, interpola entre los colores, colorea cada sección de un solo
color,permite seleccionar el patrón de color, gráfica de contorno, superficie combinada con
una gráfica de contorno y un gráfico en pseudo-color
6.1.- Gráficos con grilla
Permite, marcando puntos de interés al graficar una función.
En este caso se debe declarar inicio y término de gráficos con
aplicación de grilla. Ilustraremos este caso , utilizando una recta
dada por la función f=2x:
x=-5:3:10;plot(x,2*x)
plot(x,2*x,'LineWidth',4);% línea de ancho=4
grid on
set(gca,'xtick', [-4 -2 2 4 6 10]);
set(gca,'ytick', [-3 -1 2 4 6 10 15]);
grid off;

6.2.- Gráfico de aplicaciones sobre dominio restringido.


Basta mencionar el segmento correspondiente, para referirse a una
función definida en sub conjunto. En este caso utilizaremos f=sin(x):
x=linspace(0,10,100), % 100 datos entre 0 y 100 equiespaciados, lo
cual realizaría dicha sentencia aunque no especifiquemos esa cantidad
de datos
y=sin(x)
plot(x,y)
grid on
fplot('sin(x)',[-3*pi,3*pi,-1,1])

6.3.- Gráficos simultáneos


6.3.1.- En una misma imagen
Considerando a, b, c números enteros positivos, mediante la sentencia:
subplot(a,b,c), 1≤ c ≤a+b
se hace posible, dividir una imagen en a por b secciones ( una matriz
de imágenes), e indicar la posición c en tal malla, asignada al
gráfico que se desea realizar.

6.3.2.- Superpuestos
Para lograr varios gráficos en un mismo plano cartesiano, se debe
tener presente que: todos los gráficos que se ordene dibujar entre
los comandos hold on y hold off se representarán en la misma figura.

298
hold on
x=[-3*pi:1:3*pi];
plot(x,sin(x))
plot(x,tan(x),'r')
hold off
Otra manera es plot(x,sin(x),'co-',x,tan(x),'r')

6.4.- Gráfico de curvas dadas por secciones


Mediante operaciones término a término entre vectores, se puede
originar una sola sentencia, que permite construir funciones definidas
por partes (o secciones)

Ejemplo1:
t=linspace(-8,8,100)
f=(t<=-1.96).*(sin(2*pi*t))+((t>-3)&(t>3)).*(1)+(t<=-1.96).*(cos(2*pi*t))
plot(t,f)
grid on
Ejemplo2:
t=linspace(-5,5,1200)
f=(t<=-1) .*(exp(t))+ (t>1) .* (sin(t)) ,donde ud no la defina, f=0
plot(t,f,t, normpdf(t))
set(gca,'ytick', [0 0.1 0.2 0.3 0.4 0.5]);
set(gca,'xtick', [-1.96 1.96]);
Ejemplo3:
t=linspace(-1,500,1200) ; se debe adecuar el linspace según la curva
f=(t>=0) .* (exp(-t/60)); plot(t,f,'r');
Ejemlo4:
x=-10:.1:-5; y=2+sin(x); z=-5:.1:2; t=exp(z);
u=2:.1:10; v=log(u.^2+1); plot(x,y,z,t,u,v); grid on
xlabel('x'), ylabel('f(x)')
title('Representacion grafica de una funcion definida a trozos')

En otras palabras, corresponde a una concatenación entre los


respectivos gráficos.

6.5.- Anotaciones
Para realizar, títulos, leyendas, etiquetas se puede recurrir a los
siguientes comandos:
title (‘texto’): agrega texto entre comillas como título del
gráfico. xlabel(‘texto’): agrega texto entre comillas al lado del
eje x. ylabel(‘texto’): agrega texto entre comillas al lado del eje
y. legend(‘texto’): coloca leyenda especificada en el texto.
gtext(‘texto’): coloca texto señalado con mouse en la ventana de
trabajo.
Para más detalles, recurrir a ventana gráfica de MATLAB.

7.- Funciones PCHIP y Splines


Se trata de construcción de funciones que definen curvas (pchips
,splines) para lograr poligonales que unan puntos aislados o bien
suavizar curvas.
PCHIP: Polinomio Interpolador de Hermite cúbico por partes
SPLINE: Interpolación spline cubica
x=[0 1 2 3 4 10 11 12 13 14];y = [1 1 1 0 0 1 1 1];
xq1 = 0:.01:14;
p = pchip(x,y,xq1);

299
s = spline(x,y,xq1);%extrapola al aplicarse en valores fuera de xq1
plot(x,y,'o',xq1,p,'-',xq1,s,'-.')

8.- Área achurada (grafico de areas) bajo la curva


Se logra, de la misma manera que graficar, pero ahora utilizando el
comando area(,)
Para la sección anterior basta escribir: área(x4,y4)
caso x^3: x=linspace(-5,5,1000); area(x, x.*x.*x)
caso seno(x): x=linspace(-5,5,1000);
grid on
set(gca,'xtick',[-2*pi -3*pi/2 -pi -pi/2 0 pi/2 pi 3*pi/2
2*pi])
grid off
area(x,sin(x))
caso: xx4=2:0.001:10;
yy4=spline(x4,y4,xx4);plot(xx4,yy4)
hold on; plot(x4,y4);plot(xx4,yy4); hold off;
area(xx4,yy4);
caso: mediante una matriz Y, se reconocen los vectores de tantas
funciones Y como vectores columnas, cuyas áreas se pueden
representar simultáneamente:
Y = [1, 5, 3; 3, 2, 7; 1, 5, 3; 2, 6, 1]; area(Y)
Y = [1, 0, ; 3, 2, ; 1, 5, ; 2, 0, ]; area(Y)
Y = [1, 0, ; 3, 2, ; 1, 5, ; 2, 0, ]; area(Y); grid on;colormap
summer;

Áreas: http://matlab.izmiran.ru/help/techdoc/ref/area.html
%http://www.ugr.es/~prodelas/AnNumCaminos/ftp/Tema6.htm

Gráficos, véase:

300
http://www2.caminos.upm.es/Departamentos/matematicas/Fdistancia/PIE/ma
tlab/temasmatlab/TEMA%205.pdf
http://arantxa.ii.uam.es/~iama/graficos.pdf
https://blogdelingeniero1.wordpress.com/2014/03/01/funciones-por-
partes-o-a-tramos-en-matlab/

9.- Derivación, integración y resolución de ecuaciones,formal o simbólica:


Para resolver f(x)=0; basta la sentencia : solve(’f(x)’) , en caso de
requerir doble precisión, basta la sentencia: double(solve(‘f(x)’)

Ahora, para derivación o integración formal: deben declarar las


variables involucardas como simbólicas mediante; symsx1 x2 x3 ….xp
Para y=f(x1) la derivada total k ésima: diff(y,k) = diff(y,x1,k)
integral se realiza mediante: int(y)

Cuando se trata de una función de varias variables: Y=f(x1,x2,…xp),


la derivada parcial de orden k para x1 se prcede de la sgte. forma:
diff(f,x1,k)

10.-ESTADÍSTICA DESCRIPTIVA
véase
https://issuu.com/cristiangils/docs/analisis_estadistico_en_matlab');
10.1.-Tablas de Frecuencias
10.1.1.-Para variables cualitativas
tablaTipo1= tabulate(Tipo1); % tabla de frecuencias para variable
Tipo1
col1= cell2mat(tablaTipo1(:,1))
col2= cell2mat(tablaTipo1(:,2))
col3= cell2mat(tablaTipo1(:,3))/100
col4= cumsum (col2)
col5= cumsum(col3)
latabla= [ col2 col3 col4 col5]
disp('tabla de Frecuencias');
disp('absolutas relativas acumuladas relativas acumuladas');
disp(latabla);

%http://www.est.uc3m.es/esp/nueva_docencia/leganes/ing_telecomunicacion/es
tadistica/practica1_teleco10.pdf
10.1.2.- Para variables cuantitativas
tabulate(Produccion) realiza una rudimentaria tabla de frecuencias
para datos mostrando recuento y frecuencias porcentuales.
Hay que construirla ya que no se dispone de construcción de tabla de
frecuencias por intervalos
% regla de Sturges;
k=1+3.3*log10(n);% para n=27 resulta exactamente k=5,72356
a=(ma-mi)/k; % resulta a=13,1039 para este caso
clases=([mi mi+a mi+2*a mi+3*a mi+a*4 ma])';
% donde mi=min(variable),ma=max(variable);
ni=histogram(Produccion, clases);%frecuencias absolutas variable
Produccion
sum(ni); fi=ni/n; % frecuencias relativas
sum(fi);salidadetabla=[ clases, ni , fi ];

301
disp('clases frec.absolutas frec.relativas ');
disp(salidadetabla);

10.1.3.- Tablas de Frecuencias bi-dimensionales


Al considerar dos variables cualitativas, es posible obtener una
tabla de doble entrada de las respectivas frecuencias en celdas
dadas por las frecuencias de las respectivas clases o categorías,
de la sgte. manera
[tablax1x2, chi2x1x2,px1x2]=crosstab(variablex1variable); tablax1x2
;col1=tablax1x2(:,1);col2=tablax1x2(:,2)
latabla=table(col1, col2, 'VariableNames',{' clases1’ ‘clase2’….}, 'RowNames',{'clase21' clase22'…'})
disp('Nombre de variable1 según condiciones de variable 2');disp( ' variable1 vs variable
2');disp(latabla)

10.2.-Gráficos estadísticos
10.2.1.- Circulares
pie(latabla(:,2))
pie(cell2mat(tablaTipo1(:,2))); colormap autumn;
Color map no es sentencia necesaria, aunque tiene opciones:
spring summer autumn winter
Caso de variable cuantitativa x1 Cpital Inicial segmentada en c
clases con frec relativas fi:
explode = zeros(size(fi));[c,offset] = max(fi);explode(offset) = 1;
h=pie(fi,explode);colormap autumn;
% ahora agreguemos rotulos
textObjs = findobj(h,'Type','text');
oldStr = get(textObjs,{'String'});
val = get(textObjs,{'Extent'});
oldExt = cat(1,val{:});
Names = {'Emprendimientos CORFO: ';'Pequeñas Empresas: ';'Medianas
Empresas:';'Grandes Empresas Nacionales: ';'Holding Extrangeros: '};
newStr = strcat(Names,oldStr);
set(textObjs,{'String'},newStr)
val1 = get(textObjs, {'Extent'});
newExt = cat(1, val1{:});
offset = sign(oldExt(:,1)).*(newExt(:,3)-oldExt(:,3))/2;
pos = get(textObjs, {'Position'});
textPos = cat(1, pos{:});
textPos(:,1) = textPos(:,1)+offset;
set(textObjs,{'Position'},num2cell(textPos,[3,2]));
10.2.2.- Barras separadas
tablita=tabulate(Tipo1);
xdatos=cell2mat(tablita(:,1)); xrecuento=(cell2mat(tablita(:,2)))/n;
Procederemos segmentando en 4 partes la salida gráfica y ubicando en
cada cuadrante los siguientes gráficos
subplot(2,2,1); bar(xrecuento,'r'); title('Frec. Rel. en Gráfico de
barras vert.');
subplot(2,2,2); barh(xrecuento,'g'); title('Frec. Rel. en Grágico de
barras hor.');
subplot(2,2,3); bar3(xrecuento, 'b'); title('Frec. Rel. en Grágico de
barras vert.3D');
subplot(2,2,4); bar3h(xrecuento,'m');title('Frec. Rel. en Grágico de
barras hor. 3D');
para este caso, la paleta de colores de barras, se invoca mediante:
'b' , 'r' , 'g', 'b', 'c' , 'm' ,'y' ,'k', 'w'
% no admite variables nominales para rotular columnas

302
10.2.3.- Gráficos de Pareto
codelines = [200 120 555 608 1024 101 57 687];
coders = ...
{'Metropolitana','Valpso','Rancagua','Arica','Osorno','Temuco','Los
ndes','Renca'};
title('Diagrama Pareto');
pareto(codelines,coders );
Los gráficos de Pareto muestran los valores en el vector Y como barras
dibujadas en orden descendente. Los valores en Y deben ser no
negativos y no incluir NaN. Solo se muestra el primer 95% de la
distribución acumulada.
10.2.4.- Gráficos de Barras Agrupadas
bar([latabla(:,2) latabla(:,4)]); %barras de columnas 2 y 4 de latabla
bar(latabla(:,4),latabla(:,2));%barras col2 rotulando eje x con col4
bar3(latabla(:,2), Tipo1);% no la realiza por ser Tipo1 nominal tanto
en esta como toda otra que se utilice comando bar.
y = sin((-pi:pi).^2) ; % Put the baseline at y = -0.2
h = bar(y,'BaseValue',-0.2);
% Get a handle to the baseline
hbl = get(h(1),'BaseLine') ;
% Change to a red dotted line
set(hbl,'Color','red','LineStyle',':')

%http://5minutosdematlab.blogspot.cl/2011/10/como-hacer-un-diagrama-
de-barras.html

10.2.5.- Barras Subdivididas


Y = round(rand(5,3)*10) ;% aqui se crea una matriz de 3x3
bar(Y,'stacked'); title('Stack');

Gráficos de 5 observaciones y tres variables en 4 opciones a la vez


Y = round(rand(5,3)*10);% crea una matriz de 3x3
subplot(2,2,1); bar(Y,'grouped'); title('Group')
subplot(2,2,2); bar(Y,'stacked'); title('Stack'); % este es el
barras subdivididas habitual
subplot(2,2,3); bar(Y,'histc'); title('Histc')
subplot(2,2,4); bar(X,'hist'); title('Hist');
salvo mínimas modificaciones, se puede implementar para barras
agrupadas para k clases

10.2.6.- Gráficos de cajas (Box Plot)


figure()
boxplot(Produccion,Tipo1)
title('Produccion,agrupada según Tipo1')
Realiza gráfico de cajas, marcando valores extremos y destacando
mediante una caja demarcada por líneas inferior , central y
superior,cuya lectura en eje de las ordenadas proporciona valores
Q1, Q2 y Q3 ; 25%,50% 75% de las observaciones (sección 10.3 de este
anexo)
10.2.7.- Histogramas
figure(1)
[ni marcasdeclase]=hist(Produccion,6) %realiza histograma de
Produccion con 6 categorías, entregando frecuencia

303
absolutas y marcas de clases
grid on;
xlabel('Producción');
ylabel('Número de veces');
title('Histograma de Produccion');
hist(Produccion,Tipo1); % histograma por grupos

Para realizar histogramas con curvas de ajuste Normal u otras:


histfit(Produccion,6);
% secuencia entre -5 y 5 espaciodo en 0.01
x=-5:0.01:5
plot(x, normpdf(x,0,1))
r = normrnd(5,3,100,1);% simula una m.a(100 ) de N(5,9)
histfit(r); % histograma e incluye la curva normal más próxima
histfit(r,6); % histograma de 6 categorías y curva normal más
próxima
histfit(r,6, dist); % idem pero se puede escoger dist=densidad:
poisson, exponential, wbl, gp entre otras
Ejemplo : histfit(r,6,'t') histfit(r,6,'exp') reclama para datos
fuera de rango
histfit(Produccion,6,'exp')
Histograma en Coordenadas polares: muy apropiado y atractivo para
análisis por ejemplo de vientos o similares; se llaman diagramas
rose
wdir = [45 90 90 45 360 335 360 270 335 270 335 335];
wdir = wdir * pi/180;
rose(wdir)
hline = findobj(gca,'Type','line');
set(hline,'LineWidth',1.5)

10.2.8.- Ojiva con ajuste Normal (acoplada con aproximación Normal)


Permite comparar lo cercano entre ambas o pertinencia de Normalidad
[f, xvalores] =ecdf(Produccion); xvalores; f;
% xvalores los resultados de Produccion ordenados ascendentes
% f la Frec. rel acumulada

ecdf(zprod); % ojiva de Producción standarizada


zprod= (Produccion- mean(Produccion))/std(Produccion)
[f, x_values] = ecdf (zprod);
F = plot (x_values, f);f; x_values;
set (F, 'LineWidth' , 2); hold on;
G = plot(x_values, normcdf (x_values, 0,1), 'r-' );
set (G, 'LineWidth' , 2);
legend('Distribución ac.Empírica' ,'distribución ac.Normal sdt',-1
);
De esta manera se puede graficar cualquier comparación con otras
distribuciones

10.2.9.- Gráficos de Correlación simultáneos


plot(x1,x2,'+');plot(x1,x2,'r+'); plot(x1,x3, 'g*');
%Gráficos de correlación incluyen colores
scatter(x1,x2,50,'b','*');
es el mismo gráfico de correlación con más opciones
lsline ;% agrega recta MICO al gráfico anterior
plot(x1,x2,'r+',x1,x3,'g*'); % gráficos superpuestos
plot(x1,x3, '*');

304
Tipos de trazo +,-, --, :,.,0,x,*... entre otros
plot(x1,x2); %es un desastre ya que interpola todo automáticamente
plot(x1,x2,'rx:');
% marca diferente la interpolación entre otras opciones

10.2.9.- Gráficos Línea simultáneos


x=1:10 ; y1 = x + randn(1,10);plot(x,y1); % grafica la poligonal
th=linspace(0,2*pi,101);x=linspace(0,1,101)
y2=sin(2*th+pi/4); plot(x,y2,'k-');grid on; box off; axis off;% sin
ejes
y1=(cos(2*th + pi/4)) .*exp(-th); y3=(exp(-th)).*sin(2*th +pi/4)
plot(th,y1,'r',th,y3,'b--');
title('Dos gráficos linea en un mismo plano');
Para incluir leyendas se procede de la siguiete manera:
plot(th,y1,'r',th,y3,'b--');
xlabel('eje de las x'); ylabel('curva_1,curva_2 y_ curva_3');
title('Funciones de decaimiento sinusoidal')
legend('1^a curva','2^a curva',-1)
text(6,0.1,'convergencia asintótica')

% https://www.mat.ucm.es/~rrdelrio/documentos/rrrescorial2002.pdf
%http://ocw.upc.edu/sites/all/modules/ocw/estadistiques/download.php?file=51427/2011/1/54507/
tema_2_graficos_en_matlab-5150.pdf

10.3.-Medidas de Posición
Prom_Producccion=mean(Produccion) %Obtiene la media de Producción
mean(x1); %calcula pero no la hace visible como respuesta = valor
nanmean(x1); % media de x1 ignorando datos faltantes
mediadex1=mean(x1); % calcula y la almacena pro no la hace visible
como valor
grpstats(XXX,Tipo1); %grupos de medias de las variables que componen
XXX, según Tipo1
disp(' mediadex1'); disp(mediadex1); % imprime en dos lineas
fprintf('media de x1 = %6.8f \n',mediadex1);
%imprime en la misma linea con 4 decimales a distancia 6 del texto
fprintf('media de x1 = %6.4f \n',mean(x1));
% calcula e imprime en la misma linea con 4 decimales

X = [x1,x2,x3]; mean(X);
disp(' vector de medias del vector X de dimnsión=3'); disp(mean(X));
vectordemediasdeX =[mean(x1),mean(x2),mean(x3)]
range(x1)=max(x)-min(x); % calcula rango de x1
tiedrank(x5); Estadística de Rangos para las observaciones de x5
median(x1); % mediana
median(X); % mediana de las columnas de la matriz XXX de 27x3
nanmean(x1); % media incluyendo valores faltantes o perdidos
prctile(x1,50);% percentil alpha por ciento de x1 (admite matriz)es
decir si alpha*100=50 es la mediana
prctile(X,50); % percentiles 50% de la matriz XXXX
quantile es un comando que arroja cálculos erróneos por ello usamos:
Q3dex1=prctile(x1,75);Q1dex1=prctile(x1,25); % rango intercuartílico
iqr(x1); % rango intercuartílico
geomean(x1); % media geométrica
harmmean(x1); % media harmónica
trimmean(x1,0.2); % media recortada en ambas colas o truncada sin
10% o alpha/2 *100 de datos extremos,0<alpha<1

305
% winsorising(x1,alpha*100) no funciona media winzorisada como tal
reemplazando datos extremos por sus más cercanos
Ejemplos de aplicación de comandos: mediana, percentiles, media
Recortada
vectordemedianasdeX =
[prctile(x1,50),prctile(x2,50),prctile(x2,50),prctile(x3,50)]
w1= [0,0,2,2,3,4,4.1537,4.8,5, 5,6,90,153];
prctile(w1,50);
percentilesdew1= prctile(w1,[2.5 25 50 75 97.5]);% percentiles desde
2,5 PORCIENTO AL 97.5
disp('percentiles 2.5 Q1 Q2 Q3 97.5 porciento
para w1 = ');
disp(percentilesdew1);
mediaw1=mean(w1); medianaw1=prctile(w1,50);
fprintf('media de w1 = %6.4f \n',mean(w1));
t10w1=trimmean(w1,10); fprintf('media recortada en 10 por ciento de
w1= %6.4f \n',t10w1);
t20w1=trimmean(w1,20); fprintf('media recortada en 20 por ciento de
w1= %6.4f \n',t20w1);
t30w1=trimmean(w1,30); fprintf('media recortada en 30 por ciento de
w1= %6.4f \n',t30w1);
t40w1=trimmean(w1,40); fprintf('media recortada en 40 por ciento de
w1= %6.4f \n',t40w1);
t50w1=trimmean(w1,50); fprintf('media recortada en 50 por ciento de
w1= %6.4f \n',t50w1);
t95w1=trimmean(w1,95); fprintf('media recortada en 95 por ciento de
w1= %6.4f \n',t95w1);
Notemos que la media recortada trunca los alpha/2 porciento de valores
extremos tanto superior como inferior, cálculo que tiende a
aproximarse hacia la media

% http://benediktehinger.de/blog/science/matlab-winsorized-mean-over-all-
dimension/

10.4.- Medidas de Dispersión


var(w1);var(x1); var(x2); var(x3); var(X);
%calcula varianzas de variables o vectores, pero sin covarianzas
std(w1); std(x1); std(X);
% desviación estandard ;cde variable o de vector
std(x1) / mean(x1); % coeficiente de variación es desviación
std como porcentaje de la media
coeficientedevariaciondex1porcentual= 100*std(x1) / mean(x1);
% coeficiente de variación porcentual
Q1dew1 = prctile(w1,25); Q3dew1= prctile(w1,75) ;Q3dew1-Q1dew1;
% rango intercuartílico de w1
prctile(x1,75)- prctile(x1,25);% rango intercuartílico de x1

% https://www.mathworks.com/videos/new-spreadsheet-import-tool-in-r2011b-
69037.html

10.5.- Medidas de Forma


skewness(w1); % asimetría
kurtosis(w1); % curtosis

10.6.- Medidas de Asociación: Covarianza, Correlación, Chi-cuadrado


cov(x1,x2);% covarianza entre x1,x2

306
corr(x1,x2);% correlación entre x1 y x2
cov(X); % matriz de var cov de vector X dado por la matriz de
datos 27x3
corr(X); % matriz de correlaciones de Pearson
corrcoef(X); % también calcula matriz de correlaciones Pearson
[RHO,PVAL] = corr(a',b','Type','Spearman');% puede reemplazarse
Spearman por Pearson, Kendall ( para tau de Kendall)
[tablex1porx2,chi2x1porx2,pxiporx2]=crosstab(x1,x2)
% para variables cuantitativas debe armarse así como se hizo para las
clases en tablas de frecuencias. O bien recurrir a la sentencia en
su versión más de output: extensa [tbl,chi2,p,labels], con labels la
rotulación en caracteres de cada clase para ambas variables en esta
tabulación.
tablex1porx2;chi2x1porx2;pxiporx2; % valores que corresponden a
tabulación cruzada, Estadística Chi-cuadrado y su p-valor de
rechazo a hipótesis de independencia
[tablax1x2, chi2x1x2,px1x2]=crosstab(Tipo1,Tipo2);
tablax1x2; chi2x1x2 ;px1x2;
rng default; % for reproducibility
a1 = unidrnd(3,50,1);a2 = unidrnd(3,50,1);%dos m.a.(50)de U(1,3)
[tablea1a2,chi2a1a2,pa1a2] = crosstab(a1,a2); %Cross-tabulate x1,x2.
tablea1a2; chi2a1a2 ; % estadística Chi cuadrado
pa1a2; % p value de chicuadrado 2x2
% https://www.vitutor.com/estadistica/descriptiva/a_17.html

% para herramientas básicas de matlab véase


%https://books.google.cl/books?id=9Mas9j59TYIC&pg=PA34&lpg=PA34&dq=probabi
lidades+en+matlab&source=bl&ots=y-jwAloE32&sig=2Lp7k2H-
BscPXVAcj4qORPzXyoI&hl=es-
419&sa=X&ved=0ahUKEwj82KHOqIfXAhWEEZAKHVMOA3kQ6AEIPjAG#v=onepage&q=probabi
lidades%20en%20matlab&f=false

11.-Probabilidades
Elementos para Conteo
Combinaciones nchoosek(n,k)combinaciones n sobre k
factoriales factorial(n)=n!=prod(1:n) factorial de n
Arreglo para n=n1+n2+n3 objetos con repeticiones n1,n2,n3
arreglo=(factorial(n))/((factorial(n1))*factorial(n2))*factorial(n3))

12.- Variables Aleatorias


En esta sección, se distinguen las siguientes palabras claves:
cdf pdf inv rnd
para referirse a: distribución, densidad8discreta o contínua), valor
con probabilidad especificada, respuesta aleatoria (valor muestral)
Nombre Notación distribución densidad
Uniforme discreta unid unidcdf(valor,N) unidpdf
Binomial bino binocdf binopdf
Bin.Negativa* nbin nbincdf nbinpdf
Poisson poiss poisscdf(valor, lamda) poisspdf
Uniforme unif unifcdf(valor,a,b) unifpdf
Exponencial exp expcdf(valor, 1/lamda)) exppdf
Normal norm normcdf(valor, media,sigma) normpdf
Student t tcdf(valor , gl) tpdf
Fisher f fcdf(valor, gl1,gl2) fpdf
Chi-Cuadrado chi2 chi2cdf(valor,gl) chi2pdf

307
Weibull wbl wblcdf(valor, alpha,beta) wblpdf
Gamma gamma gammacdf(valor,alpha,beta)
gammapdf(x,alpha,beta)=gammainc(valor/beta,alpha)
Beta beta beta(valor, a,b) betapdf
* se encuentra programada para número extra de lanzamientos para
lograr k éxitos, por ello la v.a. parte de cero
12.2.- Histogramas con ajuste a distribución arbitraria
rng default;
b= betarnd(3,10,100,1);
%Construct a histogram using 10 bins with a beta distribution fit.
hold on
h=histfit(b,10,'beta')
h(2).Color = [.2 .2 .2]; % color curva
h2=histfit(b,10,'gamma')
h2(2).Color = [.5 .5 .5]
h3=histfit(b,10,'t')
h3(1).FaceColor = [.8 .8 1]; % color histogram
h3(2).Color = [2 2 2]
hold off
histfit(b,10,'kernel');histfit(b,10,'exp');histfit(b,10,'weib')
%https://www.mathworks.com/help/stats/histfit.html#d119e400211

12.3.- Valores de v.a. para probabilidad acumulada dada (Comando inv)

Para p valor de probabilidad acumulada (distribución F) disponemos


de la inversa de la correspondiente distribución F, como se muestra
en los sgtes. casos:
binoinv(y,n,p) norminv(p,mu,sigm) tinv(p, gl)
finv(p,gl1,gl2)
chi2inv(p,gl) wblinv(p,alpha,beta)

El caso v.a. Normal se dispone también de otra opción, aunque para


esta primera instancia se aparta de lopertinente:
[X,XLO,XUP] = norminv(P,mu,sigma,pcov,alpha) , entrega también
límites de confianza para X,cuando los parámetros de entrada mu y
sigma son estimaciones y se mantiene normalidad en todo. El
parámetro: pcov de esta sentencia, es la matriz de covarianza 2x2
de los estimadores de los parámetros media y S
alpha especifica 100 (1 - alpha )% de límites de confianza.
Ejemplo:
[valorcontalprobacumulada,liminf,limsup]=norminv(0.5,0,1,[1 0;0 1], 0.05)
proporciona :valorcontalprobacumulada=0, liminf=-1.96=-limsup
Un poco extensa en su construcción, pero claramente ilustra
intervalos de probabilidad alpha/2 para c/cola

12.4.- p-valor ( p-value)


Por ejemplo para el caso Xv.a. Normal(mu,sigma2), sabemos que:
z= P(a la derecha de valor)= 1- normcdf(valor, media,sigma)
z=P(z>0.79)= 1-normcdf(0.79,0,1)=1- 0.7852=0.2148
z=P(z>1.6)= 1-normcdf(1.6,0,1)=1- 0.9452=0.0548
norminv(0.95,0,1)=1.6449; norminv(0.975,0,1)=1.96
z=P(z>1.6449)= 1-normcdf(1.6449,0,1)=1- 0.95=0.05
z=P(|z|>1.6449)= 1-2* normcdf(1.6449,0,1)=1- 1.9=0.1
z=P(z>1.96)= 1-normcdf(1.96,0,1)=1- 0.975=0.025
z=P(|z|>1.96)= 2*(1-normcdf(1.96))=2*(1- 0.975)=0.05

308
12.5.- Transformaciones de una distribución
Para una v.a.X, con pd= fitdist(x,'Nombre de la distribucion')
los siguientes comandos indican:
cdf Función de distribución
icdf=inv Inversa da la Función de distribución
iqr (pd) Rango Intercuatilico
mean Media
median Mediana
negloglik -log verosimilitud de la densidad
paramci Intervalo confidencial para parámetro
pdf Función de densidad
proflik Profile función de verosimilitud
random Números Aleatorios
std Desviación Standard
truncate(pd,lower,upper) Densidad truncada
var Varianza

13.- Gráficos de distribuciones marcando puntos notables


disttool; permite disponer de un paquete interactivo, para graficar
distribuciones acumuladas y densidades de va.. trascendentes
13.1.- Gráfico para N(0,1)marcando puntos tales como +-1.96
t=linspace(-5,5,1200)
f=(t<=-1.96) .*(normpdf(t)) + (t>1.96) .* (normpdf(t))
plot(t,f,t, normpdf(t))
set(gca,'ytick', [0 0.1 0.2 0.3 0.4 0.5]);
set(gca,'xtick', [-1.96 1.96]);
13.2.- Gráfico N(mu,sigma), marcando areas de colas uni o bi-laterales
x=-4:.1: 4 ; y4= normpdf(x);
plot(x,y4) ;set(gca,'xtick', [-4 -3 -1.96 -1 0 1 1.96 3 4])
b3=normspec([-1.96 1.96],0,1,'outside' ) : b3
b1=normspec([-Inf -1.96],0,1);disp('b1=');b1;% b=0.0250
b2=normspec([1.96 Inf],0,1, );disp('b2=');b2;
p=normspec([0 4],4,1,'outside')
p=normspec([1 inf],4,1,'inside');%p=0.9987 área cola derecha desde 1.0
p=normspec([-inf 1.65],0,1,'inside'); %área interior p=0.955
p=normspec([-inf 1.65],0,1,'outside'); %área sin color p=0.0495
p=normspec([-1.65 1.65],0,1,'inside'); %área externa p=0.9011
p=normspec([-1.65 1.65],0,1,'outside'); %área interna p=0.0989
[p,h] = normspec([1-3/128,Inf],1,2/128,'outside'); %área externa al
intervalo p=0.0668

13.3.- Áreas bajo curvas de distribución arbitrarias


Ejemplificaremos con distribuciones Normales
13.3.1.-Gráficos: de curva y curva con 95% de área demarcada
x4=-5:0.001:5 ; y4= normpdf(x4);
subplot(1,2,1); plot(x4,y4); set(gca,'xtick', [ -1.96 1.96 ])
title(' Normal N(0,1)')
subplot(1,2,2);
Ahora recurriremos a dos elementos: uno para marcar sentencias a
efectuar en una sola representación, mediante hold on, hold off , y
otro para achurar área demarcada mediante splines.
hold on;
zzzz4=(x4<=-1.96) .*(0) +( x4>=-1.96 & x4<=1.96 ) .*
normpdf(x4)+ (x4>1.96) .* (0)
plot(x4, normpdf(x4));
yyyyf=spline(x4,zzzz4,x4); area(x4,yyyyf)

309
set(gca,'xtick', [ -1.96 1.96 ]) ; colormap autumn
title('Área Normal central del 95%')
hold off

13.3.2.- Areas críticas Normal dos colas y una cola superior al 5%


subplot(2,2,1)
z4=(x4<=-1.96) .*(normpdf(x4)) + (x4>1.96) .* (normpdf(x4))
plot(x4,z4,x4, normpdf(x4))
set(gca,'xtick', [ -1.96 1.96 ])
title('Normal con marcas en intervalo central del 95% ')
subplot(2,2,2)
zz4=(x4>1.96) .* (normpdf(x4))
plot(x4,y4,x4,zz4);% grafica tanto y4 como z4
set(gca,'xtick', [ 0 1.96 ])
title('Cola derecha Normal del 2.5% ')
subplot(2,2,3)
hold on
plot(x4,z4,x4, normpdf(x4))
set(gca,'xtick', [ -1.96 1.96 ])
yyf=spline(x4,z4,x4);
area(x4,yyf)
set(gca,'xtick', [ -1.96 1.96 ])
colormap autumn
title('Área Normal dos colas que suman 5%')
hold off
subplot(2,2,4)
hold on
plot(x4,y4,x4,zz4);
set(gca,'xtick', [ 0 1.96 ])
yf=spline(x4,zz4,x4);
area(x4,yf)
set(gca,'xtick', [ 0 1.96 ])
colormap autumn
title('Área Normal cola derecha del 2.5%')
hold off

14.-Generación de Muestras aleatorias


randtool; es un paquete interactivo para apreciar histogramas de
simulaciones de distribuciones trascendentes y diferentes
tamaños muestrales
Antes de proceder a simulación de datos, se recomienda reiniciar

310
semilla o garantizar reproductibilidad, en la sesión Matlab previo a
cada simulación, utilizando: rng('shuffle'); o bién rng default .

14.1.- Uso de comando rand para generar k m.a.(n)


randnotación(parámetros,n,k)
randi(10,4,1); %genera una m.a.(4) de enteros entre 1:10
randi([-10 10],100,1);%genera una m.a.(100) de enteros entre -10:10
rand(n); % genera solo m.a.(n) de U(0,1),
rand(4); %genera m.a.(4) U(0,1)
Caso N(0,1): randn(1,n); % genera solamente m.a.(n)N(0,1)
randn(1,3); % genera 3 m.a.N(0,1) de tamaño n=1
randn(3,1); % genera 1 m.a.N(0,1) de tamaño n=3
randn(3,5); % genera 3 m.a.(5)
5+9*randn(10,1); % genera 1 m.a.(10) de una N(5,81)
14.2.- Uso de comando rnd para generar k m.a.(n)
notaciónrnd(parámetros,n,k)
unidrnd(10,4,1); % también genera una m.a.(4) de enteros entre 1:10
Caso Normal arbitraria u otra se realiza similarmente:
normrnd(media,sigma, tamaño muestral, número de muestras)
normrnd(45,10,5,2) ; % genera 2 m.a(5) de N(mu=45,sigma=10)
normrnd(10,3,8,4) ; % genera 4 m.a.(8) de N(10,9)
r = normrnd(5,3,100,1); % simula una m.a(100 ) de N(5,9)

14.3.- Técnicas de Re-Muestreo mediante Bootstrap


Generación de Muestras mediante Bootstrap
Para un vector z1=[1 2 3 4 5 6 7 8 9 10] previamente establecido,
se puede calcular las medias de 3 m.a. sacadas de z1 mediante
Bootstrap de la sgte. manera:
bootstrp (3, 'mean', z1);
14.3.1.-Dada una muestra,obtención de medias en muestras Bootstrap
También es posible utilizar un comando con más estructura en
vez de lo recién mencionado
Por Ejemplo: para 30 muestras Bootstrap:
[bootstat,bootsam] = bootstrp (30, @ mean, z1);
Donde:
bootsam(:,1:3); % contiene c/ u de las primeras 3 re-muestra de
30 Bootstrap de tamaño 10 igual al total datos
bootstat(1:3,:); % entrega las respectivas medias por muestra
hist(bootstat); % histograma de las medias de todas las muestras
Bootstrap solicitadas
bootci(30,@ mean,z1); % intervalo confidencial la media de 30
muestras Bootstrap de z1
14.3.2.- Dada una muestra bi-dimensional, obtención de correlaciones en
muestras Bootstrap
Para generar muestras de correlaciones
También se hace posible mediante Bootstrap. Lo cual ilustraremos
usando base de datos lawdata:
load lawdata ; % llama a base de datos interna denominada lawdata
rhos10 = bootstrp(10,'corr',lsat,gpa);
plot(lsat,gpa,'+');lsline ; % grafica dos variables y hace recta MICO
El correspondiente intervalo confidencial para este caso mediante
Bootstrap:
ci = bootci(5000,@corr,lsat,gpa);

14.3.3.- Generación de muestras Bootstrap de v.a. con distribución


especificada:

311
Por ejemplo, calcular la media de 40 muestras Bootstrap sacadas de
entre una muestra original de tamaño de exponencial de parámetro 5
y = exprnd(5,10,1);
m = bootstrp(40,@mean,y);
[fi,xi] = ksdensity(m);
plot(xi,fi);

https://www.mathworks.com/help/stats/resampling-statistics.html#bq_u9bq

15.- Inferencia
15.1.-Dócimas en muestras procedentes de una población Normal.
A manera de introducción, respecto a la obtención de Intervalos de
Confianza así como regiones Críticas, podemos mencionar que
operacionalmente las metodologías nos conducen a considerar el
puntaje Z o estandarización de una v.a. X con distribución
Normal,N(mu,varianza(X)), y proceder de l sgte. manera:
mu=E(X)
Z=(dato-E(X))/sqrt(V(X)) que es N(0,1)
norminv([0.025 0.975]); da como resultado : -1.9600 1.9600
cada dato puede estar entre tales extremos un 95% de las veces
E(X)+ norminv([0.025 0.975]) *sqrt(V(X)
E(X)+ [-1.96 1.96]) *sqrt(V(X))
[E(X)-1.96*sqrt(V(X)) E(X)+1.96*sqrt(V(X))]
Para E(X)= 20, V(X)=9:
[20-1.96*sqrt(9) 20+1.96*sqrt(9)]
el resultado es : [14.1200 25.8800]
por tanto el 95% de los datos (resultados) del experimento se
encuentran entre tales valores. Además valore muestrales cuya media
no se encuentre en tal intervalo, pondría e en duda la validez del
supuesto E(X)= 20.

15.1.1.- Una m.a. Normal N(mu, V(X))


15.1.1.1.- Intervalo de Confianza para la media mu de X Normal
Caso: V(X) conocida
Disponiendo de:
x1, x2 , x3,....xn; una m.a.(n) de X, sigma=sqrt(V(X)) conocida;
disponemos de:
n= size(x), media muestral es mean(x),
z= (mean(x)-mu)/ (sigma/sqrt(n)) tiene comportamiento N(0,1)
mean(x)+ norminv([0.025 0.975])*sigma/sqrt(n)) es intervalo
de confianza del 95% para mu.
Ejemplo: Para una m.a. x=[1,3.3,1,4,2,3,4,5,4,3,5,5.8]
Calculamos n=size(x); mean(x);
z= (mean(x)-mu)/ (sigma/sqrt(n))
mean(x)+ norminv([0.025 0.975]) *sigma(X)/sqrt(n))
[mean(x)-1.96*sqrt(V(X))/sqrt(n) mean(x)+1.96*sqrt(V(X))/sqrt(n)]
[3.425-1.96*sqrt(V(X))/sqrt(n) 3.425+1.96*sqrt(V(X))/sqrt(n)]
al considerar sigma=3, valor que se nos informa conocido,
[3.425-1.96*3/3.4641 3.425+1.96*3/3.4641] = [ 1.7276 5.1224]
Caso: V(X) desconocida
Para suplir dicha información original. recurrimos a sigma=std(x),
Z= (mean(x)-mu)/ (std(x)/sqrt(n)) tiene comportamiento t(n-1)
mean(x)+ [-tinv(0.975,n-1) tinv(.975,n-1)]*std(x)/sqrt(n)
3.425+ [-2.2010 2.2010]*std(x)/sqrt(n)
[ 3.425-2.2010*std(x)./sqrt(n) 3.425+2.2010*std(x)./sqrt(n)]
[ 3.425-2.2010*0.4418 3.425+2.2010*0.4418]= [ 2.4526 4.3974]
15.1.1.2.- Test respecto a la media

312
[h,ptest] = ttest(x,mu,alpha,'colas')
colas= right, left, both
alpha es nivel de significación 0.05 usualmente
Dispongamos de la m.a. x=1:2:100;
Ejemplo:
Test Ho: mu=0,H1: mu ~= 0; ttest(x); entrega solo la decisión
El caso de test: H0: mu=mu0,H1: mu ~= mu0, con mu=40
[h,p,ci,stats]= ttest(x,mu0,0.05,'both')
stats proporciona Estadística T gl std=S
h es la decisión: h=1 rechazar , h=0 no rechazar
both se refiere a H1 bilateral:
p-value = 2(l-valor deP( t(gl)> valor absoluto de T )) =0,0190,
area dos colas 2*(1-tcdf(2.4254,49))
Para docimar h0: mu>40 [h,p,ci,stats]= ttest(x,40,0.05,'left')
resulta p=0,9905
Para docimar h0: mu <40
[h,p,ci,stats]= ttest(x,40,0.05,'right'), resulta p=0,0095 , la
mitad de 0,0190
ci: es intervalo de confianza 1-alpha, ciinf cisup

15.1.2.- Dos m.a.Normal


Test diferencia de medias (poblac. independientes')
ttest2(datosgrupo1,datosgrupo2)
Ejemplo: x=1:2:100 ; y=1:3:120; [hh1,pp1,cc1i,sstats1]=ttest2(x,y)

15.1.3.- Una m.a Normal Pareada (dim=2)


Test diferencia de medias ')
Disponmos de dos sentencias con idénticos resultados:
ttest(datosantes,datosdespues)
ttest(datosantes-datosdespues)

Ejemplo: x=1:2:100 ;y=9*x/10


[h1,p1,c1i,stats1]=ttest(x-y)
[h2,p2,c2i,stats2]=ttest(x,y)

15.2.- Tests de Bondad de ajuste para v.a.X basados en estadísticas:


Chi-cuadrado, Kolmogorov_Smirnov, Shapiro-Wilk Lilliefors
ᵡ2 K-S S-W Lill
15.2.1.- Gráficos de superposición entre F distribución empírica
estandarizada de X y F teórica dada por N(0,1).
Ilustraremos este procedimiento a través de una m.a.(40) de N(5,9)
x=5+9*randn(40,1)
mean(x); std(x); z=(x-mean(x))/std(x);
[fx,x_valores] = ecdf(x);% distribución (acumulada) empírica
[fz,z_valores] = ecdf(z);
subplot(2,1,1)
hold on;
F = plot(z_valores,fz); set(F,'LineWidth',2);
G = plot(z_valores,normcdf(z_valores,0,1),'r-');
set(G,'LineWidth',3);
legend([F G],'CDF empírica, CDF N(0,1)','Location','SE');
title('Grafico distribución Empírica y Normal ajustada')
hold off
subplot(2,1,2)
hold on;
Fx = plot(x_valores,fx); set(Fx,'LineWidth',2);
Gx = plot(x_valores,normcdf(x_valores,mean(x),std(x)),'r-');

313
set(Gx,'LineWidth',3);
legend([Fx Gx],'CDF empírica, CDF N(0,1)','Location','SE');
title('Grafico distribución Empírica Std y Normal(0,1)')
hold off
15.2.2.- Test Chi-cuadrado
pd=fitdist(datos, ‘nombre distribución’); %estima la distribución
entrega parámetros y respectivos intervalos confidenciales.
[h,p,stats]=chi2gof(datos, nombrecdf,pd );% h=0,1 decisión aceptar,
rechazar, p-value, valor estadística Chi-cuadrado
15.2.3.- Test K-S
15.2.3.1. Caso Normal totalmente especificada
test H0: F es N(0,1) , H1: F no N(0,1), nivel de sig. alpha=5%
Siendo Z la estandarización de X
[ hks , pks, statks , cvks ] = kstest(Z);
hks;pks;statks ; cvks;
Entrega valor de la estadística de prueba= ksstat y el p-valor
valor crítico aproximado cv del test.
15.2.3.2.- Caso General y no totalmente especificada
Lo ilustraremos con distribución Normal, pudiendo ser cualquier otra
de entre el listado mencionado en 12. columna cdftest H0: F es
Normal , H1: F no Normal , nivel de sig. alpha=5. Los parámetros se
determinan a través de los estimadores Máximo Verosímil:
CDFall=normcdf(x,mean(x),std(x));
[H,P,KSSTAT,CV] = kstest(x,[x,CDFall],0.05)
15.2.4.- Test Lilliefors
Ho: F es Normal de parámetros (mu,sigma), nivel de sig. alpha=5%
Parámetros que se estimasn mediante (mu,sigma)=(media,S)
[H,P,LSTAT,CV] = lillietest(x);
15.2.5.- Test Shapiro-Wilk
Siendo F teórica una distribución Normal( mu,sigma)no especificados
o bien F es Exponencial de parámetro lambda no especificado . En
cualquiera de los casos, tales parámetros se estiman según máxima
verosimilitud.
Ho: F es Normal de parámetros (mu,sigma), nivel de sig. alpha=5%
Parámetros que se estimasn mediante (mu,sigma)=(media,S)
[H, pValue, SWstatistic] = SWTEST(x)
O bien [H, pValue, SWstatistic] = SWTEST(x), 0.05)
Por default resuelve F Normal al 5%, e igualmente se puede
implementar:
lillietest(MPG,'Distr','exp')

https://www.mathworks.com/help/stats/kstest.html
htts://ocw.mit.edu/courses/mathematics/18-443-statistics-for-applications-
fall-2006/lecture-notes/lecture14.pdf
http://radio.feld.cvut.cz/matlab/toolbox/stats/kstest.html

16.- ANOVA
16.1.- ANOVA a un factor o comparación entre tratamientos
Ejemplo:
ds = dataset(MPG,Weight);
ds.Year = ordinal(Model_Year);
mdl = LinearModel.fit(ds,'MPG ~ Year + Weight^2');
tbl = anova(mdl)
tb2= anova(mdl,'summary')
o bien directamente utilizando:
[p,tbl.stats]=anova1(variabledependiente,variablegrupo)

314
16.2.- ANOVA a dos factores e interacción
load popcorn
popcorn
p=anova2(popcorn,3);% para diseño balanceado
Entrega salida en dos ambientes: en Cwindows y
en el ambiente gráfico una tabla Anova casi completa detalla
lo mismo; pero falta p-value de la propia ANOVA
16.2.- ANOVA para más de 2 factores e interacciones
p = anovan(y,{g1 g2 g3}),% excluye interacciones
p = anovan(y,{g1 g2 g3} ,'model', 'interaction', 'varnames',
{'g1','g2','g3'})

17.- Regresión Mediante Método de Mínimos Cuadrados


Para Modelos de regresión, véase: http://www.um.es/ae/FEIR/40/
17.1.-LSquare se encuentra disponible en ambiente Cwindows interactivo.
17.2.- Obtención del modelo clásico MICO
regress dispone de opciones para el MCRL ( modelo clásico
de regresión lineal múltiple): coeficientes,predicción y error
Ejemplo:
y=x1; % variable dependiente, variables explicativas x2 y x3
X=[one(size(y)) x2 x3]
[b,bint,r,rint,stats]=regress(y,X, alpha);
Significancia alpha, por defaul es 0.05
b : betas
bint : intervalo para betas del 1-alpha % de confianza
r : residuos
rint : intervalo c/u residuos, cuyos casos que no contengan al 0
se consideran influyentes
stats : coeficiente de determinación (R cuadrado) estadística F,
p-value, MSCE
17.3.- Tabla ANOVA para modelo clásico MICO
fitlm muestra una tabla Anova más completa que incluye
significancia de cada coeficiente.
Ante una tabla, sobre la cual se aplicará, asume la última
variable como dependiente, salvo que se especifique otra.
Ejemplo:
tbl = table(x2,x3,y); lm = fitlm(tbl,'y~x2+x3');lm
17.4.- Ajuste polinomial
polyfit permite disponer de un polinomio de grado arbitrario, según
método de mínimos cuadrados , expresado mediante una variable
unidimensional(explicativa), como ajuste para una variable
dependiente
p = polyfit(x,y,n)
A partir de una secuencia (x,y) de datos en el plano, ajusta a Y un
polinomio Pn(x) =p de grado n en x.
p proporciona los los n+1 coeficientes, p(n+1) es el término cte.
Al disponer de x1=linspace(min(x),max(x)) una colección de por ejemplo
100 valores, calculando y =polyval(p,x1) podemos disponer de la curva de
ajuste, que al representarlas simultánemente permite apreciar en muchos
casos lo errático (o aertado) del método.

Ejemplo: Para n=7 y 9


x= linspace (0,6*pi,10);y = sin(x);x1=linspace(0,6*pi);
p=polyfit(x,y,n);y1=polyval(p,x1);figure;plot(x,y,'o');

315
hold on;plot(x1,y1);hold off

https://www.youtube.com/watch?v=znrrQcCFugI;%Regresión Múltiple paso a paso

18.- Simulación Estadística de Procesos

La teoría de colas es el estudio matemático de filas de espera.


Enfoque aplicado a distintos tipos de problemas de planificación,
asignación de recursos y flujos en redes, entre otros. Lo cual
involucra desarrollos, procedentes principalmente, de áreas del
conocimiento tales como:
Investigación operativa
Ingeniería industrial, mecánica,eléctrica, obras civiles
Diseño de redes
Arquitectura informática
La teoría de colas permite explorar, modelar, medir y analizar
formalmente tiempos de llegada, espera, demora, así como cantidades
de objetos en espera y/o dentro de un sistema simple, lo cual se
extiende a sistemas complejos mediante descomposición de algoritmos de
simulación par sistemas en serie o paralelo. Además todo esto se hace
posible de implementar, para sistemas de arquitectura compleja,
gracias a la utilización de paquetes computacionales orientados al
evento como Arena o Simulink de MATLAB, al cual nos referimos a
continuación.

18.1.- Simulink
Es un paquete de herramientas orientadas al evento para realizar
emulaciones y representaciones gráficas de experimentos o procesos, y
en especial; simulación estadística de procesos, a partir del marco
referencial de la teoría de filas, cuyos elementos principales son
cliente y servidor.
Modulo: SimEvents

Entidades:
Las simulaciones de eventos discretos involucra ítems discretos de interés. Por definición, esos ítems
son llamados “Entidades”

Ejemplo:

Aviones esperando acceso a la pista (en un Aeropuerto con cola de acceso a la pista).

316
Un bloque gráfico puede representar un componente que procesa las entidades, pero las propias
entidades no tienen una representación gráfica. Al diseñar y analizar la simulación de eventos
discretos, es posible optar por centrarse en las propias entidades o en los procesos que sufren. Por
ejemplo, se podría plantear preguntas sobre el tiempo medio de espera para una serie de entidades
entrando en una cola, o preguntas acerca de etapa en un proceso de múltiples pasos (que las entidades
objeto) es más susceptible al fracaso.

Evento:
En una simulación de eventos discretos un evento es un incidente instantáneo discreto que produce
cambios en variables de estado, salidas, y / o la ocurrencia de otros eventos. Ejemplos de eventos de
este que se emplean en este Toolbox son:

 El avance de las entidades de un bloque a otro.


 La realización del servicio a una entidad en un servidor.
 Un cruce por cero de una señal conectada a un bloque que está configurado para reaccionar a los
cruces por cero. Estos eventos también se llaman los bordes de disparo.
 Una llamada a la función, que es una solicitud de invocación discreta de un bloque a otro bloque por
una señal especial llamada función de la señal de llamada. Se recomienda hacer las llamadas a función
usando “Stateflow” de Simulink.

Colas:
En una simulación de eventos discretos, una cola almacena entidades con una cierta extensión de
tiempo que no se puede determinar con antelación. Se intenta que las entidades salgan de la cola tan p
ronto como sea posible, pero su éxito depende de si el siguiente bloque acepta nuevas entidades.

Características distintivas de diferentes tipos de colas incluyen:

 La capacidad de la cola, número de entidades de la cola puede almacenar de forma simultánea.


 La disciplina de la cola, que determina que entidad sale primero si la cola almacena varias entidades.
En algunos casos, una cola en un modelo es similar a un aspecto del sistema análogo del mundo real
que está siendo modelado. Este tipo de cola se llama a veces una cola física. Por ejemplo:

 Aviones de espera para acceder a una pista.


 Mensajes en espera para ser enviados.
 Piezas a la espera de ser ensamblado en una fábrica.
 Los programas de ordenador a la espera de ser ejecutado.
En otros casos, una cola en un modelo no se plantea de manera evidente del sistema del mundo real,
sino que se incluye con fines de modelización. Este tipo de cola es una cola a veces se llama lógica.
Por ejemplo, podría utilizar una cola para proporcionar un área de almacenamiento temporal para las
entidades que de otra manera no tienen dónde ir. Este uso de una cola de lógica puede evitar
estancamientos o simplificar la simulación.

Servidores
En una simulación de eventos discretos, un servidor almacena entidades por determinado tiempo,
llamado el tiempo de servicio, y después despacha a la entidad. Durante el período de servicio, el se
dice que el servidor está al servicio de la entidad que almacena.

El tiempo de servicio para cada entidad se calcula cuando llega, lo que contrasta con el
desconocimiento inherente del tiempo de almacenamiento para las entidades en las colas. Si el
siguiente bloque al servidor no acepta la llegada de una entidad que ha completado su servicio, el
servidor se ve obligado a sostener la entidad por más tiempo.

317
Características distintivas de los diferentes servidores:

 El número de entidades que el servidor puede procesar al mismo tiempo, lo que podría ser finito o
infinito.
 Características de (o el método de procesamiento) el tiempo de servicio para las entidades que llegan
al servidor.
 Si el servidor permite o no, a ciertas entidades adelantarse a las entidades que ya están almacenados en
el servidor.
En algunos casos, un servidor de un modelo es similar a un aspecto del sistema análogo del mundo real
que está siendo modelado. Por ejemplo, podría usar un servidor para representar:

 Una persona (como un cajero de banco) que realiza una transacción con cada llegada de los clientes.
 Un transmisor que procesa y envía mensajes.
 Una máquina que reúne las piezas en una fábrica.
 Un equipo que ejecuta programas.

Creando un modelo sencillo con SimEvents

Para mostrar como se utiliza esta poderosa herramienta de Matlab, partimos creando un modelo
sencillo:

Un sistema de líneas de espera, en el que los "clientes" - entidades - llegan a una tasa fija
determinista, esperan en una cola, y avanzan a un servidor que opera a una tasa fija determinista. Este
tipo de sistema se conoce como un sistema de espera en cola D/D/1. La notación indica una tasa de
llegadas determinista, una tasa de servicio determinista, y un único servidor.

El diagrama de bloques implementado es el siguiente:

Configuración de los parámetros de cada bloque:

Cada bloque posee un cuadro de dialogo en el que se setean los parámetros deseados. En este ejemplo
inicial se busca configurar los bloques para crear un gráfico que muestre cuando cada entidad sea
despachada del servidor, asumiendo una población infinita en la cola.

“Time-Bases Entity Generator”: este bloque genera entidades usando intervalos de tiempo o a través d
e distribuciones estadísticas. En este caso, se configura para que genere una Entidad cada 1 segundo
(tasa determinista).

318
“Fifo Queue”: Este bloque almacena N entidades con la secuencia FIFO (Firts In Firts Out) durante un
periodo de tiempo (N capacidad de almacenamiento, numero de entidades que puede almacenar). En
nuestro caso se setea con capacidad infinita.

“Single Server”: Este bloque procesa una entidad por un período de tiempo, y entonces intenta
despacharla a través del puerto OUT. Si el puerto de salida está bloqueado, entonces la entidad se
mantiene en este bloque hasta que la salida de este bloque esté desbloqueado. En este caso, el tiempo
de servicio se establece en 1, lo que significa que el servidor emplea 1 segundo procesando cada
entidad que llega recibe.

319
“Entity Sink”: este bloque permite o bloquea entidades. Permite poner fin al camino de una entidad. En
nuestro caso se setea para que permita recibir las entidades que salen del bloque “Single Server”.

“Signal Scope”: Este bloque permite mostrar gráficamente los resultados obtenidos de la simulación.
No requiere configuración.

Resultados obtenidos, son de la forma:

320
'
http://dgf.uchile.cl/rene/GF600/Apunte_de_MATLAB.pdf
https://es.mathworks.com/discovery/teoria-colas.html
https://es.scribd.com/document/265658394/Queue-System-SIMULINK-MATLAB-pdf

http://ocw.upc.edu/sites/all/modules/ocw/estadistiques/download.php?file=5
1427/2011/1/54513/tema_5_simulink-5156.pdf

321
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

Índice

A
Achatamiento 27 Desviación mediana 26
Aleatorio 33 Discordancias 29
Álgebra de sucesos 34 Disjuntos 36
Amplitud 26 Distribución 49,74
Análisis de número de servidores, 209-212 Efectos de tratamientos 139
Asimetría 27 Eficiencia 105
Asintóticamente insesgado 106 Eficiencia relativa 105
Erlang 53,159,185,186
B Error cuadrático medio 103
Bondad de ajuste 130 Error tipo I, tipo II 99,123
Binomial 53,72, 97 Escala cualitativa, variable cualitativa 15
Binomial negativa 38,72 Escala cuantitativa, variable cuantitativa 15
Borel 36 Escalas de medición 15
Espacio de probabilidad 33,36
Espacio medible 35
C Espacio muestral 33
Cambio de variable 63, 84 Estadística como Ciencia 13
Cantidad de información de Fisher 104 Estadística descriptiva 15
Capacidad Finita 163 Estadísticas 23,100,111,123
Carga ofrecida 159 Estadísticas condicionadas 26
Casi seguramente 92 Estadísticas de Asociación 28
Casos favorables, posibles 37 Estadísticas de curtosis 27
Categorías 17 Estadísticas de Dispersión 26
Chebychev 68 Estadísticas de Forma 27
Chernoff 68 Estadísticas de Posición 23
Chi-cuadrado 29,72,131 Estadísticas de orden 23
Clases 17 Estadísticas de simetría 27
Clasificación de variables 15 Estadísticas marginales 26
Coeficiente de determinación 28 Estimación de efectos de tratamientos 144
Coeficientes de correlación 28,87 Estimación por conj. confidenciales 111
Completa 108 Estimación puntual 100
Concordancias 29 Estimador 100
Condicional 18, 39, 79 Estocástico 33
Conjuntamente independientes 40,80 Etapas del Método Científico 13
Consistente 106 Etapas del Método Estadístico 14
Convergencia 93 Excluyentes 36
Convolución 81 Exponencial 53,73,108
Correlación 28
Costos en lineas de espera 151,209,212
Cota de Cramér-Rao 105
F
Covarianza 28,87 Factor de utilización del sistema 154
Cuantía 51,54,72 Familia completa 108
Cuartiles 24,59 Familia exponencial 108
Curtosis (achatamiento) 27,67,72,73 Fisher 104
Frecuencias absolutas, relativas 17
Frecuencias marginales, condicionales 18
D Función característica 70
Densidad 51,54,73 Función de distribución 47,74
Descomposición de la varianza 27,141 Función de pérdida
Desigualdades 68,194 Función de potencia 123
Desviación estándar 26 Función de regresión 87
Desviación media 26 Función de verosimilitud 101

323
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

G
Gamma 53,73 Métodos Montecarlo 226
Generación de números aleatorios 66 Métodos Recursivos 233
Generadoras de momentos 69 Método de Composición 235
Generación de variables al. discretas 230 Mínimo entre v.a. 82
Gráficos estadísticos 20 Minkowski 68
Moda 23
Modelo de efectos fijos 139
H Modelo Probabilístico 54
Hipergeométrica 53,72 Modelos discretos, continuos 54
Histograma 20 Momento de orden r respecto a 67
Holder 68 Momento factorial de orden r 69
Muestra aleatoria 80
Muestreo 14
I Multinomial 76
Independencia 19,80,134
Indicadores de asimetría, curtosis 27
Inferencia estadística 99 N
Insegado 103 Nivel de confianza 112
Intensidad de tráfico 159 Nivel de significación 123
Intervalar 15 Nominal 15
Intervalos confidenciales 112 Normal 53,73,76
Número de clases 17
J Número medio en el sistema 155
Jennsen 68 Números pseudos aleatorios 223
Número medio en espera 155
K
Kendall 29 O
Ocio del servidor 177
L Ocurrencia de sucesos 34
Lindeberg 96 Ojiva 20
Little 160 Operador de salto parcial 74
Logaritmo de verosimilitud L 101 Ordinal 15
Ley Débil de los Grandes Números 93
Ley Fuerte de los Grandes Números 94 P
Partición minimal 107
M Partición suficiente 107
Marginal 18, 79 Pearson 28
Matlab 286 Percentil 24,59
Máxima verosimilitud 101 Población 14
Matriz de varianzas covarianzas 87 Poisson 34, 36, 40
Máximo entre v.a. 82 Polígono de frecuencias 20
Media 23, 67, 85 Pollaczek-Khinchin 170,
Media condicional 27, 87 Potencia uniformemente máxima 124
Media cuadrática 106 Probabilidad 36
Mediana 23,57 Probabilidad condicional 39
Medida de probabilidad 36 Probabilidad de error tipo: I, II 123
Método Aceptación-rechazo 242 Proceso Poisson 57,155,237
Método Científico 13 Proceso Poisson no Homogéneo 239
Método de los momentos 102 p-value 125
Método de máxima verosimilitud 101
Método de Transformada Inv. 230
Método Estadístico 14

324
Procesos Estocásticos para Ingeniería Luis Felipe Figueroa

R
Rango 23
Recorrido continuo 15

Recorrido discreto 15
Región crítica 123
Regiones confidenciales 110

S
 - álgebra de sucesos 19
Significación (significancia) 123
Simulación de Proc Poisson 237,239
Simulación de una v.a. Normal 248
Simulación de Normal Multivariada 250
Snedecor 74,84,86
Soporte 51
Spearman 29
Student 73, 84
Suceso 34,
Sucesos disjuntos o excluyentes 36
Suficiente 107

T
Tabla ANDEVA 142,148
Tablas de frecuencias 17
Tamaño del recorrido 15
Tasa de efectividad 159
Tasa de flujos 160
Teorema de factorización 107
Teorema del cambio de variable 63,81
Teorema Rao-Blackwell 107
Tiempo de demora 154
Tiempo de espera 154
Teorema Central del Limite 96
Transformaciones aleatorias 63,81
Transformada de Fourier de v.a. 70
Tratamientos 140

U
Uniforme 72

V
Valor esperado 67,72,73,85
Variable aleatoria 47
Varianza muestral 26
Vector aleatorio 74
Verosimilitud 101

W
Weibull 74

325

Anda mungkin juga menyukai