Anda di halaman 1dari 32

SIMULACIÓN DE

MONTECARLO

Ing. Cesar Abel Villar Rodríguez


Que es la simulación Monte Carlo?
• Método computacional o manual usado para estudiar el comportamiento
de:
– Sistemas matemáticos, físicos o de cualquier índole, a partir del uso de muestreo
estadístico, números aleatorios y pseudo-aleatorios.
• Es iterativo requiere cálculos por computador, para facilitar y tener una
mayor precisión.
• Las técnicas de Monte Carlo pueden ser usadas para encontrar soluciones
aproximadas a problemas cuantitativos, con o si incertidumbre.
• Se atribuye a Stanislaw Ulam, matemático polaco que trabajo para John
von Neumann en el proyecto Manhattan durante la segunda guerra
mundial .
• No inventó el muestreo estadístico, pero reconoció la el potencial de los
computadores electrónicos para automatizar el proceso.
Que es la simulación Monte Carlo?
• Trabajando con John von Neuman y Nicholas Metropolis, desarrollo
algoritmos de implementación.
• Exploró formas de convertir problemas no aleatorios en formas aleatorias
para ser solucionados via muestréo estadístico.
• En este curso, usaremos la simulación Monte Carlo para el tratamiento de
problemas y modelos con incertidumbre.
• Partiremos de modelos matemáticos que describan un problema o
situación y a los cuales se les incorporarán componentes probabilisticos.
Poniéndonos en contexto
• Hay dos componentes que pueden generar aleatoriedad en un
modelo.
– Riesgo: es un efecto aleatorio propio del sistema bajo análisis. Se
puede reducir alterando el sistema.
– Incertidumbre es el nivel de ignorancia del evaluador acerca de los
parámetros que caracterizan el sistema a modelar. Se puede reducir a
veces con mediciones adicionales o mayor estudio, o consulta a
expertos.
• La Variabilidad Total es la combinación de riesgo e
incertidumbre.
• Tanto el riesgo como la incertidumbre se describen mediante
variables aleatorias que hacen parte de las variables presentes en
el modelo.
Para que necesitamos modelar variables
• El riesgo no es algo que se "sufre", el riesgo es algo que se puede
administrar.
• Por lo tanto el riesgo se puede administrar:
– Negociar las variables negociables
– Buscar más información
– Aumentar el compromiso
– Tomar precauciones adicionales
– Compartir el riesgo
– Transferir el riesgo
– Formular planes de contingencia
– No tomar medidas y asumir el riesgo
– Cancelar el proyecto
En que nos ayuda Montecarlo
• Diseñar el modelo matemático que representa el problema con
incertidumbre.
• Especificar distribuciones de probabilidad para las variables
aleatorias relevantes.
• Incluir posibles dependencias entre variables.
• Muestrear valores de las variables aleatorias.
• Calcular el resultado del modelo según los valores del muestreo y
registrar el resultado.
• Repetir el proceso iterativamente hasta tener una muestra
estadísticamente representativa.
• Obtener la distribución de frecuencias del resultado de las
iteraciones.
• Calcular media, desvío y curva de percentiles acumulados.
Análisis de escenarios
• Debido a que la simulación monte carlo involucra la generación
de un numero alto de escenarios
• También puede ser entendida como una forma mas completa de
realizar análisis de escenarios o análisis que pasaría si es que
Fundamentos de probabilidad para simulación.
• Variables Aleatorias
– Distribuciones de probabilidad
– Ley de los grandes números.
– Teorema del límite central.
• Una Variable aleatoria X es una función cuyos valores son
números reales y dependen del “azar”.
• Para caracterizar las variables aleatorias se utilizan las
distribuciones de probabilidad.
Fundamentos de probabilidad para simulación
• Distribuciones de probabilidad

• Una distribución de probabilidad describe el rango de


valores que puede tomar una variable aleatoria y la
probabilidad asignada a cada valor o rango de valores.
Distribución de probabilidad
• Las distribuciones de probabilidad son idealizaciones de los polígonos de
frecuencias.
• En el caso de una variable estadística continua consideramos el histograma
de frecuencias relativas.
• Se comprueba que al aumentar el número de datos y el número de clases
el histograma tiende a estabilizarse llegando a convertirse su perfil en la
gráfica de una función.

• Las distribuciones de probabilidad de variable continua se definen


mediante una función y=f(x) llamada función de probabilidad o función de
densidad.
Distribución de probabilidad
• Así como en el histograma la frecuencia viene dada por el área,
en la función de densidad la probabilidad viene dada por el área
bajo la curva, por lo que:
• El área encerrada bajo la totalidad de la curva es 1.
• Para obtener la probabilidad P(a<=x<=b) obtenemos la proporción de área que hay
bajo la curva desde a hasta b.
• La probabilidad de sucesos puntuales es 0, P(X=a)=0
• Parámetros en una distribución de probabilidad
• Por analogía con las variables estadísticas podemos definir también aquí la media
m y la desviación típica s de la variable aleatoria.

•La media m, también llamada esperanza matemática, •La desviación típica s es una medida de la dispersión de
es un valor representativo de todos los valores que toma los valores que toma la variable aleatoria de la media.
la variable aleatoria X, lo podemos imaginar como el Como ocurría con las variables estadísticas la desviación
punto sobre el eje de abscisas donde al poner una cuña típica será más pequeña o más grande según la gráfica de
la figura plana definida por la función de densidad la función de densidad sea más estrecha o más ancha en
quedará en equilibrio. Para calcularla hemos de torno a la media. En este caso se
hacer: calcula:
Parámetros en una distribución de probabilidad
• Una distribución de probabilidad es un modelo matemático que asocia valores de una
variable aleatoria con sus respectivas probabilidades, es decir:
Probabilidad de x = Función de x
• Las distribuciones se caracterizan por una fórmula que determina el tipo de
distribución y por un conjunto de parámetros, que son propios de cada espacio
muestral.
• En el caso de una variable discreta , la distribución puede describirse mediante una
función de probabilidad, que para cada valor de x de la variable X determina la
probabilidad de ser asumido :
P( X= x) = p (x)
• o bien por medio de una función de distribución de probabilidad acumulada o
simplemente función de distribución, la que, para cada valor provee la probabilidad de
no ser superado :

• evidentemente, el valor de la función de distribución es igual a la suma de todos los


valores de la función de probabilidad desde el extremo inferior del dominio de la
variable hasta x inclusive
Ejemplo
• Para entender todo los dicho veremos un ejemplo de lanzar dos dados:
– La suma de ambos puede asumir 11 valores diferentes en 36 puntos muestrales
x Frec p(x) F(x)
DADO 1 1 1 0.03 0.03
1 2 3 4 5 6 2 2 0.06 0.08
3 3 0.08 0.17
1 2 3 4 5 6 7 4 4 0.11 0.28
2 3 4 5 6 7 8 5 5 0.14 0.42
DADO 2

3 4 5 6 7 8 9 6 6 0.17 0.58
7 5 0.14 0.72
4 5 6 7 8 9 10 8 4 0.11 0.83
5 6 7 8 9 10 11 9 3 0.08 0.92
6 7 8 9 10 11 12 10 2 0.06 0.97
11 1 0.03 1.00
Totales 36 1.00
• En este caso vemos que la distribución de p(x) obtenida es simétrica.
• Para el caso de 1 solo dado, donde todos los valores tienen la misma
probabilidad de salir (1/6), obtendríamos una distribución uniforme
Distribución binomial
• Este tipo de distribución discreta utilizada ampliamente.
• Describe datos discretos, no continuos que son el resultado de un
experimento conocido como proceso de Bernoulli.
• Bernoulli realiza experimentos de lanzamiento de monedas no
alteradas un número fijo de veces.
• Esto se conoce como el proceso Bernoulli:
– Los resultados de este proceso pueden representarse por una
distribución binomial de probabilidad.
• El éxito o fracaso en una entrevista laboral calza dentro de un proceso
Bernoulli.
• La distribución de frecuencia de la duración de las luces led de una fabrica
se podría medir mediante una escala continua de tiempo, pero no calza en
una distribución binomial.
Distribución binomial
• Usos del proceso Bernoulli
– Utilizaremos el lanzamiento de una monda para entender el proceso
Bernoulli, la moneda no esta alterada y se lanzará cierto número de
veces:
• Cada intento (cada lanzamiento, en este caso) puede tener dos resultados
posibles, cara o sello, si o no, verdadero o falso, éxito o fracaso.
• La probabilidad del resultado de cualquier intento permanece fijo con
respecto al tiempo.
– Con una moneda no alterada, la probabilidad de obtener cara siempre es 0.5 para
cada lanzamiento, independiente de el número de veces que se lance la moneda.
• Los intentos son estadísticamente independientes, el resultado de un
lanzamiento no afecta el resultado de cualquier otro lanzamiento.
– Cada proceso de Bernoulli tiene su propia probabilidad características.
• Supongamos que en el largo del tiempo, las personas que postulan a cierto
tipo de trabajo aprueban el examen el 70%.
• Consideramos un proceso Bernoulli cuando el 70% de los que aprueban el
examen permanecen constante en el tiempo.
Distribución binomial
• Usos del proceso Bernoulli
– También hay otras características del proceso Bernoulli que tienen que
cumplirse:
• Cada examen tendrían que tener dos resultados (éxito o fracaso)
• Los resultados de cada prueba deberían ser estadísticamente independiente.
– Formalicemos todo lo dicho hasta ahora:
• El símbolo p representa la probabilidad de tener exito (0.7 en nuestro
ejemplo)
• El símbolo q(q = 1 – p), es la probabilidad de que se fracase (0.3)
• Para representar un cierto numero de éxitos, utilizaremos el símbolo r.
• Para representar el numero de intentos o ensayo se utilizara el símbolo n.
– Desarrollemos el siguiente experimento:
• “La posibilidad de obtener dos caras, sin importar el orden, al lanzar una
moneda no alterada en tres intentos.
• Expresamos simbólicamente de la siguiente forma
Distribución binomial
– p = Probabilidad características o probabilidad de tener éxitos =
0.5
– q = 1 - p = probabilidad de fracaso = 0.5
– r = número de éxitos deseados = 2
– n = número de intentos hechos = 3
• Ahora utilizaremos la fórmula binomial:
n!
Probabilidad de r éxitos en n ensayos = Pr qn-r
r! (n - r)!

• Parece complicada?, bueno, el símbolo !, indica factorial


• Que es un factorial?
– Se define como l a multiplicación de todos los números enteros
positivos desde 1 hasta n, ejemplo:
• 1x2x3 = 6
Distribución binomial
• Recordando nuestros datos:
– p = Probabilidad características o probabilidad de tener éxitos = 0.5
– q = 1 - p = probabilidad de fracaso = 0.5
– r = número de éxitos deseados = 2
– n = número de intentos hechos = 3
• Ahora aplicando nuestra formula:
3!
Probabilidad de 2 éxitos en 3 ensayos = 0.52 0.53-2
2! (3 - 2)!
Probabilidad de 2 éxitos en 3 ensayos = 0.375
• El resultado nos indica que existe un 37.5% de probabilidad que
nos de dos caras en tres lanzamientos.
• Tomando un caso de la vida real
Distribución binomial
– Las maquinas de las empresas están diseñadas para trabajar
de manera eficiente y con una alta confiabilidad.
– Una máquina llenadora de tubos de pasta dental tiene una
precisión en su trabajo de 0.1 onzas del nivel deseado el
80% de las veces.
– Los tubos una ves llenos son embalados en una caja, y la
pregunta es:
• ¿Cuáles son las posibilidades de que exactamente la mitad de los tubos de
una caja seleccionada al azar estén llenos con una precisión de 0.1 onzas
del nivel deseado?
– La distribución binomial nos dará una respuesta bastante
aceptable.
– Recordemos que solo el 80% de los tubos se llenan de
manera correcta
Distribución binomial
– Partiendo de la premisa que la caja tiene seis tubos, por lo
tanto lo que se pide es:
• Cual es la probabilidad de que tres de los seis tubos estén dentro de la
especificación.
– Podemos definir nuestros datos de la siguiente forma:
• p = Probabilidad características o probabilidad de tener éxitos = 0.8
• q = 1 - p = probabilidad de fracaso = 0.2
• r = número de éxitos deseados = 3
• n = número de intentos hechos = 6
– Utilizaremos la formula binomial:
n! 6!
Probabilidad de r éxitos en n ensayos = r
Pq n-r = 0.833 0.26-3
r! (n - r)! 3! (6 - 3)!
– Podemos decir que existe un 8.2% de probabilidad que tres de
los seis tubo estén dentro de la especificación
Algunas ilustraciones gráficas de la distribución
binomial
• La distribución binomial no solo se puede representar en fórmulas, ya que
también podemos mostrarla gráficamente.
• Par ver esta situación tomen un curso que se dicta en la UCSS en la que los
estudiantes suelen llegar tarde.
• El salón esta compuesto por 5 estudiantes.
• La facultad ha estudiado el caso durante un periodo determinado, y
encontró que un 40% de los estudiantes llegan tarde, y que estos no
tienen ninguna relación.
• ¿Cómo podríamos trazar una distribución binomial de probabilidad que
ejemplifique de que 0, 1 , 2, 3 … 50 estudiantes lleguen tarde
simultáneamente?.
• Los datos son los siguientes:
– p = Probabilidad características o probabilidad de llegar tarde = 0.4
– q = 1 - p = probabilidad de no llegar tarde = 0.6
– n = número de intentos hechos = 5
Algunas ilustraciones gráficas de la distribución
binomial
• Vamos a calcular el r, por separado entre 0 a 5
P(n)
r P(n)
0.4
0 0.0776
0.35
1 0.2592

Probabilidades
0.3
2 0.3456
0.25
3 0.2304
0.2
4 0.0768
0.15
5 0.1024
0.1
0.05
0
0 1 2 3 4 5

Llegadas Tarde
Distribución de Poisson
• Es una distribución de probabilidad discreta.
• La distribución de Poisson se emplea para describir varios
procesos, como por ejemplo:
– La distribución de las llamadas telefónicas que llagan a un conmutador,
– la demanda (necesidades) de servicios en una institución asistencial por
parte de los pacientes,
– los arribos de los camiones y automóviles a la caseta de cobro de peaje.
– El número de accidentes en un cruce.
• Los ejemplos tienen un elemento en común.
• Pueden ser descritos por una variable aleatoria discreta que
asume valores enteros (0,1,2,3,4,5 y así sucesivamente).
• La Distribución de Poisson se llama así en honor a Simeón Dennis
Poisson (1781-1840), francés que desarrolló esta distribución
basándose en estudios efectuados en la última parte de su vida.
Características de los procesos que producen
una distribución de la probabilidad de Poisson
• El número de vehículos que pasan por una caseta de cobro en
las horas de mayor tráfico sirve como ejemplo para mostrar las
características de una distribución de probabilidad de Poisson.
• El promedio de los arribos de vehículos por hora de gran tráfico
puede estimarse a partir de los datos anteriores del tráfico.
• Si dividimos las horas de gran tráfico en periodos (intervalos) de
un segundo cada uno, encontraremos que los siguientes
enunciados son verdaderos:
– La probabilidad de que exactamente un vehículo llegue por segundo a
una caseta individual es un número muy pequeño y es constante para
que cada intervalo de un segundo.
– La probabilidad de que dos o más vehículos lleguen en un intervalo de
un segundo es tan reducida que podemos asignarle un valor cero.
Características de los procesos que producen una
distribución de la probabilidad de Poisson
– El número de vehículos que llegan en determinado intervalo de un
segundo es independiente del momento en que el intervalo de un
segundo ocurre durante la hora de gran tráfico.
– El número de llegadas en cualquier intervalo de un segundo no
depende del número de arribos de cualquier otro intervalo de un
segundo.
• Podemos generalizar que, si estas condiciones se cumplen nos
apoyaremos en una distribución de probabilidad de Poisson para
describirlos.
Cálculo de probabilidades mediante la
distribución de Poisson
Distribución de probabilidades
• Distribución de probabilidad discretas
– Una variable aleatoria representada mediante una distribución
discreta de probabilidad puede tomar un valor de entre un conjunto
de valores, cada uno de los cuales tiene asignada una determinada
probabilidad de ocurrencia.
– Ejemplos: Binomial, Geométrica, Poisson, Discreta.
• Distribución de probabilidad continuas
– Una variable aleatoria representada mediante una distribución
continua de probabilidad puede tomar cualquier valor dentro de un
rango determinado.
– Ejemplos: Normal, Lognormal, Uniforme, Triangular, Histograma
Distribución de probabilidades
• No Limitadas
– La variable aleatoria puede tomar valores entre +infinito y –infinito
(ejemplos: Normal, Logística).
– Limitadas Los valores de la variable aleatoria quedan confinados entre
dos valores extremos
– Ejemplos: Binomial, Beta, Uniforme, Triangular, Histograma).
• Parcialmente Limitadas
– Los valores de la variable aleatoria quedan limitados en uno de los
extremos de la distribución
– ejemplos: Poisson, Exponencial).
• Paramétricas
– La distribución de probabilidad se ajusta a la descripción matemática de
un proceso aleatorio que cumple con determinados supuestos teóricos.
– Los parámetros que definen la distribución en general no guardan
relación intuitiva con la forma de la distribución.
– Ejemplos: Normal, Lognormal, Exponencial, Beta.
Distribución de probabilidad
• No Paramétricas
– Los parámetros que se usan para definir estas distribuciones
describen la forma de la distribución.
– No se apoyan en una teoría que describa el proceso de generación de
valores aleatorios.
– Ejemplos: Triangular, Histograma, General, Uniforme, Acumulada
• Subjetivas
– El uso de estas distribuciones de probabilidad es la única alternativa
para describir una variable aleatoria cuando:
• No hay una base de antecedentes.
• Los datos del pasado no son relevantes.
• Los datos son escasos y no cubren todo el rango de posibles valores.
• Es demasiado caro generar datos.
• Generar valores llevaría demasiado tiempo
• Ley de los grandes números.
• Teorema del límite central.

Anda mungkin juga menyukai