Anda di halaman 1dari 13

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación Universitaria,


Ciencia Y Tecnología
Universidad Politécnica Territorial del Estado Portuguesa
“Juan de Jesús Montilla”
Acarigua, Estado Portuguesa

Distribución de Probabilidades

Participantes:
Aldana DewisC.I.:26.035.006
Guedez Mariuxi C.I.:26.903.677
Mendoza Aracel C.I.:26.593.104
Torrealba Marielena C.I.:27.546.291
Oropeza Gustavo C.I.: 26.836.719
Prof. Yenny Martínez
P.N.F. Administración
Sección: 556
Acarigua, Junio 2019
Índice

Pág.
Distribución de Probabilidades unidimensional…………… 3
Variable Aleatoria………………………………………………. 3
Función de distribución………………………………………... 3
Valor esperado…………………………………………………. 4
Desviación estándar…………………………………………… 4
Distribución Bivariante de probabilidad conjunta…………. 5
Distribución Marginal…………………………………………... 5
Distribución Condicionante……………………………………. 6
Independencia entre variables……………………………….. 6
Modelos Probabilísticos discretos y continuos……………. 7
Modelos Discretos……………………………………………... 8
Modelos Continuos…………………………………………….. 11
1) Distribución de Probabilidades Unidimensional

a) Variable Aleatoria:
Una variable es un símbolo que actúa en las funciones, las fórmulas, los
algoritmos y las proposiciones de las matemáticas y la estadística. Una
variable aleatoria es aquella función que adjudica eventos posibles a números
reales, cuyos valores se miden en experimentos de tipo aleatorio. Estos
posibles valores representan los resultados de experimentos que todavía no
se llevaron a cabo o cantidades inciertas.

La variable aleatoria, además permite ofrecer una descripción de la


probabilidad de que se adoptan ciertos valores. De manera precisa no se sabe
qué valor adoptará la variable cuando sea determinada o medida, pero sí se
puede conocer cómo se distribuyen las probabilidades vinculadas a los valores
posibles. En dicha distribución incide el azar.
Es importante mencionar, que los experimentos aleatorios son aquellos
que, desarrollados bajo las mismas condiciones, pueden ofrecer resultados
diferentes.
Un ejemplo de este experimento es el de arrojar una moneda al aire para
ver si sale cara o sello.

b) Función de distribución:
La función de densidad de una variable aleatoria X permite trasladar la
medida de probabilidad o "suerte" de realización de los sucesos de una
experiencia aleatoria a la característica numérica que define la variable
aleatoria.
Para definir F, la función distribución de probabilidad de X, distinguiremos
el caso discreto, donde los posibles valores de X forman un conjunto discreto
(finito o numerable), del continuo, donde el recorrido de la variable aleatoria es
un intervalo de la recta real:

3
Si X es discreta su función de distribución se define por:

En el caso de que X sea continua se tiene:

c) Valor Esperado:
En estadística el valor esperado o esperanza matemática de una variable
aleatoria, es la suma de la probabilidad de cada suceso multiplicado por su
valor. Es el número que formaliza la idea de valor medio de un fenómeno
aleatorio.
Si tiramos una moneda 10 veces, esperamos que salga 5 veces "cara" y 5
veces "sello". Esperamos obtener este valor porque la probabilidad de que
salga "cara" es 0,5, y si lanzamos la moneda 10 veces, obtenemos 5. Por lo
tanto, 5 es el valor esperado.

d) Desviación Estándar:

La desviación estándar (o desviación típica) es una medida de dispersión


para variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la
estadística descriptiva. Es una medida (cuadrática) de lo que se apartan los
datos de su media, y, por tanto, se mide en las mismas unidades que la
variable.
Para conocer con detalle un conjunto de datos, no basta con conocer las
medidas de tendencia central, sino que necesitamos conocer también la
desviación que representan los datos en su distribución, con objeto de tener
una visión de los mismos más acorde con la realidad a la hora de describirlos
e interpretarlos para la toma de decisiones.

4
Desviación estándar o Típica

Esta medida nos permite determinar el promedio aritmético de fluctuación


de los datos respecto a su punto central o media. La desviación estándar nos
da como resultado un valor numérico que representa el promedio de diferencia
que hay entre los datos y la media. Para calcular la desviación estándar basta
con hallar la raíz cuadrada de la varianza, por lo tanto, su ecuación sería:
S= √ S2

2) Distribución Bivariante de Probabilidad Conjunta:

a) Distribución Marginal:

La distribución marginal es aquella distribución de probabilidad de un


subconjunto de variables aleatorias de un conjunto de variables aleatorias. La
distribución marginal se encarga de proporcionar a la probabilidad de un
subconjunto de valores del conjunto sin necesidad de conocer los valores de
las otras variables. Esto contrasta con la distribución condicional, que
proporciona probabilidades contingentes sobre el valor conocido de otras
variables.

El término variable marginal se usa para referirse a una variable del


subconjunto de retenido y cuyos valores pueden ser conocidos.

La distribución de las variables marginales, la distribución marginal, se


obtiene marginalizando sobre la distribución de variables descartadas y las
variables descartadas se llaman a veces variables marginalizadas.

5
b) Distribución Condicionante:

La distribución condicionante es la probabilidad de que ocurra un evento A,


sabiendo que también sucede otro evento B. La probabilidad condicional se
escribe P(A|B) o P(A/B), y se lee “la probabilidad de A dado B”.

No tiene por qué haber una relación causal o temporal entre A y B. A puede
preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A
puede causar B, viceversa o pueden no tener relación causal. Las relaciones
causales o temporales son nociones que no pertenecen al ámbito de la
probabilidad. Pueden desempeñar un papel o no, dependiendo de la
interpretación que se les dé a los eventos.

Un ejemplo es el lanzamiento de una moneda para luego lanzar un dado.


¿Cuál es la probabilidad que en el dado salga un 6 dado que ya haya salido
una cara en la moneda? Esta probabilidad se denota de esta manera: P(6|C).

El condicionamiento de probabilidades puede lograrse aplicando el


teorema de Bayes.

Su fórmula es la siguiente:

c) Independencia entre variables

Se dice que dos sucesos aleatorios son independientes entre sí cuando la


probabilidad de cada uno de ellos no está influida porque el otro suceso ocurra
o no, es decir, cuando ambos sucesos no están relacionados.

Definición formal

Dos sucesos son independientes si la probabilidad de que ocurran ambos


simultáneamente es igual al producto de las probabilidades de que ocurra cada
uno de ellos, es decir, si P (A ∩ B) = P(A) P(B).

6
Sean A y B dos sucesos tales que P(B) > 0, intuitivamente A es independiente
de B si la probabilidad de A condicionada por B es igual a la probabilidad de
A. Es decir, si:

P (A│B) = P(A)

De la propia definición de probabilidad condicionada:

P(A│B) = P (A ∩ B)

P (B)

Se deduce que P (A ∩ B) = P (A │B) P(B), y dado que P (A│B) = P(A)


deducimos trivialmente que P (A ∩ B) = P(A) P(B). si el suceso A es
independiente del suceso B, automáticamente el suceso B es independiente
de A.

3) Modelos Probabilísticos Discretos y Continuos:

Los modelos probabilísticos son aquellos que pueden formar un conjunto


de datos obtenidos de muestras de datos con comportamiento que se supone
aleatorio. Los modelos probabilísticos son un tipo de modelo matemático que
usa la probabilidad, y que incluye un conjunto de asunciones sobre la
generación de algunos datos muestrales, de tal manera que asemejen a los
datos de una población mayor.

Las hipótesis de un modelo probabilístico describen un conjunto de


distribuciones de probabilidad, las cuales son capaces de aproximar de
manera adecuada un conjunto de datos.

Un modelo probabilístico queda especificado por un conjunto de


ecuaciones que relacionan diversas variables aleatorias, y en las que pueden
aparecer otras variables no aleatorias.

7
Modelos Probabilísticos Discretos:

Los modelos discretos, son modelos de probabilidad de variable aleatoria


discreta. Los más importante son los modelos: de la distribución binomial y la
distribución de Poisson.

A) Distribución Binomial:

La distribución binomial es una distribución de probabilidad discreta que


describe el número de éxitos al realizar “n” experimentos independientes entre
sí, acerca de una variable aleatoria. Para que sea una distribución binomial
debe cumplir lo siguiente:

-. En cada ensayo, experimento o prueba solo son posibles dos resultados


(éxito o fracaso).

-. La probabilidad del éxito ha de ser constante.

-. La probabilidad de fracaso ha de ser también constate.

-. El resultado obtenido en cada experimento es independiente del anterior.

-. Los sucesos son mutuamente excluyentes, es decir, no pueden ocurrir los 2


al mismo tiempo.

-. Los sucesos son colectivamente exhaustivos, es decir, al menos uno de los


2 ha de ocurrir.

La fórmula para calcular la distribución binomial es:

8
Donde:

N = número de ensayos/experimentos.

X = número de éxitos.

P = probabilidad de éxito.

Q = probabilidad de fracaso (1-p).

Ejemplo de distribución binomial:

Se lanza una moneda en el que definimos el suceso “sacar cara” como el


éxito. Si lanzamos 5 veces la moneda y contamos los éxitos (sacar cara) que
obtenemos, nuestra distribución de probabilidades se ajustaría a una
distribución binomial.

b) Distribución híper-geométrica:

La distribución híper-geométrica es una distribución discreta que modela el


número de eventos en una muestra de tamaño fijo cuando se conoce el
número total de elementos en la población de la cual proviene la muestra.
Cada elemento de la muestra tiene dos resultados posibles. Las muestras no
tienen reemplazo, por lo que cada elemento de la muestra es diferente. Al
seleccionar un elemento de la población, no se puede volver a elegir. Por lo
tanto, la probabilidad de que un elemento sea seleccionado aumenta con cada
ensayo. La distribución híper-geométrica se utiliza para muestras obtenidas de
poblaciones relativamente pequeñas, sin reemplazo.

La distribución híper-geométrica se define por 3 parámetros: tamaño de la


población, conteo de eventos en la población y tamaño de la muestra.

9
Ejemplo de distribución híper-geométrica:

Se extraen aleatoriamente 8 elementos de un conjunto formado por 40


elementos totales (cartas baraja española) de los cuales 10 son del tipo A (salir
oro) y 30 son del tipo complementario (no salir oro).

Si realizamos las extracciones sin devolver los elementos extraídos y


llamamos X al número de elementos del tipo A (oros obtenidos) que extraemos
en las 8 cartas; X seguirá una distribución híper-geométrica de parámetros 40,
8, 10/40.H(40,8,0,25).

Para calcular la probabilidad de obtener 4 oros:

c) Distribución de Poisson:

La distribución de Poisson es una de las más importantes distribuciones de


variable discreta. Se utiliza para describir el número de veces que un evento
ocurre en un espacio finito de observación.

La distribución de Poisson se aplica a la modelización de situaciones en las


que nos interesa determinar el número de hechos de cierto tipo que se pueden
producir en un intervalo de tiempo o de espacio, bajo presupuestos de
aleatoriedad y ciertas circunstancias restrictivas. También se usa
frecuentemente para considerar el límite de procesos dicotómicos reiterados
un gran número de veces si la probabilidad de obtener un éxito es muy
pequeña.

Para que sea una distribución de Poisson debe cumplir lo siguiente:

-. Los datos son conteos de eventos (enteros no negativos, sin límite superior).

10
-. Todos los eventos son independientes.

-. La tasa promedio no cambia durante el período de interés.

Por ejemplo, una distribución de Poisson puede describir el número de


defectos en el sistema mecánico de un avión o el número de llamadas a un
centro de llamadas en una hora. La distribución de Poisson se utiliza con
frecuencia en el control de calidad, los estudios de fiabilidad/supervivencia y
los seguros.

Modelos Probabilísticos Continuos:


a) Distribución Uniforme:

La distribución uniforme es el modelo continuo más simple, puesto que es


el caso de una variable aleatoria que sólo puede tomar valores comprendidos
entre dos extremos a y b, de manera que todos los intervalos de una misma
longitud (dentro de las variables a y b) tienen la misma probabilidad. También
puede expresarse como el modelo probabilístico correspondiente a tomar un
número al azar dentro de un intervalo (a, b).

Su fórmula es la siguiente:

X= U (a, b) sea: para x € [a,b].

b) Distribución Exponencial:

La distribución exponencial es el equivalente continuo de la distribución


geométrica discreta. Esta distribución describe procesos en los cuales nos
interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,

11
el tiempo que pueda ocurrir desde cualquier instante dado, hasta que ello
ocurra en un instante, no depende del tiempo transcurrido anteriormente en el
que no ha pasado nada.

La distribución exponencial es de gran utilidad práctica puesto que, es un


modelo adecuado para la distribución de probabilidad del tiempo de espera
entre dos hechos que sigan un proceso de Poisson. De hecho, la distribución
exponencial puede derivarse de un proceso experimental de Poisson con las
mismas características que las que enunciábamos al estudiar la distribución
de Poisson, pero tomando como variable aleatoria, en este caso, el tiempo que
tarda en producirse un hecho

Es importante destacar que, la variable aleatoria será continua. Por otro


lado, existe una relación entre el parámetro a de la distribución exponencial,
que más tarde aparecerá, y el parámetro de intensidad del proceso.

La distribución exponencial se puede utilizar para modelar:

-. Cuánto tiempo tarda en fallar un componente electrónico

-. El intervalo de tiempo entre las llegadas de clientes a una terminal

-. El tiempo que esperan los clientes en fila hasta recibir servicio

-. El tiempo hasta que se declara el incumplimiento de un pago (modelos de


riesgo de crédito).

-. El tiempo para desintegración de un núcleo radiactivo

c) Distribución Normal:

La distribución normal o gaussiana. Fue descubierta por Carl Gauss al


estudiar el comportamiento de los procesos aleatorios. Es ampliamente
utilizada en estadística y teoría de las probabilidades.

12
La distribución normal es una distribución continua que se especifica por la
media (μ) y la desviación estándar (σ). La media es el pico o centro de la curva
en forma de campana. La desviación estándar determina la dispersión de la
distribución.

La distribución normal es la distribución estadística más común debido a


que la normalidad aproximada ocurre naturalmente en muchas situaciones de
mediciones físicas, biológicas y sociales. Muchos análisis estadísticos
presuponen que los datos provienen de poblaciones distribuidas normalmente.

Por su importancia en el análisis estadístico son de interés los intervalos


donde el área bajo la curva corresponde a determinados valores de
probabilidad.

Este tipo de distribución posee las siguientes propiedades:

o La forma de la curva de la distribución depende de sus dos parámetros:


la media y la desviación estándar.
o La media indica la posición de la campana, la gráfica se desplaza a lo
largo del eje x.
o A mayor desviación la curva será más "plana", dado que la distribución,
en este caso, presenta una mayor variabilidad.
o La curva es simétrica respecto a la media.

13

Anda mungkin juga menyukai