Anda di halaman 1dari 9

Distribución Binomial

Función de probabilidad

Parámetros número de ensayos


Probabilidad de éxito

Función de probabilidad (fp)


Media
Varianza

En estadística, la distribución binomial es una distribución de probabilidad


discreta que mide el número de éxitos en una secuencia de n ensayos
independientes de Bernoulli con una probabilidad fija p de ocurrencia del éxito entre
los ensayos.

Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son
posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad
de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 – p. En la distribución
binomial el anterior experimento se repite n veces, de forma independiente, y se
trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1,
la binomial se convierte, de hecho, en una distribución de Bernoulli.

Para representar que una variable aleatoria X sigue una distribución binomial de
parámetros n y p, se escribe:

Ejemplos

Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse


por esta distribución:
Se lanza un dado diez veces y se cuenta el número de treses obtenidos: X ~
B(10, 1/6)
Se lanza una moneda dos veces y se cuenta el número de caras obtenidas.
Una partícula se mueve unidimensionalmente con probabilidad q de moverse
hacia atrás y 1-q de moverse hacia adelante

Experimento Binomial

Existen muchas situaciones en las que se presenta una experiencia binomial. Este
tipo de experiencias se caracteriza por estar formada por un número
predeterminado n de experimentos iguales. Cada uno de los experimentos es
independiente de los restantes (la probabilidad del resultado de un experimento no
depende del resultado del resto). El resultado de cada experimento ha de admitir
sólo dos categorías (a las que se denomina éxito y fracaso). Las probabilidades de
ambas posibilidades han de ser constantes en todos los experimentos (se denotan
como p y q o p y 1-p).

Se designa por X a la variable que mide el número de éxitos que se han producido
en los n experimentos.

Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución
de probabilidad binomial, y se nota B(n, p).

Características analíticas

Su función de probabilidad es

donde

siendo las combinaciones de en ( elementos tomados de


en )

Propiedades características

Relaciones con otras variables aleatorias

Si n tiende a infinito y p es tal que producto entre ambos parámetros tiende a ,


entonces la distribución de la variable aleatoria binomial tiende a una distribución
de Poisson de parámetro λ.

Por último, se cumple que cuando n es muy grande (usualmente se exige


que ) la distribución binomial puede aproximarse mediante la distribución
normal.
Distribución de Poisson

Función de probabilidad

El eje horizontal es el índice k. La función solamente está definida en valores


enteros de k. Las líneas que conectan los puntos son solo guías para el ojo y no
indican continuidad.

Parámetros
Dominio

Función de probabilidad (fp)

En teoría de probabilidad y estadística, la distribución de Poisson es una


distribución de probabilidad discreta. Expresa la probabilidad de un número k de
eventos ocurriendo en un tiempo fijo si estos eventos ocurren con una frecuencia
media conocida y son independientes del tiempo discurrido desde el último evento.

Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su


trabajo Recherches sur la probabilité des jugements en matières criminelles et
matière civile (Investigación sobre la probabilidad de los juicios en materias
criminales y civiles).

Propiedades

La función de densidad de la distribución de Poisson es

Donde λ es un parámetro positivo que representa la frecuencia esperada del


fenómeno modelado por la distribución.

Tanto el valor esperado como la varianza de una variable aleatoria con distribución
de Poisson son iguales a λ.
Relación con otras distribuciones

Sumas de variables aleatorias de Poisson

La suma de variables aleatorias de Poisson independientes es otra variable aleatoria


de Poisson cuyo parámetro es la suma de los parámetros de las originales. Dicho de
otra manera, si

Son N variables aleatorias de Poisson independientes, entonces

Distribución binomial

La distribución de Poisson es el caso límite de la distribución binomial. De hecho, si


los parámetros n y θ de una distribución binomial tienden a infinito de manera que
se mantenga constante, la distribución límite obtenida es de Poisson.

Aproximación normal

Como consecuencia del teorema central del límite, para valores grandes de λ, una
variable aleatoria de Poisson X puede aproximarse por otra normal dado que el
cociente

Converge a una distribución normal de media nula y varianza 1.


Distribución Normal

Función de densidad de probabilidad

La línea verde corresponde a la distribución normal estándar

Función de distribución de probabilidad

Parámetros
σ>0
Dominio

Función de
densidad

Función de
distribución
En estadística y probabilidad se llama distribución normal, distribución de
Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de
variable continua que con más frecuencia aparece en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica


respecto de un determinado parámetro. Esta curva se conoce como campana de
Gauss.

La importancia de esta distribución radica en que permite modelar numerosos


fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme
cantidad de variables incontrolables que en ellos intervienen, el uso del modelo
normal puede justificarse asumiendo que cada observación se obtiene como la
suma de unas pocas causas independientes.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el


modelo de la normal son:

caracteres morfológicos de individuos como la estatura;


caracteres fisiológicos como el efecto de un fármaco;
caracteres sociológicos como el consumo de cierto producto por un mismo
grupo de individuos;
caracteres psicológicos como el cociente intelectual;
nivel de ruido en telecomunicaciones;
errores cometidos al medir ciertas magnitudes;
etc.

En probabilidad, la distribución normal aparece como el límite de varias


distribuciones de probabilidad continua y discreta.

Historia

Abraham de Moivre, descubridor de la distribución normal

La distribución normal fue presentada por vez primera por Abraham de Moivre en
un artículo del año 1733, que fue reimpreso en la segunda edición de su The
Doctrine of Chances, de 1738, en el contexto de cierta aproximación de la
distribución binomial para grandes valores de n. Su resultado fue ampliado por
Laplace en su libro Teoría analítica de las probabilidades (1812), y en la actualidad
se llama Teorema de De Moivre-Laplace.

Definición formal

Hay varios modos de definir formalmente una distribución de probabilidad. La


forma más visual es mediante su función de densidad.

Función de densidad

Se dice que una variable aleatoria continua X sigue una distribución normal de
parámetros μ y σ y se denota X~N (μ, σ) si su función de densidad está dada por:

Donde μ (miu) es la media y σ (sigma) es la desviación típica (σ2 es la varianza).

Se llama distribución normal "estándar" a aquélla en la que sus parámetros


toman los valores μ = 0 y σ = 1. En este caso la función de densidad tiene la
siguiente expresión:

Su gráfica se muestra a la derecha y con frecuencia se usan tablas para el cálculo


de los valores de su distribución.

El complemento de la función de distribución de la normal estándar, 1 − Φ(x), se


denota con frecuencia Q(x), y es referida, a veces, como simplemente función Q,
especialmente en textos de ingeniería.[6] [7] Esto representa la cola de probabilidad
de la distribución gaussiana. También se usan ocasionalmente otras definiciones de
la función Q, las cuales son todas ellas transformaciones simples de Φ.[8]

La inversa de la función de distribución de la normal estándar puede expresarse en


términos de la inversa de la función de error:
Propiedades

Algunas propiedades de la distribución normal son:

1. Es simétrica respecto de su media, μ;

Distribución de probabilidad alrededor de la media en una distribución N(μ,


σ).

2. La moda y la mediana son ambas iguales a la media, μ;


3. Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ.
4. Distribución de probabilidad en un entorno de la media:
1. en el intervalo [μ - σ, μ + σ] se encuentra comprendida,
aproximadamente, el 68,26% de la distribución;
2. en el intervalo [μ - 2σ, μ + 2σ] se encuentra, aproximadamente, el
95,44% de la distribución;
3. por su parte, en el intervalo [μ -3σ, μ + 3σ] se encuentra
comprendida, aproximadamente, el 99,74% de la distribución. Estas
propiedades son de gran utilidad para el establecimiento de
intervalos de confianza. Por otra parte, el hecho de que
prácticamente la totalidad de la distribución se encuentre a tres
desviaciones típicas de la media justifica los límites de las tablas
empleadas habitualmente en la normal estándar.
5. Si X ~ N(μ, σ2) y a y b son números reales.

Estandarización de variables aleatorias normales

Como consecuencia de la Propiedad 1; es posible relacionar todas las variables


aleatorias normales con la distribución normal estándar.

Si X ~ N (μ, σ2), entonces

Es una variable aleatoria normal estándar: Z ~ N(0,1).

La transformación de una distribución X ~ N (μ, σ) en una N (0, 1) se llama


normalización, estandarización o tipificación de la variable X.

Una consecuencia importante de esto es que la función de distribución de una


distribución normal es, por consiguiente,
A la inversa, si Z es una distribución normal estándar, Z ~ N (0,1), entonces

X = σ Z + μ es una variable aleatoria normal tipificada de media μ y varianza σ2.

La distribución normal estándar está tabulada (habitualmente en la forma del valor


de la función de distribución Φ) y las otras distribuciones normales pueden
obtenerse como transformaciones simples, como se describe más arriba, de la
distribución estándar. De este modo se pueden usar los valores tabulados de la
función de distribución normal estándar para encontrar valores de la función de
distribución de cualquier otra distribución normal.

El Teorema del Límite Central

Gráfica de la función de distribución de una normal con μ = 12 y σ = 3,


aproximando la función de distribución de una binomial con n = 48 y p = 1/4

El Teorema del límite central establece que bajo ciertas condiciones (como pueden
ser independientes e idénticamente distribuidas con varianza finita), la suma de un
gran número de variables aleatorias se distribuye aproximadamente como una
normal.

La importancia práctica del Teorema del límite central es que la función de


distribución de la normal puede usarse como aproximación de algunas otras
funciones de distribución. Por ejemplo:

Una distribución binomial de parámetros n y p es aproximadamente normal


para grandes valores de n, y p no demasiado cercano a 1 ó 0 (algunos libros
recomiendan usar esta aproximación sólo si n p y n (1 − p) son ambos, al
menos, 5; en este caso se debería aplicar una corrección de continuidad).
La normal aproximada tiene parámetros μ = n p, σ2 = n p (1 − p).

Una distribución de Poisson con parámetro λ es aproximadamente normal


para grandes valores de λ.
La distribución normal aproximada tiene parámetros μ = σ2 = λ.