Anda di halaman 1dari 9

Nociones básicas de probabilidad.

Conceptos previos
probabilidad
Todo experimento aleatorio presenta tres características:
 Todos los resultados posibles son conocidos con anterioridad a su realización.
 No se puede predecir con certeza el resultado que vamos a obtener.
 El experimento puede repetirse, todas las veces que se desee, en idénticas
condiciones.
Por tanto, un experimento aleatorio es un proceso, que se puede repetir indefinidamente en
las mismas condiciones, cuyo resultado no se puede predecir con certeza.
El conjunto de todos los resultados posibles de un experimento aleatorio se denomina
espacio muestral E.
A los resultados de un experimento aleatorio se les denomina sucesos y se representa por
las letras: A, B, ...
Los sucesos a su vez pueden ser elementales o compuestos, dependiendo de la cantidad de
resultados de los que consten.
Al suceso que siempre ocurre se le denomina suceso seguro y al que no puede ocurrir se le
llama suceso imposible ∅.
Operaciones con sucesos basadas en la teoría de conjuntos:
Unión: A ∪ B
Intersección A ∩ B
Complementario: A¯
https://psikipedia.com/libro/analisis-de-datos/2467-nociones-basicas-de-probabilidad-
conceptos-previos

Definición de probabilidad
probabilidad
La probabilidad de un suceso es igual al cociente entre el número de casos favorables de
que ocurra ese suceso y el número de casos posibles en el supuesto de que todos los casos
tengan la misma probabilidad de ocurrir (Laplace).
La definición estadística de probabilidad es: "el límite al que tiende la frecuencia relativa de
aparición de un suceso A cuando el número de ensayos, n, tiende a infinito". Esta
definición tiene un problema: muchas veces no es posible repetir un experimento aleatorio
un gran número de veces y, si lo es, no es práctico.
Este problema llevó a una nueva definición, denominada axiomática: "dado un espacio
muestral E, llamamos probabilidad de un suceso A, definido en el espacio muestral E y que
designamos por P(A), a un número real que asignamos al suceso A, tal que cumple las
siguientes propiedades:
 0 ≤ P(A) ≤ 1
 P(E) = 1
 P(A) =1 – (A¯)
A estas propiedades podemos añadir el Teorema de la suma: la probabilidad de que ocurra
el suceso A o el suceso B es igual a la probabilidad de que ocurra A más la probabilidad de
que ocurran ambos:
P (A ∪ B) = P(A) + P(B) – P(A ∩ B)
Cuando los sucesos A y B son incompatibles, es decir, no pueden ocurrir simultaneamente
o la ocurrencia de uno implica la no ocurrencia del otro, la regla de la suma se simplifica:
P (A ∪ B) = P(A) + P(B)
https://psikipedia.com/libro/analisis-de-datos/2466-definicion-de-probabilidad

Probabilidad condicionada
probabilidad
Hay situaciones donde la aparición de un suceso A depende de la aparición de otro suceso
B. Diremos, en estos casos, que los sucesos A y B son dependientes.
Para dos sucesos, A y B, la probabilidad de A condicionado a B, se escribe P(A|B) y es
igual a la probabilidad de la intersección dividido por la probabilidad de la condición de B.
P(A|B) = P(A ∩ B) / P(B)
De la misma forma:
P (B|A) = P(B ∩ A) / P(A)
Si los sucesos son independientes:
P (A|B) = P(A) y P(B|A) = P(B)
https://psikipedia.com/libro/analisis-de-datos/2465-probabilidad-condicionada

La regla del producto y el teorema de Bayes


probabilidad
La regla o teorema del producto establece que la probabilidad de ocurrencia de A y B es
igual a la probabilidad de ocurrencia de A por la probabilidad de ocurrencia de B, dado que
A ha ocurrido previamente. Es decir:
P(A ∩ B) = P (A)·P(B|A)
donde P(B|A) se lee como "la probabilidad de que ocurra B dado que ha ocurrido A".
Cuando los sucesos A y B son independientes:
P(A ∩ B) = P(A)·P(B)
El teorema de Bayes podemos expresarlo de la siguiente manera:
P(A|B) = (P(A) · P (B|A)) / P(B)
https://psikipedia.com/libro/analisis-de-datos/2464-la-regla-del-producto-y-el-teorema-de-
bayes

Variable aleatoria: definición y tipos


Una variable aleatoria es una función que asigna un número real, y sólo uno, a cada uno de
los resultados de un experimento aleatorio. Las variables aleatorias se representan por letras
mayúsculas de nuestro alfabeto latino y utilizaremos las minúsculas con subíndices, para
los valores concretos de las variables.
Las variables aleatorias pueden ser discretas o continuas. Discreta cuando la variable sólo
puede tomar un conjunto infinito y numerable de valores (los números naturales) o finito de
valores (número de sucesos). Y continua cuando puede tomar infinitos valores o un
conjunto de valores no numerable.
https://psikipedia.com/libro/analisis-de-datos/2463-variable-aleatoria-definicion-y-tipos

Variables aleatorias discretas


probabilidad

Función de probabilidad
Se llama función de probabilidad de una variable aleatoria discreta, X, y se representa por
f(x), a aquella función que asocia a cada valor de la variable la probabilidad de que ésta
adopte ese valor. Es decir:
f(x) = P (X = x)
La función de probabilidad de una variable aleatoria discreta puede representarse mediante
un diagrama de barras.
Las dos propiedades que debe cumplir la función de probabilidad son:

 Para cualquier valor de x, siempre toma valores positivos o nulos, es decir:

∀ x ∈ X f(x) ≥ 0

 La suma de todas las probabilidades correspondientes a cada valor de x es


igual a uno:

∑ f(x) = f(x1) + f(x2) + ... + f(xn) = 1

Función de distribución
Se llama función de distribución de una variable aleatoria discreta X, y se representa por
F(x), a aquella función que asocia a cada valor de la variable la probabilidad de que ésta
adopte ese valor o cualquier otro inferior:
F(x) = P (X ≤ x)
De la misma forma:
F(x) = P (X ≤ x) = f(x1)+f(x2)+...+f(xn)
Las propiedades fundamentales que debe cumplir la función de distribución de probabilidad
son:

 Todos los valores que toma la función de distribución de probabilidad son


positivos o nulos:

∀x F(x) ≥ 0

 F(x) es nula, vale 0, para todo valor inferior al menor valor de la variable
aleatoria, x1:

F(x) = 0 si x < x1

 F(x) es igual a uno para todo valor igual o superior al mayor valor de la
variable aleatoria. Si llamamos “xk” al mayor valor de la variable:

F(x) = 1 si x ≥ xk

 La función F(x) es no decreciente ya que es una acumulación o suma de


probabilidades que son siempre positivas o nulas.
 La probabilidad, P, de que la variable aleatoria X tome valores x comprendidos
entre x1 y x2 (x1 < x < x2) es la diferencia entre los valores de la función de
distribución correspondientes a su valor superior menos su valor inferior.
P (x1 < x ≤ x2) = F(x2) – F(x1)
Media y varianza de una variable aleatoria
La media, μ, de una variable aleatoria discreta X viene definida por la siguiente expresión:
μ = ∑x · f(x)
La media de una variable X, también se le conoce por esperanza matemática o valor
esperado de X y se representa por E(X).
La varianza σ2 de una variable aleatoria discreta X viene definida por:
σ2 = ∑(x – μ)2 · f(x)
Otra alternativa; a veces muy útil, es:
σ2 = E(X2) - [E(X)]2
donde: E(X2) = ∑ x2 · f(x) y [E(X)]2 es la media elevada al cuadrado. Por tanto, la varianza
puede definirse también como la esperanza de los cuadrados de X, E(X2), menos el
cuadrado de la esperanza de X, [E(X)]2.
De la misma forma la desviación típica de una variable aleatoria será la raíz cuadrada de la
varianza.
https://psikipedia.com/libro/analisis-de-datos/2462-variables-aleatorias-discretas

Distribuciones discretas de probabilidad


probabilidad
Para algunas distribuciones discretas se emplean una serie de tablas que facilitan su
aplicación a unos problemas en concreto.
En Ciencias Sociales y de la Salud se trabajan con variables que toman sólo dos valores
(dicotómicas) y que habitualmente representaremos por 1 y 0. En estos casos, resulta muy
útil la utilización de la distribución binomial.

La distribución binomial
El ensayo anterior de la moneda al aire se denomina Bernouilli, autor de éste ensayo. Un
experimento binomial consiste en repetir “n” veces un ensayo Bernouilli. Una variable
aleatoria X sigue una distribución binomial (con parámetros n y p) si expresa el número de
realizaciones independientes “n” con la probabilidad “p” y por tanto (1 – p) de obtener
fracaso. Se representa por B(n, p); donde B indica binomial, n el número de ensayos y p la
probabilidad de éxito.
Ejemplo:
Si tiramos tres veces la moneda al aire y definimos X como el número de caras, esta
variable seguirá los parámetros n = 3 y p = 0,5. Lo mismo que B(3; 0,5).
Las características fundamentales de una distribución B(n,p) son:

 Función de probabilidad:

f(x) = P(X = x) = (nx)pxqn-x

 Función de distribución:

F(x) = P(X ≤ x) =∑(nx) px qn-x


Media: μ = np
Varianza : σ2 = npq;
donde x es el numero de aciertos, n el número de ensayos, p la probabilidad de éxito de
cada ensayo, q la probabilidad de fracaso (1-p) y el número combinatorio (nx), que se lee
“n sobre x” es igual a n! / (x! (n - x)!)

Otras distribuciones discretas


Existen otros modelos de distribuciones discretas. El modelo Poisson de los “sucesos
raros”, se utiliza en condiciones similares a las binomiales pero con un elevado número de
ensayos y un valor p muy pequeño.

https://psikipedia.com/libro/analisis-de-datos/2461-distribuciones-discretas-de-
probabilidad

La distribución normal
probabilidad
La distribución normal, campana de Gauss o, curva normal, como también se conoce a esta
distribución fue definida por De Moivre en un intento de encontrar las probabilidades
acumuladas en un distribución binomial cuando "n" (el número de ensayos) es grande.

Características y propiedades
Si a una variable X que se distribuye normalmente, con media σ2, le aplicamos una
transformación lineal Y = bX+a, la nueva variable Y se distribuirá normalmente pero con
media bμx + a y desviación típica |b|σx. Si restamos la media y dividimos por la desviación
típica obtenemos una nueva variable “z”.
Las propiedades fundamentales de una distribución normal son:
 Una distribución normal es simétrica a su media, μ, que coincide con su mediana y
su moda.
 La curva normal tiene dos puntos de inflexión, es decir, dos puntos donde la curva
pasa de ser cóncava a convexa. Estos puntos están situados a una distancia de una
desviación típica de la media.
 Es asintótica en el eje de abscisas, se extiende desde -∞ hasta +∞ sin tocar nunca el
eje.

Utilización de las tablas


En el supuesto que la tabla no recoja el valor, podemos utilizar el más próximo.
Cálculo de la probabilidad para valores menores o iguales que una determinada puntuación
típica: En este caso se mira directamente en la tabla.
Cálculo de la probabilidad para valores mayores que una determinada puntuación: En este
supuesto se mira en la tabla la probabilidad que esa puntuación deja por debajo y se resta a
1.
Cálculo de la probabilidad entre dos puntuaciones determinadas: Aquí se restan las
probabilidades que dejan por debajo de sí las dos puntuaciones típicas.

Histograma y distribución normal


Si disponemos de los datos originales de una variable X, y su distribución es
normal,utilizaremos las tablas III y IV, pero anteriormente transformaremos las
puntuaciones directas en puntuaciones típicas.

Aproximación de la binomial a la normal


Cuando las distribuciones binomiales superan sus valores de 20, se puede aproximar a la
binomial normal. Teniendo una variable X, con distribución binomial, su media es μ = np y
su desviación típica σ = npq.
Para aproximar la distribución binomial a la normal establecemos un intervalo entre 0,5 a la
izquierda y a la derecha:
P [(12-0,5) ≤ x ≤ (12+0,5)]
Sumar y restar el valor 0,5 se llama corrección por continuidad, permitiendo utilizar las
puntuaciones discretas como continuas.
https://psikipedia.com/libro/analisis-de-datos/2460-la-distribucion-normal

La distribución "Chi-cuadrado" de Pearson


probabilidad
Siguiendo con las distribuciones continuas, la distribución chi cuadrado (χ2) de Pearson está
íntimamente relacionada con la distribución normal.
Sean X con distribución X1, X2, ..., Xn un conjunto de n variables aleatorias independientes
con una distribución N(0,1), entonces una nueva variable aleatoria X = X21 + X22 + ... +
X2n sigue una distribución χ2n (chi cuadrado con n grados de libertad) y se representa así:
X → χ2n . Su media y varianza valdrán μ = n y, σ2 = 2n.
Esta distribución se usa para contrastar si la distribución de una variable se ajusta a una
distribución determinada.
Entre sus propiedades señalamos:
 Nunca adopta valores menores de 0.
 Es asimétrica positiva pero a medida que aumentan sus grados de libertad se va
aproximando a la distribución normal.
 Para n > 100 la podemos aproximar a una distribución N(n, √2n).
https://psikipedia.com/libro/analisis-de-datos/2459-la-distribucion-chi-cuadrado-de-
pearson

La distribución "t" de Student


probabilidad
Una distribución “t” es el cociente entre una variable N(0,1) y la raíz cuadrada de una
variable χ2n dividida por sus grados de libertad. Su nombre se debe a su descubridor, el
matemático Gosset, que publicó sus trabajos bajo el seudonimo de "Student".
Sus características son:
 Es simétrica, con μ = 0. Su forma es muy parecida a la N(0,1), aunque menos
apuntada.
 Puede tomar cualquier valor entre -∞ y +∞.
 A medida que aumentan los grados de libertad, la distribución se aproxima más a
una distribución normal.
 La curva es asintótica al eje de abscisas.
Se emplea en estadística inferencial en las pruebas de contraste.
https://psikipedia.com/libro/analisis-de-datos/2458-la-distribucion-t-de-student

La distribución "F" de Snedecor


probabilidad
Si X1 y X2 son variables aleatorias independientes, con distribución chi-cuadrado con n 1 y
n2 grados de libertad respectivamente, entonces una nueva variable F definida por F =
(X1 / n1) / (X2 / n2) sigue una distribución F con n1 y n2 grados de libertad (Fn ,n2).
1
Siendo “n1” los grados del numerador y “n2” los del denominador.
Se caracteriza por:
 Es asimétrica positiva por lo que nunca toma valores menores que 0.
 Si X es una variable con distribución F con n1 y n2 grados de libertad, entonces la
variable Y = 1/X es también una distribución F con n1 y n2 grados de
libertad (propiedad recíproca).
https://psikipedia.com/libro/analisis-de-datos/2457-la-distribucion-f-de-snedecor